Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 678 résultats.
Mission freelance
Business Analyst santé Data DBT Snowflake – Données santé/cliniques et opérationnelles - remote
WorldWide People
Publiée le
Business Analysis
6 mois
Lyon, Auvergne-Rhône-Alpes
Business Analyst – Données cliniques et opérationnelles Compétences requises Solide expérience des standards de données de santé / cliniques (HL7, FHIR, ICD-10, LOINC, etc.). Bonne compréhension des plateformes et pipelines de données (Snowflake, dbt, IICS appréciés). Capacité à rédiger une documentation fonctionnelle claire , des user stories et des critères d’acceptation. Excellentes compétences en communication et expérience en environnement Agile . 3 à 6 ans ou plus d’expérience en tant que Business Analyst dans des contextes data, santé ou réglementaires . Un Business Analyst pour soutenir des initiatives impliquant des données cliniques et opérationnelles (MDM, SSU, CTMS, Site Connect, CRM, supply chain, finance, ERP). Le consultant agira comme interface entre les parties prenantes métier, les équipes cliniques et les équipes data/ingénierie , afin de traduire les besoins métier en exigences data exploitables. Responsabilités principales Recueillir, analyser et documenter les besoins métier liés aux cas d’usage de données cliniques et opérationnelles. Traduire les besoins fonctionnels en spécifications claires à destination des équipes data engineering et analytics. Contribuer aux activités de qualité des données, traçabilité (data lineage) et gouvernance (définitions, dictionnaires de données, règles de validation). Animer des ateliers avec les parties prenantes cliniques et opérationnelles et garantir l’alignement entre les équipes. Contribuer à la gestion du backlog et à la planification des sprints via Jira ; documenter les processus dans Confluence . Compétences requises Solide expérience des standards de données de santé / cliniques (HL7, FHIR, ICD-10, LOINC, etc.). Bonne compréhension des plateformes et pipelines de données (Snowflake, dbt, IICS appréciés). Capacité à rédiger une documentation fonctionnelle claire , des user stories et des critères d’acceptation. Excellentes compétences en communication et expérience en environnement Agile . 3 à 6 ans ou plus d’expérience en tant que Business Analyst dans des contextes data, santé ou réglementaires .
Mission freelance
Data Engineer IA & API (GCP & AWS)
Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Docker
6 mois
460-580 €
Courbevoie, Île-de-France
Nous recherchons, pour le compte de notre client dans le secteur de l’énergie , un(e) Data Engineer Cloud afin de renforcer ses équipes data et accompagner des projets stratégiques à forte valeur ajoutée. Compétences clés indispensables Excellente maîtrise de Python Solide expérience sur AWS , notamment Redshift Mise en place et orchestration de pipelines data avec Apache Airflow Infrastructure as Code avec Terraform Développement d’API avec FastAPI Conteneurisation avec Docker Très bonne maîtrise du SQL et de la modélisation de données Atouts majeurs Expérience sur Google Cloud Platform (GCP) Connaissances ou intérêt fort pour l’ IA Agentic (agents autonomes, workflows intelligents, LLMs) Sensibilité DataOps / MLOps Expérience sur des architectures data modernes Profil attendu Formation Bac+5 (école d’ingénieur, université ou équivalent) 3 à 6 ans d’expérience en Data Engineering (adaptable) Autonome, rigoureux(se) et orienté(e) solutions Bon relationnel et esprit d’équipe Curiosité technologique et goût pour l’innovation 📍 Localisation : Courbevoie
Mission freelance
98710/Data Engineer Nantes - Kafka - DBT - Python - Trino
WorldWide People
Publiée le
Apache Kafka
DBT
Python
12 mois
400-420 £GB
Nantes, Pays de la Loire
Data Engineer Nantes - Kafka - DBT - Python - Trino L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Mission freelance
Chief Data Officer de transition - Mission longue - Grand groupe Retail
KatchMe Consulting
Publiée le
AWS Cloud
Databricks
12 mois
900-1 200 €
Paris, France
Nous recherchons un CDO (Chief Data Officer) de transition afin d'entamer une transformation Data pour notre client, un acteur du Retail de premier plan. Contexte et enjeux: Dans un contexte de transformation stratégique, l’entreprise souhaite faire de la Data un levier central de performance et de décision. L’enjeu est triple : Mettre en place une approche Data Mesh pour responsabiliser les métiers sur leurs données Rendre les équipes métiers autonomes dans l’usage et la valorisation de la data Moderniser l’écosystème Data via une migration vers AWS couplé à une plateforme Databrick Vos responsabilités clés seront notamment: Définir la vision et la roadmap Data alignées avec la stratégie globale de l’entreprise Déployer une organisation Data Mesh (Data Products, ownership métiers, gouvernance fédérée) Accompagner les métiers vers une culture data-driven et le self-service analytique Piloter la construction et la migration de la plateforme Data sur AWS / Databricks Garantir la qualité, la sécurité, la conformité et la maîtrise des coûts de la Data Structurer, recruter et animer les équipes Data & Data Platform (une 100aine de personnes) en lien étroit avec le DSI Stakeholders management: vous serez le référent ComEx Data en lien avec les VP/C-Level de l'entreprise Si vous vous retrouvez dans cette mission, envoyez-nous votre CV, nous reviendrons vers vous sous 24h
Offre d'emploi
Consultant Data (DataLab Cloudera / Hive / Python) (F/H)
Taleo Capital
Publiée le
Apache Hive
Cloudera
Python
6 mois
57k-64k €
520-580 €
Paris, France
Contexte Au sein d’une direction des systèmes d’information nationaux et européens d'un acteur majeur du secteur banco-financier, le service en charge des plateformes data conçoit, maintient et fait évoluer les systèmes d’information au service d’activités critiques telles que la politique monétaire, les opérations de marché, la gestion des risques, la conformité et la stabilité financière. Vous interviendrez dans un DataLab rattaché aux applications de marché, au cœur des usages data des équipes métiers (marchés, risques, conformité). Objectifs de la mission Vous interviendrez principalement sur : La fin de réalisation et la maintenance évolutive d’un laboratoire data existant L’enrichissement des cas d’usage métiers liés aux opérations de marché, aux risques et à la politique monétaire Les travaux de cadrage et de structuration d’un gisement de données, en lien avec les besoins métiers Périmètre fonctionnel et technique Sources de données Flux issus de systèmes Front, Back et Décisionnels Marché Plateformes de trading et systèmes décisionnels associés Plateforme Data Cloudera Hive Environnements Python et R SAS Viya Outils de restitution et d’analyse Power BI SAS Viya Missions principales Data Engineering & DataLab Développement et maintenance de traitements de données sous Cloudera / Hive Conception et optimisation de requêtes Hive Manipulation, préparation et transformation de données volumineuses Développement de scripts et notebooks Python pour l’analyse, l’exploration et l’enrichissement des données Contribution à la structuration et à l’alimentation des gisements de données Support aux usages métiers Accompagnement des utilisateurs métiers dans l’exploitation des données Contribution aux laboratoires analytiques (Python / R / SAS Viya) Participation à la mise à disposition de jeux de données exploitables pour des analyses prospectives Appui à la création et à l’évolution des cas d’usage data liés aux opérations de marché, aux risques et à la politique monétaire Maintenance et évolution Participation à la maintenance corrective et évolutive du DataLab Prise en compte des nouveaux besoins utilisateurs Contribution à la qualité, à la fiabilité et à la traçabilité des données Documentation des traitements et des jeux de données
Mission freelance
Data Engineer AWS / Snowflake
Gentis Recruitment SAS
Publiée le
AWS Cloud
CI/CD
Snowflake
12 mois
Paris, France
Contexte Dans le cadre du renforcement de ses plateformes data, un grand groupe industriel recherche un Data Engineer senior pour intervenir sur des sujets d’industrialisation, de fiabilisation et de montée en charge de ses pipelines data. Objectifs de la mission Concevoir, développer et maintenir des pipelines de données robustes et scalables Industrialiser les traitements data dans un environnement cloud AWS Exploiter et optimiser une plateforme Snowflake Mettre en place et améliorer les chaînes CI/CD liées aux usages data Garantir la qualité, la performance et la sécurité des flux de données Environnement technique (cœur) Cloud : AWS Data Warehouse : Snowflake Langages : Python, SQL Orchestration / ingestion : Airflow, services AWS (Glue, Lambda, S3, etc.) CI/CD : Git, pipelines automatisés Enjeux forts d’industrialisation et de bonnes pratiques DataOps Profil recherché Data Engineer confirmé / senior Expérience significative sur AWS et Snowflake À l’aise avec les environnements industrialisés et les contraintes de production Capacité à travailler avec des équipes data, IT et métiers
Mission freelance
Tech Lead Data Engineer Java Python Azure
Cherry Pick
Publiée le
Azure
Java
PySpark
12 mois
600 €
Paris, France
But principal Le prestataire Tech Lead a pour mission principale de : • Contribuer au delivery du produit • Assurer les choix techniques en collaboration avec la squad dans le respect des standards, • Faire comprendre les choix techniques & obtenir l’adhésion des parties prenantes • Interagir au quotidien avec les parties prenantes (métier, tech authority...) • Garantir la qualité logicielle de la prestation de l'équipe Veiller à la bonne mise en œuvre du plan de développement du produit. Missions • Être le garant technique de la squad en la soutenant dans ses choix et dans la mise en œuvre des bonnes pratiques et standards • Garantir la qualité du code et suivre les KPIs pour le suivi de produit • Contribuer techniquement à la production du code • Remonter les alertes et garantir la résolution de problèmes dans un environnement agile en étroite collaboration avec Delivery Performance, Talent et Chapter leads • Être garant de la bonne mise en œuvre technique du plan de développement du produit.
Offre d'emploi
Senior Consultant / Expert Technico-Fonctionnel Informatica MDM (H/F) – CDI
CAPEST conseils
Publiée le
Informatica
Master Data Management (MDM)
12 mois
Paris, France
A pourvoir de préférence en CDI chez le client final mais je regarderai également les profils des candidats qui souhaitent rester indépendants (je vais avoir d'autres besoins sous peu). Pour ce poste , des déplacements réguliers devront être effectués en Province. Dans le cadre du renforcement de notre plateforme data et de notre stratégie de gouvernance des données , nous recherchons un Consultant Senior Technico-Fonctionnel Informatica MDM . Vous rejoindrez une équipe de 5 experts data dédiée au Master Data Management , responsable de la gestion et de la fiabilisation des données de référence (Customer, Partner, Product, etc.). Vous interviendrez sur l’évolution et l’exploitation de la plateforme Informatica Master Data Management , au cœur des enjeux de data governance, data quality et data integration . Vos missionsExpertise et évolution de la plateforme MDM Apporter votre expertise sur la solution Informatica MDM . Concevoir et faire évoluer les modèles de données de référence (Customer / Party / Product / Organization) . Paramétrer et configurer les composants MDM (data model, match & merge, survivorship rules). Participer à l’architecture et aux évolutions de la plateforme MDM. Conception technico-fonctionnelle Animer des ateliers avec les équipes métiers et les data owners. Traduire les besoins en spécifications fonctionnelles et techniques . Participer aux phases de développement, configuration et intégration. Piloter les phases de tests, recette et déploiement . Gouvernance et qualité des données Contribuer à la mise en œuvre des pratiques de data governance et data quality . Définir et suivre les règles de matching, déduplication et consolidation des données . Participer à l’amélioration des processus de gestion des données de référence. Leadership et collaboration Être référent technique MDM au sein de l’équipe. Accompagner les équipes métiers dans l’usage et la compréhension des données. Participer à la montée en compétence des membres de l’équipe.
Offre d'emploi
Architecte Technique Senior - Accompagnement Projets & Transformation SI
R&S TELECOM
Publiée le
ArchiMate
Big Data
CI/CD
12 mois
40k-48k €
400-480 €
Île-de-France, France
Contexte de la mission La mission s'inscrit au sein du département Architecture d'un organisme majeur de la protection sociale. Nous recherchons un Architecte Technique Senior (15-25 ans d'expérience) pour rejoindre le pôle Accompagnement et Conformité. Le consultant aura pour responsabilité de faire évoluer l'architecture du SI pour répondre aux besoins utilisateurs tout en assurant l'interopérabilité des nouvelles solutions avec l'environnement existant. Il travaillera en étroite collaboration avec l'Architecture d'Entreprise (Urbanistes) et les équipes d'experts techniques (socles, systèmes, réseaux). Objectifs et livrables Objectifs principaux : La mission consiste principalement à accompagner les projets dans la définition de leur architecture technique en cohérence avec les politiques techniques de l'organisme. Détail des activités : Support aux projets (70% de l'activité) : Accompagner l'élaboration des Dossiers d'Architecture Technique (DAT), contribuer à l'instruction et aux revues d'architecture, et réaliser des études d'impact pour les nouvelles technologies. Démarche d'architecture et conformité : Définir des solutions techniques conformes aux standards et assurer la cohérence avec les briques de production (Gateway, Kubernetes, Middleware...). Collaboration et expertise : Valider les solutions avec les experts techniques et suivre les évolutions des socles. Transformation SI : Accompagner les transformations vers le Cloud et les projets BI / Big Data. Environnement technique : Socle applicatif : JAVA (JEE, Spring, Hibernate), API/SOA (REST, SOAP) Infrastructure & Cloud : Kubernetes, Openshift, Ansible, VMWare, Architecture Microservices. Data (Atout) : Big Data, Spark, Kafka, ELK. Bases de données : PostgreSQL, Oracle, Cassandra.
Offre d'emploi
Data Analytics Engineer – SQL & BigQuery
Clostera
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio
6 mois
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez-nous ! Nous recherchons un Data Analytics Engineer F/H capable de concevoir, structurer et exploiter des pipelines de données dans un environnement cloud moderne. Ce que vous ferez : Le rôle consiste à fiabiliser la donnée, construire les pipelines analytiques et produire des analyses exploitables pour les équipes métiers , en collaboration avec les équipes techniques et data. Le poste se situe à l’intersection entre : data engineering data analytics data visualisation Vos missions principales : Data Engineering Concevoir et optimiser des pipelines de données dans BigQuery Gérer la modélisation et la structuration des données Garantir la qualité, cohérence et fiabilité des datasets Data Analytics Rédiger et optimiser des requêtes SQL complexes Extraire et analyser des volumes importants de données Produire des analyses exploitables pour les équipes métier Data Processing & scripting Utiliser Python et ses bibliothèques analytiques Pandas NumPy PySpark Data Visualisation Concevoir des dashboards interactifs Identifier et suivre les KPIs métier Utiliser : Looker Looker Studio Data architecture Exploiter différents types de bases de données PostgreSQL MongoDB autres bases relationnelles ou NoSQL Comprendre et appliquer les architectures modernes : Data Lake Data Warehouse Cloud & DevOps Travailler dans des environnements cloud Google Cloud Platform Azure Mettre en place : CI/CD avec GitLab CI gestion du versionning avec Git Appliquer les principes DevOps pour améliorer les traitements data Collaboration & méthodes Travailler en méthodologie agile Scrum Sprint planning backlog refinement Collaborer avec : équipes métiers équipes data équipes techniques
Mission freelance
Cloud Network Expert (Azure / AWS)
Codezys
Publiée le
AWS CloudFormation
Azure
Azure Data Factory
6 mois
Paris, France
Contexte : Transformation digitale / Organisation dirigée par la technologie – Passage au Cloud Environnement international – Maîtrise de l’anglais professionnel requise Séniorité : 7 à 10+ années d’expérience 2) Objectifs & responsabilités principales Conception & déploiement Cloud Network Concevoir, déployer et maintenir des réseaux virtuels Azure & AWS selon une architecture Hub & Spoke Mettre en œuvre des architectures réseau cloud robustes, industrielles et évolutives Assurer la disponibilité et la performance des réseaux pour les applications Support & troubleshooting Supporter et diagnostiquer les incidents liés aux réseaux cloud (VPN, connectivité, performance) Garantir un niveau élevé de service et de disponibilité des environnements Azure/AWS Documentation & standardisation Produire la documentation technique : low-level design (LLD), configurations, plans de migration, procédures opérationnelles (RUN) Maintenir et enrichir en continu les référentiels techniques et documentations Collaboration & accompagnement projets Collaborer transverse avec les équipes internes (sécurité, infrastructure, projets) Recueillir les besoins, accompagner les déploiements et garantir la scalabilité, la sécurité et la conformité Participer à l’industrialisation via des templates et bonnes pratiques réseau Capacité, performance & résilience Contribuer à la planification de la capacité (capacity planning) Participer au tuning de la performance et à la définition de stratégies de résilience Mettre en œuvre les roadmaps d’upgrade, de patching, ainsi que les plans de PRA / Disaster Recovery Sécurité Cloud (rôle clé) Assurer un haut niveau de posture de sécurité des réseaux cloud publics Concevoir et optimiser des architectures réseau sécurisées selon les besoins Collaborer avec les parties prenantes pour réduire les risques et renforcer la sécurité 3) Livrables attendus Designs d’architecture réseau cloud (Hub & Spoke, connectivité hybride) Low Level Design (LLD) et documents d’implémentation Plans de migration réseau et documents de transition Procédures opérationnelles (RUN / exploitation) Templates d’architecture et standards réseau Roadmaps pour upgrades, patching, et plans de PRA / DR Scripts et modules d’automatisation (Terraform, Python, API)
Offre d'emploi
Consultant BI
Eversa
Publiée le
Azure Synapse
Data Warehouse
Microsoft Fabric
40k-59k €
Île-de-France, France
Eversa recherche un Consultant BI confirmé à senior en CDI pour intervenir sur des sujets de modélisation et d’architecture décisionnelle au sein d’un environnement data structuré et en évolution. 🎯 Vos missions Conception et modélisation de Data Warehouse (schémas en étoile / flocon) Définition et optimisation des modèles de données décisionnels Développement et optimisation SQL Intervention sur des environnements Azure (Synapse Analytics) Participation aux évolutions vers Microsoft Fabric Collaboration étroite avec les équipes métiers et techniques
Mission freelance
Senior Platform Engineer (CaaS)
Codezys
Publiée le
Ansible
AWS CloudFormation
Azure
12 mois
Paris, France
Nous ne recherchons pas un profil "Ops" traditionnel, mais un véritable " Platform Builder". Le candidat idéal doit posséder une solide culture produit et avoir déjà construit ou maintenu des plateformes CaaS/PaaS internes à grande échelle. Voici les points non-négociables (Hard Skills) : • Kubernetes (Expertise avancée) : Architecture, networking (CNI), sécurité et gestion de clusters managés (EKS/GKE). • Infrastructure as Code : Maîtrise experte de Terraform & Terragrunt en production (multi-stack, gestion d'état). • GitOps & CI/CD : Expérience impérative de ArgoCD (ApplicationSets, bootstrap) et de GitLab CI (pipelines dynamiques). • Cloud Providers : Expertise confirmée sur AWS ou GCP (VPC, IAM, OIDC). Les "Plus" qui feront la différence : • L'écosystème Cloud-Native : Karpenter, Kyverno, External-Secrets, KEDA. • Observabilité : Stack OpenTelemetry et Grafana (Mimir, Loki, Tempo). • Certifications : CKA, CKAD ou CKS.
Mission freelance
Data Scientist / ML Engineer – IA & GenAI / 2 jours sur site LILLE
TEOLIA CONSULTING
Publiée le
GenAI
Machine Learning
Python
12 mois
400-520 €
Lille, Hauts-de-France
Nous recherchons pour notre client un Data Scientist / ML Engineer – IA & GenAI Contexte : Dans le cadre d’un programme IA au sein d’un grand groupe international, vous concevez et industrialisez des solutions IA en production (ML + IA générative), avec une forte exigence de software engineering , de fiabilité et de standards MLOps/LLMOps . Missions principales : Concevoir et déployer des fonctionnalités IA (ML & GenAI) en environnement de production. Construire des pipelines de traitement de données (structurées et non structurées). Industrialiser et monitorer les applications/services : latence, coût, taux de réponse, satisfaction utilisateur . Mettre en place les pratiques MLOps/LLMOps : suivi d’expériences, déploiement, observabilité, monitoring. Garantir qualité des données , conformité (RGPD/GDPR) et sécurité des solutions. Localisation : Métropole lilloise (secteur Villeneuve d’Ascq / Lezennes) Présence sur site : souhaitée 2 jours/semaine
Mission freelance
Fiche de poste – Data Engineer (Snowflake / DBT / Airflow / AWS)
Tenth Revolution Group
Publiée le
Apache Airflow
DBT
Snowflake
6 mois
480-600 €
Île-de-France, France
Contexte : Je recherche plusieurs Data Engineers pour un client final, dans le cadre de missions urgentes. Ces postes sont à pourvoir rapidement et nécessitent une expertise technique pointue. Intitulé du poste : Data Engineer – Snowflake / DBT / Airflow / AWS Missions principales : Concevoir, développer et maintenir des pipelines de données fiables et performants. Participer à l’architecture et à l’optimisation des solutions Cloud. Collaborer avec les équipes Data et les équipes métiers pour assurer la qualité des données et des flux. Mettre en place les bonnes pratiques DataOps et CI/CD pour les pipelines de données. Assurer le monitoring, la sécurité et l’optimisation des coûts des infrastructures cloud.
Offre d'emploi
Technicien Datacenter H/F
OBJECTWARE
Publiée le
Data Center
Rennes, Bretagne
Missions : Installation d’équipements informatiques au sein des Datacenters Rackage serveurs, switchs, routeurs, etc. Brassage d’équipements dans le respect des normes de topologie réseau Configuration hardware : paramétrage iDRAC, BIOS, etc. Upgrade couche firmwares Déploiement d’OS par banc de génération standardisé Référencement des équipements, connexions, etc Décommissionnement d’équipements des Datacenters via processus inverse de l’installation Opération sur équipements existants : modification brassage, ajout cartes, upgrade mémoire Logistique : Aménagement espaces de stockage selon les normes de sécurité en vigueur, Expédition ou réception de matériel inter-sites Gestion de stocks : Gestion et suivi des matériels en stocks, commande/approvisionnement, Réception de matériel sur site Gestion des incidents Diagnostic sur équipement en panne (test hardware, prise de trace, etc.) Déclaration incidents chez fournisseur Réparation par changement de pièces sur équipements Analyse proactive des pannes par suivi visuel des équipements en salle Intervention en salle
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1678 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois