Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 213 résultats.
Freelance

Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Publiée le
Machine Learning
Python

6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Freelance
CDI

Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)

Publiée le
Architecture
AWS Cloud
Databricks

12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Freelance

Mission freelance
Data Engineer / Python / Azure MS Fabric (H/F)

Publiée le
Azure
Microsoft Fabric
PySpark

8 mois
550-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer / Python / Azure pour l'un de ses clients qui opère dans le secteur de l'énergie Description 🧩 Contexte de mission Dans le cadre du renforcement de l’équipe Data, nous recherchons Data Engineer spécialisé en Python, PySpark et Microsoft Fabric , évoluant dans un environnement Azure Cloud . Les consultants seront responsables de la conception, du développement et de la mise en production de pipelines et architectures data au sein d’un contexte orienté performance, scalabilité et industrialisation. 🎯 Missions principales & rôle Le Data Engineer interviendra sur : La collecte et l’analyse des besoins métiers et utilisateurs La conception d’architectures de données robustes et scalables Le développement de pipelines de données (ingestion, transformation, modélisation) La mise en production des pipelines et leur optimisation continue La maintenance et l’évolution des architectures existantes Le respect des bonnes pratiques et standards d’ingénierie data 📌 Objectifs Concevoir une architecture data fiable, évolutive et documentée Industrialiser les pipelines pour garantir performance et qualité Assurer un haut niveau de disponibilité et de maintenabilité des solutions Accompagner les équipes internes dans la compréhension et l’usage des pipelines Contribuer à la structuration et à la maturité data de l’organisation
Freelance

Mission freelance
Data Engineer AWS - S3, Glue, Athena, Python

Publiée le
AWS Glue
Python

6 mois
210-480 €
France
Télétravail partiel
Dans le cadre d’un programme data stratégique dans le secteur pharmaceutique (domaine CMC – Chemistry, Manufacturing & Controls), l’entreprise souhaite renforcer son équipe Data Engineering afin de soutenir la migration, l’industrialisation et l’optimisation de ses pipelines analytiques sur AWS. La mission implique une forte collaboration avec les équipes scientifiques, Data, IT et produit, afin de clarifier les besoins métiers, structurer les modèles de données, fiabiliser les flux existants et accompagner les phases de migration vers des architectures modernes. L’objectif est d’améliorer la qualité, la performance, le coût et la robustesse de la plateforme data, tout en garantissant une documentation claire et une montée en compétence durable des équipes internes.
Freelance

Mission freelance
Data Engineer GCP - Rennes

Publiée le
Agile Scrum
Apache Airflow
BigQuery

12 mois
400-540 €
35200, Rennes, Bretagne
Télétravail partiel
Contexte : Nous recherchons un Data Engineer expérimenté, pragmatique et autonome, capable de travailler sur des projets data complexes avec les bonnes pratiques agiles. Le profil idéal a déjà travaillé en mode projet, connaît le Scrum et Kanban, et sait estimer précisément la charge de travail. Profil recherché : Expérience solide en Data Engineering (pas junior). Bonne connaissance des environnements cloud, idéalement GCP . Maîtrise des outils BigQuery, DBT, Airflow, Cloud Storage . Git et CI/CD indispensables. Expérience projet avec méthodologies Agile/Scrum/Kanban , capacité à estimer le reste à faire et à planifier un sprint. Capacité à être critique sur les données et à mettre en place quality by design . Jira utilisé régulièrement pour le suivi de projet. Anglais : un plus mais pas essentiel. Expérience dans un environnement industriel ou traitement de données en temps réel (Pub/Sub) est un plus. Polyvalence et curiosité : d’autres compétences data seront appréciées. Missions principales : Conception et développement de pipelines de données robustes. Analyse critique et validation de la qualité des données. Mise en place de contrôles pour garantir l’intégrité et la fiabilité des données. Contribution à l’amélioration continue des pratiques Data Engineering et Agile de l’équipe. Processus de recrutement : Entretien avec le Tech Lead et le Chef de projet. Référencement fournisseur. Disponibilité : ASAP
Freelance

Mission freelance
Développeur Full-Stack Python / Angular

Publiée le
Angular
Django
Flask

1 an
400-660 €
Île-de-France, France
Télétravail partiel
Contexte : Le poste s’inscrit au sein d’une équipe de développement transverse, rattachée à la direction des solutions à livraison rapide. Cette équipe de 20 personnes regroupe des Data Engineers, Data Scientists et Développeurs Full-Stack. Elle conçoit et met en œuvre des outils innovants en lien direct avec les métiers, dans un environnement dynamique et collaboratif. L’équipe a pour mission de : Développer des outils tactiques en proximité directe avec les métiers. Accompagner l’industrialisation de ces solutions au sein des environnements applicatifs existants. Soutenir les métiers dans la mise en œuvre de cas d’usage d’IA générative. Réaliser une veille technologique et des études d’opportunité pour proposer des solutions innovantes. L’ambiance d’équipe est un point fort : jeune, proactive et solidaire. Le profil recherché devra être à la fois techniquement compétent et doté d’un excellent relationnel (communication, esprit d’équipe, autonomie, curiosité et force de proposition). Mission principale : Concevoir et développer des applications web complètes (frontend et backend) permettant : L’exploitation de données complexes au travers d’interfaces ergonomiques. La réalisation d’applications « commando » destinées à répondre rapidement aux besoins métiers. Responsabilités : Concevoir et développer des applications web avec Python (Django, Flask) côté backend. Créer des interfaces dynamiques et réactives avec Angular (ou équivalent React/Vue.js). Intégrer et consommer des API RESTful entre le front et le back. Collaborer avec les équipes design et produit pour une expérience utilisateur fluide. Garantir la qualité du code (tests unitaires, fonctionnels, revues de code). Participer à la documentation et à la mise en place de bonnes pratiques de développement. Interagir directement avec les métiers pour recueillir, comprendre et challenger les besoins.
Freelance

Mission freelance
Data Engineer Talend / GCP

Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
Talend

3 ans
400-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la Data Factory de notre client grand compte, nous recherchons un Data Engineer Talend / GCP expérimenté. Vous interviendrez sur la conception, le développement et l’optimisation de solutions Data destinées à répondre aux besoins analytiques et opérationnels des métiers. Votre rôle sera clé dans la mise en place d’une infrastructure Data performante, fiable et scalable sur Google Cloud Platform . Missions principales Analyser les besoins métiers et leurs impacts sur la donnée Concevoir et développer des pipelines de données robustes et évolutifs avec Talend et les services GCP (BigQuery, DataForm, Dataflow, Pub/Sub, Cloud Composer) Optimiser la performance et la scalabilité des solutions existantes Collaborer avec les architectes, Product Owners et Data Analystes pour garantir la qualité et la cohérence des données Maintenir une documentation technique claire et complète Mettre en place le monitoring et les contrôles d’intégrité des pipelines Participer à la recette technique et fonctionnelle des livrables Assurer la maintenance corrective et évolutive des traitements en production Garantir la conformité des développements avec les bonnes pratiques Data et Cloud
Freelance

Mission freelance
POT8706 - Un Data Engineer NoSQL sur Nanterre

Publiée le
Nosql

6 mois
100-550 €
Nanterre, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients un Data Engineer NoSQL sur Nanterre Contexte et rôle Renforcement d’un pôle d’expertise technique autour des bases de données NoSQL. L’expert contribuera à la conception, l’industrialisation et l’exploitation de plateformes NoSQL, en environnement conteneurisé et cloud hybride Compétences techniques requises Maîtrise ElasticSearch (ELK Stack), configuration, optimisation et monitoring Expertise bases de données Graph (Cypher, RDF, LPG) Connaissance PostgreSQL / Oracle appréciée Maîtrise Docker, Kubernetes, OpenShift, Linux RedHat Bon niveau en scripting Shell, SQL/PLSQL Compréhension des environnements AWS / GCP Connaissance des outils DevOps (GitLab, Jenkins) Bonnes notions de Big Data, datavisualisation et virtualisation de données Bonne capacité de rédaction technique en français Soft skills Autonomie, rigueur, sens du résultat Capacité à communiquer et formaliser Force de proposition et leadership technique Livrables attendus Études techniques, POC et recommandations d’architecture Guides techniques, souches conteneurisées, scripts de déploiement Rapports d’audit et documentation de capitalisation.
Freelance

Mission freelance
Data Engineer Confirmé – GCP / DBT / Power BI

Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

3 mois
100-430 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Data Engineer Confirmé pour intervenir chez l’un de nos clients dans le cadre de la mise en place et l’industrialisation d’une plateforme data moderne sur Google Cloud Platform . Missions principales : Conception et développement de pipelines de données sur GCP. Modélisation et transformation des données avec DBT / SQLMESH . Mise en place de dashboards et reporting via Power BI . Optimisation des performances et bonnes pratiques de CI/CD. Collaboration étroite avec les équipes Data, BI et métiers.
Freelance
CDI

Offre d'emploi
Architecte Big Data GCP & Cloudera (H/F)

Publiée le
Cloudera
Google Cloud Platform (GCP)

1 an
55k-70k €
550-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Architecte Big Data confirmé maîtrisant les environnements GCP (Google Cloud Platform) et Cloudera , capable d’allier vision stratégique et excellence technique. En tant qu’Architecte Big Data, vous interviendrez sur des projets de transformation data à grande échelle : Concevoir et faire évoluer des architectures Big Data hybrides (Cloud & on-premise). Définir la stratégie de données et les bonnes pratiques de gouvernance, sécurité et performance. Encadrer les équipes techniques (Data Engineers, DevOps, Data Scientists). Piloter les choix technologiques sur les écosystèmes GCP (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc) et Cloudera (CDP, HDFS, Hive, Spark, Kafka) . Garantir la scalabilité, la résilience et l’optimisation des coûts des plateformes data. Participer aux revues d’architecture et à la veille technologique sur les solutions Cloud et Open Source.
Freelance
CDI

Offre d'emploi
Data Engineer Python / AWS

Publiée le
AWS Cloud
PySpark
Python

3 ans
Paris, France
Descriptif du poste Le prestataire interviendra comme développeur senior / Data Engineer sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series. Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Conception et développement d'outils d'aide à la décision • Conception et développement de nouvelles architectures data • Collecte, ingestion, traitement, transformation et restitution des données (météo, fundamentales..) • Optimisation des coûts et des performances • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Maintenance évolutive et support technique / accompagnement des utilisateurs (analystes, data scientists...) • Coaching de l'équipe autour des thématiques Big Data et AWS : workshops, présentations…
Freelance
CDI

Offre d'emploi
Data Engineer – GCP confirmé·e

Publiée le
Google Cloud Platform (GCP)
Python
SQL

3 ans
Rouen, Normandie
Télétravail partiel
Vous aimez relever des défis techniques ambitieux et contribuer à la mise en place d’architectures data performantes et innovantes ? Vous souhaitez évoluer au cœur d’un environnement cloud moderne et collaboratif ? Cette opportunité est faite pour vous ! Nous recherchons un·e Data Engineer – GCP confirmé·e pour accompagner la construction et le déploiement de solutions data pour notre client du secteur de l’assurance. Intégré·e à la DataFabric, vous rejoindrez une équipe agile composée de 5 à 7 Data Engineers, en lien direct avec le Tech Lead. Vous participerez activement au build et au run des traitements livrés en production sur la plateforme Google Cloud Platform (GCP). Vos principales responsabilités : Analyser, concevoir et modéliser les solutions data adaptées aux besoins métiers Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Rédiger les documents techniques associés (spécifications, cahier de recette, documentation d’exploitation) Réaliser les recettes techniques et assurer la qualité des livrables grâce à des tests de non-régression Participer activement à la maintenance et à l’amélioration continue des traitements data en production Environnement technique : GCP : BigQuery, Cloud Storage, Cloud Composer, Airflow, GKE Langages & outils : SQL, Python CI/CD : maîtrise des outils d’intégration et de déploiement continu Infrastructure as Code : Terraform
Freelance

Mission freelance
Data Engineer AWS - PySpark/Databricks

Publiée le
Amazon S3
Apache Spark
AWS Cloud

12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Freelance
CDI

Offre d'emploi
Data Engineer Python/AWS

Publiée le
AWS Cloud
Flask
Python

3 ans
40k-50k €
400-550 €
Courbevoie, Île-de-France
Télétravail partiel
La Mission à réaliser se déclinera notamment à travers ces activités : • Collecte, ingestion, traitement, transformation et restitution des données • Optimisation des coûts et des performances. • Conception et développement d'outils d'aide à la décision • Maintenance évolutive et support technique / accompagnement des utilisateurs Langages & Frameworks Python v3 — Avancé (5 à 8 ans) Design Patterns / Architecture logicielle — Confirmé (3 à 5 ans) Cloud & Infrastructures AWS — Confirmé (3 à 5 ans) Data & Big Data Lakehouse Fundamentals & Database Systems — Confirmé (3 à 5 ans) Big Data Architecture & Technologies — Confirmé (3 à 5 ans) Data Management Systems — Confirmé (3 à 5 ans) Domaines fonctionnels Marchés des matières premières (Gaz, Électricité, etc.) — Junior (< 3 ans) Soft Skills / Compétences transverses Anglais — Avancé (5 à 8 ans) Esprit d’analyse et de synthèse — Avancé (5 à 8 ans) Proactivité / Prise d’initiative / Orientation solution — Junior (< 3 ans)
Freelance

Mission freelance
Data Engineer Python / AWS / Airflow / Snowflake

Publiée le
Apache Airflow
AWS Cloud
Python

12 mois
100-550 €
Île-de-France, France
Télétravail partiel
Conception & développement de pipelines Implémenter de nouveaux flux de données batch et streaming . Développer des pipelines ETL / ELT en Python et Airflow pour les traitements planifiés, et via NiFi ou Kafka pour les données en temps réel. Assurer l’intégration et la mise à disposition des données dans Snowflake . Industrialisation & bonnes pratiques Participer aux revues de code , aux tests unitaires et d’intégration . Contribuer à l’ industrialisation des pipelines avec des pratiques CI/CD robustes. Maintenir la documentation technique à jour et contribuer à l’amélioration continue des process. Maintenance & optimisation Garantir la maintenance corrective et évolutive des flux existants. Participer à la mise en place du monitoring , des alertes et des bonnes pratiques d’exploitation. Optimiser les performances, la fiabilité et la qualité des traitements de données.
Freelance

Mission freelance
DATA Engineer - AWS(H/F)

Publiée le
AWS Cloud
Azure DevOps
Data Lake

1 an
510-540 €
Île-de-France, France
Télétravail partiel
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
213 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous