Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 480 résultats.
Freelance
CDD

Offre d'emploi
Data Engineer Azure Databricks H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
CI/CD

8 mois
50k-60k €
460-500 €
Île-de-France, France
Analyse des traitements existants dans le cadre de projets de migration de données Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing , incluant l'optimisation des traitements et le tuning de requêtes SQL Rédaction de la documentation technique (Dossiers d'Analyse Technique, release delivery notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Freelance
CDI

Offre d'emploi
Data Engineer IA

Craftman data
Publiée le
DevOps
Docker
Github

6 mois
40k-45k €
390-540 €
Île-de-France, France
Maintien en condition opérationnelle et industrialisation du Portail Multi‑IA Générative dans un contexte multi‑environnements (On‑Premise, GCP, cloud de confiance à venir). Mise en œuvre et optimisation des chaînes CI/CD (GitLab), de l’Infrastructure as Code (Terraform) et de l’automatisation des déploiements. Contribution à la sécurité, conformité et observabilité des usages IA générative (IAM, secrets, logs, metrics, traces, FinOps). Mise en place et exploitation des pratiques LLMOps : observabilité LLM, évaluations continues (qualité, sécurité, coûts), guardrails et HITL. Conception et préparation de la V2 du Portail IA (architecture cible, HLD/LLD, migration). Support technique N2/N3, analyse et résolution d’incidents, assistance aux mises en production. Production de la documentation technique (runbooks, playbooks, architectures) et transfert de compétences vers les équipes internes.
Freelance

Mission freelance
Data Engineer Spark / Hadoop – Data & Analytics

Datapy
Publiée le
Apache Spark
Cloudera
Hadoop

12 mois
550-750 €
Paris, France
Nous recherchons un Data Engineer pour intervenir chez un acteur majeur du secteur public , dans le cadre du développement de sa plateforme Data & Analytics . Vous évoluerez sur des problématiques de traitement de données à grande échelle , avec des enjeux forts autour de la qualité, de la gouvernance et de la valorisation de la donnée . Missions Développer et maintenir des pipelines de données Big Data Mettre en place des traitements distribués avec Spark Structurer les données dans un DataLake / DataWarehouse Assurer la qualité, la fiabilité et la traçabilité des données Réaliser des analyses de données avancées Construire et suivre des KPI métiers Participer à la valorisation des données pour les équipes métier Contribuer à des cas d’usage type : analyse de parcours détection d’anomalies segmentation de données Optimiser les performances des traitements Environnement technique Spark / PySpark Hadoop (HDFS, Hive…) Airflow Python SQL Git / CI-CD Environnement DataLake
Freelance
CDD

Offre d'emploi
AI Engineer

Gentis Recruitment SAS
Publiée le
API
Docker
LangChain

6 mois
50k-90k €
510-1 010 €
Luxembourg
Nous recherchons un(e) AI Engineer hands-on pour concevoir, développer et déployer des solutions d’Intelligence Artificielle et d’IA générative à l’échelle du Groupe. Vous interviendrez sur des projets à fort impact métier autour des LLM, copilotes, agents intelligents et solutions d’automatisation , avec un focus sur le développement concret et la mise en production. Dans ce cadre, vous serez responsable de la conception et du déploiement de solutions GenAI (LLM, RAG, agents), du développement d’applications IA robustes en Python , ainsi que de leur intégration aux systèmes et données de l’entreprise (API, bases de données, outils métiers). Vous contribuerez également à la mise en place et à la gestion des API Data/IA, ainsi qu’au maintien d’un registre de modèles (MLflow). Vous travaillerez en étroite collaboration avec les équipes Data Science, Data Engineering et Plateforme afin d’industrialiser les modèles et garantir leur mise en production dans des environnements fiables et performants. Vous serez également impliqué(e) dans le monitoring, l’optimisation continue des solutions et le respect des standards de sécurité, de gouvernance des données et de conformité réglementaire (notamment AI Act). En lien avec les équipes métiers, vous participerez à l’identification et à la co-construction de cas d’usage IA à forte valeur ajoutée.
Freelance
CDI

Offre d'emploi
Data Engineer / Développeur Java Full Stack

AVA2I
Publiée le
Angular
API REST
AWS Cloud

1 an
Île-de-France, France
Dans le cadre du développement de ses plateformes data et applicatives, notre client recherche un Data Engineer / Développeur Java Full Stack afin de renforcer ses équipes techniques. Vous interviendrez sur l’ensemble de la chaîne de traitement de la donnée, de la collecte à la visualisation, dans un environnement moderne orienté microservices, cloud et DevOps . Missions principales 🔹 Développement backend & collecte de données Concevoir et développer des composants en Java (Spring, Hibernate) Mettre en place des modules de collecte de données (API, fichiers, bases de données) Développer et maintenir des API REST/SOAP en respectant les bonnes pratiques (TDD, sécurité) Implémenter des solutions d’authentification ( OAuth2, SSO ) 🔹 Traitement de données (Big Data) Participer à la mise en œuvre de traitements sous Apache Spark 3 Optimiser les pipelines de données (collecte, transformation, distribution) Assurer la performance et la fiabilité des traitements 🔹 Développement Front & DataViz Développer des interfaces utilisateurs en Angular Concevoir des dashboards et rapports sous Power BI Collaborer avec les équipes métier pour valoriser la donnée 🔹 DevOps & Infrastructure Déployer et gérer des applications sur des clusters Kubernetes Participer à l’optimisation des environnements (CI/CD, performance) Collaborer avec les équipes infrastructure pour : le déploiement la gestion des ressources la sécurité applicative 🔹 Qualité & delivery Écrire et maintenir des tests automatisés (Cucumber) Participer au cycle complet de delivery (build, déploiement, mise en production) Assurer le suivi post-production 🔹 Amélioration continue Être force de proposition sur les choix techniques et l’architecture Contribuer à l’amélioration des performances et de la qualité des applications
Freelance
CDI

Offre d'emploi
DATA ENGINEER PYTHON

UCASE CONSULTING
Publiée le
Azure
Azure Kubernetes Service (AKS)
Jenkins

3 ans
40k-60k €
500-580 €
Paris, France
2 DESCRIPTION DE LA MISSION 2.1 Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein pour 1 Data Engineers Python. Vous interviendrez d’un nouveau lot sur un projet déjà initié il y a un an. Vous intégrerez une équipe existante composée de 3 Data Engineers et d’un Chef de Projet. Au sein de l’équipe, vous aurez à charge la réalisation de ce lot projet. Le projet est piloté en agilité, par conséquent le delivery sera détaillé sous formes d’US. Chaque US comprend du développement, des tests, de la documentation. Les technologies associées sont Python, Pandas/Polars, Kubernetes et Azure. 2.2 Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; 2.3 Dates souhaitées de début et de fin de mission Date de début : 13/04/2026 Compétences sur les méthodes et les outils Requises • maîtrise du langage Python et de son écosystème (packaging, gestion de versions…) • maîtrise des librairies Data, en particulier Pandas et/ou Polars • maîtrise de la CI/CD sous Jenkins • maîtrise du cloud, en particulier Azure • expérience dans le développement de job batch sur Kubernetes (AKS) • bonnes pratiques de développement
Freelance

Mission freelance
Développeur Talend / Data Engineer Confirmé (H/F)

Pickmeup
Publiée le
Data Lake
SAP S/4HANA
Talend

1 an
400-480 €
Châtillon, Île-de-France
Contexte du projet : Dans le cadre d’un projet d’envergure de migration de SAP ECC vers SAP S/4HANA, nous renforçons notre équipe Data (actuellement composée d’un Tech Lead et d’un Développeur Senior). L’objectif est d’augmenter notre capacité de delivery pour répondre aux fortes sollicitations du projet et assurer la pérennité de nos flux de données. Vos Missions : Rattaché(e) à l’équipe technique, vous intervenez sur l’ensemble du cycle de vie des pipelines de données : Développement et Delivery : Mise en œuvre des nouveaux besoins d'intégration (modélisation, paramétrage, code et tests). Migration SAP : Création de nouveaux pipelines d'intégration applicative et réalisation des MCO sur les flux existants liés à la migration vers S/4HANA. Gouvernance et Qualité : Garantir le respect des processus, des normes de sécurité et des bonnes pratiques de développement. Architecture et Data Lake : Structurer les bases de données, cartographier les sources, nettoyer la donnée et garantir son accessibilité pour les équipes Data Science. Support et Maintenance : Assurer le maintien en condition opérationnelle (MCO) des plateformes et supporter les équipes projets (SI, clients et data).
Freelance
CDI
CDD

Offre d'emploi
Data Engineer Senior

LEVUP
Publiée le
AWS Cloud
Snowflake

12 mois
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
Freelance

Mission freelance
Senior DevOps Engineer

Codezys
Publiée le
Azure
Github
Terraform

6 mois
Barcelone, Catalogne, Espagne
Contexte de la mission Détails du projet : Lieu : Europe (Fuseau horaire CET) Mode de travail : Télétravail complet ou hybride (Barcelone, Espagne) Date de démarrage : 1er avril Durée : 6 mois Possibilité de prolongation : Oui, jusqu’à 3 mois supplémentaires Langues : Anglais, Espagnol (souhaité mais pas obligatoire) Résumé du projet Le rôle de Senior DevOps Engineer est axé sur l’observabilité, avec pour mission principale la migration des systèmes de monitoring de Splunk vers New Relic. Il s’agit également de définir, mettre en place et faire respecter les standards, la gouvernance et les bases techniques relatives à l’observabilité à travers diverses plateformes. Objectifs et livrables Responsabilités principales et activités clés : Diriger la migration des outils de monitoring de Splunk vers New Relic Concevoir et mettre en œuvre la gouvernance de New Relic (structure des comptes, tagging, alertes, dashboards, SLOs) Définir et promouvoir les bonnes pratiques en matière d’observabilité au sein des équipes d’ingénierie Implémenter des fonctionnalités d’observabilité (logs, APM, infrastructure, tracing, synthetics, intégrations) Collaborer avec les équipes applicatives pour l’intégration et le instrumentation des services Automatiser les configurations d’observabilité à l’aide de Terraform et les intégrer dans les workflows CI/CD via GitHub Fournir une expertise technique sur Azure, Terraform, GitHub Actions et les pratiques d’observabilité Aligner la surveillance et les alertes avec les SLIs/SLOs Soutenir l’amélioration continue des opérations, de la fiabilité, de la performance et de la sécurité
CDI

Offre d'emploi
Data engineer informatica expérimenté H/F

TOHTEM IT
Publiée le

40k-45k €
Toulouse, Occitanie
Pour un client, nous recherchons un·e Data Engineer Informatica expérimenté·e . Tu interviens sur un environnement data structurant avec un objectif clair : challenger les modèles de données et les flux existants, les optimiser et les rendre plus robustes . Le contexte technique évolue vers Informatica Cloud : tu seras donc amené·e, au fil des sujets, à manipuler de plus en plus IICS en complément de PowerCenter. Tes missions Analyser et challenger les modèles de données Revoir les flux ETL Informatica pour : améliorer les performances simplifier les traitements renforcer la qualité des données Concevoir des solutions pérennes et industrialisées Intervenir sur des problématiques complexes de production Travailler avec les équipes métier, architecture et data Être force de proposition sur les choix techniques ➡ Dans le cadre de la mission, tu toucheras progressivement à : Informatica Cloud (IICS) nouveaux patterns d’intégration architectures data plus modernes
CDI

Offre d'emploi
Lead AI Engineer

ANDEMA
Publiée le
AI
GenAI
Large Language Model (LLM)

60k-75k €
Paris, France
Dans le cadre d’un projet stratégique Data & IA, nous accompagnons l’un de nos clients, acteur tech à fort enjeu produit, dans le recrutement d’un Lead AI Engineer. Le rôle Le Lead AI Engineer est responsable de la conception, du développement et du déploiement de solutions IA à forte valeur métier. À la fois référent technique IA et acteur clé du delivery, il combine une posture très hands-on avec une vision produit / ROI, en lien étroit avec les équipes métier, produit et la direction. Vos responsabilités 1. Conception & développement de solutions IA (cœur du poste) Concevoir et développer des solutions IA avancées : LLM & GenAI (RAG, MCP, agents, workflows IA, fine-tuning si nécessaire) Modèles de scoring, recommandation, prédiction, classification Développer des solutions robustes, scalables et industrialisées, prêtes pour la production Être très fortement hands-on en développement, principalement en Python Garantir la qualité du code, la performance, la sécurité et la maintenabilité Utiliser des outils d’assistance au développement (ex. Claude Code) 2. Leadership technique & delivery IA Porter les projets IA de bout en bout : cadrage fonctionnel et technique, choix d’architecture, priorisation delivery, mise en production et suivi de la valeur Jouer un rôle de leader technique, sans management hiérarchique direct Être capable d’arbitrer et de prendre des décisions techniques structurantes Structurer le delivery dans une logique produit et ROI, en lien avec le CPTO 3. Interface produit, métier et direction Travailler en proximité avec : les équipes métiers, le produit, les équipes techniques, la direction Traduire des besoins métier complexes en solutions IA concrètes Animer des ateliers de cadrage, restituer les avancées, vulgariser les sujets IA Porter une vision transverse des projets (roadmap, dépendances, risques) 4. Structuration et montée en maturité IA Contribuer à la vision IA globale (choix technologiques, standards, bonnes pratiques) Mettre en place des patterns réutilisables (RAG, pipelines IA, templates projets) Participer à la diffusion de la culture IA Assurer une veille active sur les évolutions IA (LLM, frameworks, usages) Environnement technique Langage : Python (expert) IA / Data : LLM / GenAI, RAG, embeddings, agents Pandas, PySpark (selon cas) Plateforme Data : MinIO, MongoDB, PostgreSQL, ElasticSearch, Airflow, RabbitMQ Infra : Docker, Kubernetes Dataviz / exposition : PowerBI, Metabase Outils : Git, CI/CD, outils d’IA d’assistance au développement
Freelance

Mission freelance
Senior Analytics Engineer

Orcan Intelligence
Publiée le
Python

3 mois
400-600 €
Paris, France
Orcan Intelligence recherche pour l’un de ses clients un Senior Analytics Engineer. Le Senior Analytics Engineer interviendra sur la conception, le développement, la livraison, la maintenance et la documentation de workflows et d’applications analytiques au sein de la plateforme Palantir Foundry. Livrables attendus Workflows et applications analytiques Palantir livrés dans les délais Pipelines analytiques et logiques métiers intégrés dans Foundry Code documenté, versionné et testé unitairement Mise en œuvre de contrôles de qualité et de cohérence Contribution à la structuration des usages analytiques et à l’industrialisation des cas métiers
CDI

Offre d'emploi
Consultant.e Cloud GCP

Les Filles et les Garçons de la Tech
Publiée le
Cloud
Google Cloud Platform (GCP)
Google Kubernetes Engine (GKE)

55k-68k €
Paris, France
Envie de donner de l’impact à votre expertise technique au sein d’une entreprise engagée ? Les Filles & les Garçons de la Tech recrutent un.e Consultant(e) Cloud GCP pour rejoindre leur équipe. Au quotidien, vous accompagnerez nos clients sur les missions suivantes : Concevoir des architectures Cloud GCP hybrides et sécurisées (Cloud / on-premise, réseau, IAM) Déployer et opérer des plateformes Kubernetes sur GKE dans des environnements critiques et multi-environnements Industrialiser les infrastructures Cloud via l’Infrastructure as Code et des standards de déploiement Intégrer des services data et IA sur GCP dans des architectures Cloud Native Optimiser performance, sécurité et coûts sur des plateformes Cloud complexes
Freelance
CDI

Offre d'emploi
Data Engineer expérimenté – Plateforme Data (H/F)

Argain Consulting Innovation
Publiée le
Big Data
Data Warehouse
IBM DataStage

12 mois
40k-45k €
450-500 €
Nantes, Pays de la Loire
Contexte : Dans le cadre de l’évolution et de la modernisation d’une plateforme data stratégique, nous recherchons un Data Engineer expérimenté pour renforcer une équipe d’experts. Vous interviendrez dans un environnement agile et collaboratif, aux côtés d’ingénieurs data confirmés, avec un encadrement produit et méthodologique, favorisant l’excellence technique et l’innovation. Mission : La mission s’inscrit dans une dynamique ambitieuse autour de plusieurs axes : Build : Conception et développement de nouvelles solutions data Run : Maintien en conditions opérationnelles et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Modernisation : Évolution vers des architectures data modernes Responsabilités : Développer des traitements ELT (principalement à destination d’un datawarehouse) Concevoir et maintenir des templates ELT Participer à la définition de la feuille de route technique de migration ETL vers ELT Accompagner les équipes utilisatrices des solutions data Contribuer à la documentation des solutions du périmètre Garantir le bon fonctionnement du plan de production et le respect des engagements de service Identifier et proposer des optimisations dans une logique d’amélioration continue Partager ses connaissances et être force de proposition Attendus Développer des traitements ELT xDI principalement à destination du Datawarehouse Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Accompagner les développeurs Participer à la Documentation de l'ensemble des solutions Assurer le bon fonctionnement du plan de production et l'ensemble de nos produits et solutions en respectant les engagements de service Identifier / proposer des optimisations des traitements dans une démarche d'amélioration continue du plan de production Partager ses connaissances avec ses pairs et être force de proposition
CDI

Offre d'emploi
Data Engineer GCP H/F

JEMS
Publiée le

45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
480 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous