Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 346 résultats.
Freelance

Mission freelance
Data Engineer -CLOUD GOOGLE-

DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
CDI
Freelance

Offre d'emploi
Data Engineer Stambia

ANDEMA
Publiée le
Qlik Sense
Qlikview
Semarchy

3 mois
Lille, Hauts-de-France
Contexte Pour le même client Retail, nous recherchons un Data Engineer spécialisé Stambia afin de renforcer l'équipe Data sur les sujets d'intégration, de transformation et d'industrialisation des flux. Vous interviendrez au coeur de l'architecture Data et travaillerez en étroite collaboration avec les équipes BI et métiers. L'objectif : garantir la fiabilité, la performance et la scalabilité des flux de données alimentant le DataWarehouse et les outils décisionnels. Missions 1. Data Engineering & Intégration - Concevoir, développer et maintenir les flux d'alimentation via l'ETL Stambia. - Intégrer des données issues de multiples sources (ERP, bases SQL, fichiers plats, API...). - Développer et optimiser les transformations et règles de gestion. - Industrialiser les traitements batch et automatiser les flux. - Mettre en place des contrôles qualité et mécanismes de supervision. 2. Architecture & Modélisation - Participer à l'évolution du DataWarehouse. - Contribuer aux choix d'architecture Data. - Optimiser les performances des traitements et des bases de données. - Assurer la cohérence et la traçabilité des données. 3. Maintenance & Support - Assurer le MCO des flux ETL existants. - Diagnostiquer et corriger les incidents. - Maintenir la documentation technique. - Proposer des améliorations continues sur les processus d'intégration Environnement technique Stambia SQL (PostgreSQL, Oracle, SQL Server) DataWarehouse / DataLake QlikView / Qlik Sense (environnement cible) JIRA, Git Agile Scrum / Kanban
Freelance

Mission freelance
Data Engineer (Projet de Migration MGTS)

HAYS France
Publiée le
Python
Snowflake
Stambia

3 ans
100-450 £GB
Lille, Hauts-de-France
Mission principale : Dans le cadre du build d’un projet de migration technique pour une de nos BUs du groupe (MGTS), nous recherchons un Data Engineer. Il travaillera principalement avec Elodie Madoux, cheffe de projet Data. Il devra être assez autonome, même si nos Tech Lead seront en supervision si besoin. Nous recherchons donc un profil ayant déjà quelques années d’expérience. Compétences clés recherchéesIntégration & ETL Lecture, compréhension et manipulation de flux de données Maîtrise opérationnelle de Talend Maîtrise de la solution Stambia / Semarchy Langages Excellente maîtrise du SQL Niveau intermédiaire en Python Environnement Data Bonne connaissance de Snowflake Visualisation (atout) Maîtrise de Tableau appréciée
CDI

Offre d'emploi
Data Engineer Snowflake H/F

JEMS
Publiée le

40k-55k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) data engineer spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 10z4yhzwyi
CDI

Offre d'emploi
Data Engineer Sénior DBT / SQL

Clostera
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui nous recherchons un Data Engineer DBT / SQL F/H pour intervenir sur la conception et le développement de services digitaux de notre client, visant à transformer et optimiser les fonctions financières du groupe. Ce que vous ferez : Vous rejoindrez l’équipe Flux , composée de profils expérimentés, dans le cadre du remplacement d’un consultant sur des projets à forte criticité liés à la gestion et à l’intégration de flux de données financiers. Les projets portent notamment sur des programmes visant à faciliter l’intégration de flux provenant de systèmes legacy et d’éditeurs externes vers l’écosystème comptable. Vos missions principales : Concevoir et développer des pipelines data pour l’intégration et la transformation de flux financiers. Mettre en place et maintenir des process batch automatisés (alimentation et export de fichiers). Structurer les pipelines et transformations de données via DBT . Manipuler et analyser des volumes importants de données en SQL. Déployer des interfaces génériques via scripts SQL . Contribuer à la mise en production des flux dans un environnement data industrialisé. Participer à l’amélioration continue des pipelines et des processus de traitement des données.
Freelance

Mission freelance
Data Engineer Experimenté/Senior

Nicholson SAS
Publiée le
Apache Airflow
Apache Kafka
Apache NiFi

24 mois
400 €
Île-de-France, France
Bonjour, Nous cherchons pour notre client un Data Engineer Experimenté/Senior . Site : Ile de France Proche paris ; 2/3 jours/semaine obligatoire sur site Date de démarrage : ASAP Date de fin : 31/12/2028 Le Contexte : Rejoignez une équipe de 14 passionnés pour relever un double défi technologique ! Nous recherchons un Data Engineer Senior pour piloter l'évolution d'un écosystème Big Data On-Premise (DataStore) tout en ouvrant la voie vers le Cloud. Vous serez au cœur d’une transformation stratégique : assurer l'excellence opérationnelle actuelle tout en préparant la migration progressive vers GCP . Vos Missions : Piloter l’excellence technique : Superviser les flux, garantir la qualité des données et optimiser les performances du DataStore. Innover et Maintenir : Faire évoluer les pipelines critiques (Spark, Kafka, NiFi). Expertise de pointe : Résoudre les incidents de niveau 3 avec une approche analytique (JIRA/ITZMI). Accélérer la migration : Être un acteur clé des chantiers transverses vers le Cloud.
Freelance

Mission freelance
Data Engineer Cloud Google

Mindquest
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
400-500 €
Boulogne-Billancourt, Île-de-France
Développement de pipelines de données via Cloud Composer / Airflow. Optimisation des performances et des coûts des traitements sur Google Cloud Platform (GCP). Participation aux choix d’outils et aux décisions d’architecture technique sur GCP. Développement de nouveaux traitements et applications data (BigQuery, DBT, Cloud Functions). Modélisation et structuration des données dans BigQuery. Maintien en condition opérationnelle des pipelines et traitements existants. Mise en œuvre de l’interopérabilité avec de nouveaux systèmes opérationnels. Proposition d’optimisations et simplifications techniques. Respect des standards de qualité et des bonnes pratiques data engineering de l’entreprise.
Freelance

Mission freelance
Data Engineer Nantes /st

WorldWide People
Publiée le
Python

12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
CDI

Offre d'emploi
Data engineer (H/F)

Amiltone
Publiée le

35k-40k €
Lille, Hauts-de-France
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
CDI

Offre d'emploi
Data Engineer

INFOGENE
Publiée le

40k-45k €
Lille, Hauts-de-France
Vous justifiez d’au moins 5 ans d’expérience en tant que Data Engineer dans un environnement technique exigeant. Vous avez une forte capacité d’analyse, aimez résoudre des problèmes complexes et construire des solutions scalables et durables. Vous êtes curieux(se), autonome et doté(e) d’un bon relationnel pour travailler efficacement avec des profils variés (techniques et métiers). Votre maîtrise de l’environnement cloud et votre esprit d’amélioration continue vous permettent de contribuer activement à l’évolution de la plateforme data de l’entreprise. Votre niveau d’anglais vous permet d’évoluer dans un contexte international et de lire de la documentation technique sans difficulté
CDI
Freelance

Offre d'emploi
Data Engineer

LEVUP
Publiée le
AWS Cloud
Python
Snowflake

12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Freelance
CDI

Offre d'emploi
Data Engineer

NEOLYNK
Publiée le
Google Cloud Platform (GCP)

3 mois
Paris, France
Prestation du data ingénieur En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance
CDI

Offre d'emploi
Data Engineer DATABRICKS

UCASE CONSULTING
Publiée le
Databricks
Python
Snowflake

1 an
40k-45k €
400-600 €
Paris, France
Bonjour 😀 Nous recherchons un(e) Data Engineer orienté DATABRICKS/PYTHON pour l'un de nos clients ! Contexte de la mission : Dans le cadre du renforcement de son équipe data, notre client recherche un Data Engineer très technique , passionné par les technologies data modernes. Focus 100 % technique , avec un fort esprit geek / builder . Missions principales En tant que Data Engineer, tu interviendras sur des projets data à forte valeur technique : Concevoir, développer et maintenir des pipelines de données robustes et performants Travailler sur des plateformes Databricks/et ou Snowflake Développer des traitements data en Python (niveau avancé attendu) Optimiser et écrire des requêtes SQL complexes Participer aux choix d’architecture et aux bonnes pratiques data Garantir la qualité, la fiabilité et la performance des flux de données Collaborer avec des profils techniques au sein de l’équipe data
Freelance

Mission freelance
Data Engineer Semarchy (H/F)

CELAD
Publiée le

1 an
370-400 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
CDI

Offre d'emploi
Data Engineer Semarchy (H/F)

CELAD
Publiée le

36k-42k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Freelance
CDI

Offre d'emploi
Data Engineer GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
346 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous