Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 301 résultats.
Mission freelance
Data Engineer Senior / Lead Data
Tenth Revolution Group
Publiée le
AWS Cloud
Collibra
Databricks
6 mois
620-660 €
Paris, France
Dans le cadre d'une mission chez un grand acteur du secteur de l'énergie en France, nous recherchons des profils Data Engineer Senior++ / Lead Data disponibles entre mi-mars et mi-mai 2025. Le client, accompagné par un cabinet de conseil top tier, recherche des consultants capables de s'emparer d'un périmètre data, de le cadrer et de le développer en toute autonomie. Plusieurs positions sont à pourvoir. La maîtrise et l'usage quotidien de l'IA dans le travail est un critère indispensable.
Offre d'emploi
Data Engineer Senior – DBT
adbi
Publiée le
DBT
1 an
45k-55k €
550-600 €
Île-de-France, France
Data Engineer Senior – Spécialiste DBT 📍 Localisation : Vélizy (3 jours minimum sur site) 🌍 Anglais courant requis Contexte Dans le cadre de la modernisation et de la standardisation des processus de transformation de données au sein du Groupe, nous recherchons un(e) Data Engineer expérimenté(e) spécialisé(e) DBT (data build tool) . Le/la consultant(e) interviendra sur la mise en place et l’industrialisation d’une plateforme DBT, avec pour objectif de garantir des pipelines de données robustes, scalables et alignés avec les meilleures pratiques ELT. Missions principales 🔹 Définition des standards et gouvernance Définir et formaliser les bonnes pratiques DBT (développement, déploiement, RUN). Mettre en place les standards et guidelines en collaboration avec le Tech Lead ELT. Définir les prérequis techniques et templates associés. Participer à la stratégie d’intégration et à la gouvernance des données. Co-définir la stratégie de logging et la gestion des événements. 🔹 Architecture & Stratégie Co-définir l’architecture cible, la stratégie et les patterns ELT avec les experts techniques. Étudier les analyses d’écarts (gap analysis) dans le cadre de migrations vers DBT. 🔹 Conception & Développement Recueillir et analyser les besoins. Évaluer la faisabilité technique et la charge associée. Concevoir les connecteurs et jobs avec le Tech Lead DBT. Développer les jobs DBT. Assurer le déploiement, les tests d’acceptance et la documentation. Réaliser des audits de jobs existants. 🔹 Support & Optimisation Accompagner les projets dans la qualification et la transformation des données. Optimiser et configurer l’outil DBT. Garantir le maintien en conditions opérationnelles optimales. Fournir un support technique avancé. 🔹 Documentation & Communication Rédiger les spécifications techniques. Produire la documentation de développement. Élaborer un guide des bonnes pratiques. Préparer et animer des sessions de formation / transfert de compétences. Participer aux communications (présentations, communauté ELT WW).
Offre d'emploi
Data Engineer GCP (H/F)
CELAD
Publiée le
42k-48k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Mission freelance
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES
WorldWide People
Publiée le
Semarchy
12 mois
360-390 €
Nantes, Pays de la Loire
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES 04/05/2026 1 an Nantes ( 2 jours de télétravail) Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell Build: conception et développement de nouvelles solutions socle data Run: MCO et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Développer des traitements ELT xDI Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Nous recherchons un data engineer confirmé. La maitrise de Semarchy xDi, SQL et GitLab CICD est nécessaire.
Mission freelance
101528/Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES
WorldWide People
Publiée le
Semarchy
12 mois
360-390 €
Nantes, Pays de la Loire
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES 04/05/2026 1 an Nantes ( 2 jours de télétravail) Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell Build: conception et développement de nouvelles solutions socle data Run: MCO et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Développer des traitements ELT xDI Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Nous recherchons un data engineer confirmé. La maitrise de Semarchy xDi, SQL et GitLab CICD est nécessaire.
Mission freelance
Data Engineer GCP (H/F)
CELAD
Publiée le
1 an
400-440 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Mission freelance
Senior Data Engineer
Signe +
Publiée le
MySQL
12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Concevoir, développer et maintenir des data pipelines et solutions de data warehouse en environnement cloud Mettre en place et industrialiser les processus ETL / ELT et l’orchestration des pipelines en production Traduire les besoins métiers en solutions techniques data robustes en collaboration avec les équipes transverses Définir et appliquer les standards techniques et bonnes pratiques d’ingénierie data Participer à l’amélioration continue des architectures data et des performances des pipelines Expérience requise 6 à 10 ans d’expérience en Data Engineering Expérience confirmée en implémentation de pipelines data et solutions de data warehousing cloud Expérience en modélisation de données et orchestration de pipelines en environnement production Expérience de travail en équipes cross-fonctionnelles Compétences techniques Maîtrise avancée SQL Plateformes Data Warehouse : Snowflake (préféré) ETL / ELT : IICS ou équivalent Transformation data : dbt (préféré) Python pour traitement de données Cloud : AWS (préféré) Orchestration : Airflow (préféré) CI/CD : GitHub Actions Versioning : Git Infrastructure as Code : Terraform Mise en place de standards d’ingénierie et patterns techniques Soft skills Esprit collaboratif et orientation solution Autonomie et proactivité Communication efficace avec équipes techniques et métiers Formation Bachelor minimum (Master apprécié) en informatique ou domaine équivalent Langue Anglais obligatoire
Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS
VISIAN
Publiée le
Apache Airflow
API
AWS Cloud
3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Mission freelance
DATA ENGINEER DDL ( profil habilitable)
Signe +
Publiée le
Python
12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
Mission freelance
Data Engineer
Signe +
Publiée le
Microsoft Power BI
6 mois
350-450 €
Vélizy-Villacoublay, Île-de-France
Contexte Dans le cadre des projets de transformation digitale, le consultant interviendra sur la conception, le développement et l’industrialisation de solutions data et reporting, en collaboration avec les équipes DevOps et les équipes métiers. Missions principales Participer aux différentes phases des projets Data Concevoir et maintenir Data Warehouses, Data Marts et Data Cubes Développer et maintenir des pipelines ETL (Delta / Full / Historisation) Développer et maintenir des jobs Azure Data Factory Optimiser les performances SQL, DAX, MDX Mettre en œuvre la sécurité des données (Row Level Security) Monitorer, maintenir et déboguer l’écosystème BI Mettre en place des pipelines CI/CD automatisés Rédiger la documentation technique et participer aux phases de cadrage Compétences techniques Azure Data Factory ADLS Gen2 Azure SQL DB Analysis Services Power BI GitLab / Azure DevOps SQL Server, T-SQL optimisation Data Modeling / Data Warehousing CI/CD data pipelines Profil recherché Formation supérieure informatique / data Bon relationnel et esprit analytique Capacité à travailler en environnement international
Mission freelance
Architecte Power BI / Data Engineer Senior – Expert Advisory (H/F)
HOXTON PARTNERS
Publiée le
Microsoft Power BI
Powershell
4 jours
Paris, France
Dans le cadre de plusieurs sujets techniques autour de Power BI, nous recherchons un Architecte Power BI / Data Engineer senior pour intervenir sur des problématiques à forte complexité technique. La mission consiste à apporter une expertise de haut niveau sur des sujets avancés tels que l’analyse et la documentation des API Admin V2 Power BI, l’identification des applications ne utilisant pas les fonctionnalités de gestion d’accès (Custom Message), l’expertise sur les capacités Power BI en mode Pay-As-You-Go, ainsi que l’analyse et la configuration des environnements Gateway (PowerShell, VMNET, réseau). Le consultant interviendra en tant qu’expert afin d’apporter des recommandations d’architecture, résoudre des problématiques complexes et accompagner les équipes sur des sujets techniques critiques. L’intervention se fera sous forme de sessions d’expertise ponctuelles de 2 à 4 heures.
Mission freelance
Mission freelance - Data / AI Engineer Snowflake - Toulouse
KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
Apache Spark
Python
1 an
300-480 €
Toulouse, Occitanie
Vos missions : Collaborer avec le métier pour concevoir des transformations data / AI pertinentes pour le business, Industrialiser et gérer des pipelines de traitement de données en production, Contribuer à l’implémentation d’évolutions des plateformes data de nos clients, Accompagnement du métier dans le cadrage et le delivery de leurs cas d’usage data Être force de proposition auprès du client dans l’évolution de sa plateforme data Participation éventuelle à des avant-ventes afin d’aider à la conception de solutions techniques pour nos futurs clients Qualifications ? Vos atouts pour nous rejoindre : Cloud Data / IA Platform : Snowflake Orchestrateur : Airflow Framework de calcul distribué : Spark Langage : Python, PySpark, Scala, Java Infrastructure As Code : Terraform CI/CD : GitlabCI, Jenkins Containers : Docker, Kubernetes Versioning : Git
Mission freelance
Data Engineer
MLMCONSEIL
Publiée le
Dataiku
Python
SQL
6 mois
100-460 €
Rennes, Bretagne
Nous recherchons un Data Engineer confirmé pour industrialiser et optimiser les traitements de données via Dataiku et une architecture AWS (S3, Redshift, Glue, Athena) . Le rôle inclut la collecte via API , la modélisation des données , ainsi que la qualité, sécurité et gouvernance des flux en lien avec les équipes métier. Profil attendu : 5 ans d’expérience minimum , maîtrise SQL/Python , Dataiku, environnement Cloud, anglais professionnel requis.. . ... ... ... ... ... ... ... ... ... ... ... ... ... .. .
Mission freelance
Data engineer H/F
HAYS France
Publiée le
6 mois
450-500 €
Luxembourg
Responsabilités clés : Le département Risk a décidé de refondre ses outils de reporting réglementaire et interne pour l'ensemble du Groupe. La solution cible reposera sur la collecte des sources de données via notre Microsoft Data Platform, ainsi que sur la transformation des données et la production d'une grande partie du reporting Risques du Groupe à l'aide de l'outil WKFS RiskPro et, pour une liste limitée de rapports, via Risk EUC et des rapports / tableaux de bord Power BI. Responsabilités : Développement de pipelines dans Azure Synapse Analytics pour l'ingestion de données Implémentation des règles de transformation dans la Microsoft Data Platform du Groupe Réalisation des tests techniques unitaires Support à la phase UAT (corrections d'anomalies / demandes d'évolution) Déploiement des développements
Offre d'emploi
Data Engineer (H/F)
AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API
3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
Offre d'emploi
Data Engineer Senior - Nantes &Vannes F/H
Argain Consulting Innovation
Publiée le
Apache
Apache Hive
Batch
2 ans
40k-45k €
450-500 €
Nantes, Pays de la Loire
Nous recherchons un Data Engineer pour intervenir sur la fabrication de cas d’usages Data et le développement des produits associés. L’environnement est transverse, multi-sites, avec des enjeux forts de cohérence, de qualité et d’industrialisation des solutions Data à l’échelle de l’entreprise, en lien avec les équipes métiers et techniques. 📍 Localisation Si vous etes localisé à Nantes, vous serez rattaché(e) au site de Nantes avec 2 jours de déplacement par mois requis sur le site de Vannes. Si vous etes localisé(e) à Vannes vous serez rattaché (e) au site de Vannes Mission longue Vos missions : Vous interviendrez sur l’ensemble du cycle de vie des produits Data : Participation à la définition de l’architecture Data , en lien avec les architectes et les équipes projet Conception, développement et optimisation des solutions de collecte et de stockage de données (multi-sources) Mise à disposition des données pour les usages métiers Mise en œuvre de tests unitaires et automatisés Déploiement des solutions sur les différents environnements Suivi du bon fonctionnement en production : support, assistance, gestion des incidents Contribution à l’ amélioration continue des pratiques (qualité du code, performance, fiabilité)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
301 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois