L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 268 résultats.
Mission freelance
Data Engineer confirmé(e) – Projet Référentiel Valeurs / MDM (H/F)
Publiée le
Data Lake
DevOps
Master Data Management (MDM)
12 mois
450-500 €
Paris, France
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer Vos principales missions : Dans le cadre du projet Référentiel Valeurs, visant à centraliser, fiabiliser et gouverner l’ensemble des données relatives aux instruments financiers, vous intégrerez une squad Data composée d’un Architecte technique, d’un Product Owner, d’un Business Analyst et de développeurs. Vos principales missions seront : - Concevoir et implémenter le socle data du Référentiel Valeurs - Développer et industrialiser les pipelines de données (ETL / Datalake) - Intégrer et exposer les données de référence (MDM) - Mettre en œuvre et suivre la qualité et la cohérence des données - Contribuer aux pratiques DevOps / CI-CD et au déploiement des flux - Collaborer avec les équipes métier et data governance TJM : 450€ - 500€
Mission freelance
Data Engineer Databricks
Publiée le
Apache Airflow
Azure DevOps
CI/CD
6 mois
400-480 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
En tant que Data Engineer Databricks, nous vous proposons d’intégrer une équipe d’ingénieurs expérimentés et multi-compétentes. Au sein de nos clients issus de différents secteurs d'activité (Industrie, Services, Transport, Logistique, Banque, Assurances, Énergie), vous jouez un rôle clé dans la migration des données et des tâches de l'environnement Cloudera vers Databricks. Vous êtes également chargé d'automatiser le déploiement des jobs via le CI/CD. Pour réussir ces différents challenges, nous vous proposerons des actions de formation, des parrainages, des certifications sur les outils concernés et un dispositif d’évaluation personnel régulier.
Mission freelance
POT8636-Un Data Engineer DBT sur Paris
Publiée le
DBT
6 mois
290-430 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris.
Mission freelance
Data Engineer Semarchy xDM / xDI Montpellier
Publiée le
Semarchy
6 mois
330-350 €
Montpellier, Occitanie
Télétravail partiel
Data Engineer Semarchy xDM / xDI Montpellier Stambia Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition. Data Engineer Semarchy xDM / xDI Montpellier Stambia
Offre d'emploi
Data Engineer Databricks - Paris
Publiée le
AWS Cloud
Azure
Databricks
50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Data Engineer - Spark Hadoop - 2 jours TT - Service Public
Publiée le
Apache Spark
Hadoop
6 mois
450-500 €
La Défense, Île-de-France
Télétravail partiel
Concevoir, développer et maintenir des pipelines de données robustes et scalables (batch et streaming). Participer à la mise en place et à l’optimisation de la plateforme Big Data (Hadoop/Spark). Intégrer, transformer et nettoyer des données issues de différentes sources (API, bases relationnelles, fichiers plats, etc.). Collaborer étroitement avec les Data Scientists et Data Analysts pour la préparation et la mise à disposition des datasets. Contribuer aux bonnes pratiques de développement, d’automatisation (CI/CD), et de gestion de la qualité des données. Assurer la documentation technique et la maintenance des flux existants. Participer à la montée en compétences de l’équipe interne sur les outils Big Data.
Mission freelance
Data Engineer Suite MSBI
Publiée le
ETL (Extract-transform-load)
Microsoft SSIS
OLAP (Online Analytical Processing)
14 mois
270-280 €
Montpellier, Occitanie
Télétravail partiel
Site : Montpellier, 2 jours/ semaine sur site Date de démarrage : 01/10/2025 Mission : Data Engineer sur des activités de run et build Nb années d’expérience : 3 ans Profil : Data Engineer Data Engineer Suite MSBI Attendu : Concevoir et développer des solutions pour la collecte, l'organisation, le stockage et la modélisation des données, Développer un ensemble d'outils d'aide à la décision pour les métiers du client, Enrichissement de données, Production d'indicateurs (KPI), Optimisation et performance, Garantir l'accès aux différentes sources de données et de maintenir la qualité des données, Contribuer à la mise en place d'une politique de données et des règles de bonnes pratiques conformes aux réglementations client en vigueur, Assurer une veille technologique, notamment sur les langages de programmation utilisés afin d’aider à l'avancement des projets. Compétences techniques : ETL SSIS, Cube OLAP SSAS, Requêtage SQL, Connaissance ETL, préparation structuration de données, stockage de fichier (Talend, HDFS, SSIS), Expérience dans la modélisation et dans l’exploitation des bases de données (SQL et NoSQL, Oracle, …), Une connaissance en migration des traitements sous GCP serait un plus (BigQuery)
Offre d'emploi
Data engineer H/F
Publiée le
BigQuery
Data Lake
Data Warehouse
Lille, Hauts-de-France
🎯 Venez renforcer nos équipes ! Pour accompagner notre croissance, nous recherchons un(e) Data Engineer pour un beau projet chez un acteur majeur de la grande distribution. Dans ce contexte international et exigeant, vous intégrez des équipes dynamiques, vous abordez de nouveaux challenges ! 📍 Ce Qui Vous Attend La mission consiste à préparer les socles de données après validation et transformation, au service des équipes de Data Analyse Contribuer autant au RUN qu’à des actions de BUILD orientée DevOps Assurer le maintien en condition opérationnelle sur l'existant, analyse et traitement des incidents Support à l'usage des données, documentation et assistance
Mission freelance
Data Engineer – Solution Data
Publiée le
Snowflake
6 mois
400-610 €
Lavaur, Occitanie
Télétravail partiel
🎯 Objectif de la mission : Définir, développer, mettre en place et maintenir les outils et projets Analytics. 🛠️ Outils & Technologies : Python, Java, Shell Snowflake Matillion, Azure Data Factory Jenkins, Git, GitLab, CI/CD, Docker, Ansible, Kubernetes Power BI Tableau Software, Alteryx, Airflow, Denodo 📌 Responsabilités : Implémentation et industrialisation des pipelines de données Monitoring et amélioration continue Opération des projets Data & Analytics sur Data Platform Support en second niveau Veille technologique et contribution à la roadmap ✅ Compétences requises : Maîtrise des langages et outils cités Très bon niveau d’anglais Capacité à formaliser des solutions techniques Esprit collaboratif, rigueur, autonomie Pilotage de prestataires Aisance en environnement international
Mission freelance
POT8640 - Un Data Engineer BigQuery sur Lille
Publiée le
BigQuery
6 mois
300-400 €
Lille, Hauts-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille.
Mission freelance
Data Engineer Semarchy xDM / xDI Montpellier
Publiée le
Semarchy
6 mois
330-350 €
Montpellier, Occitanie
Télétravail partiel
Data Engineer Semarchy xDM / xDI Montpellier Stambia Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
Mission freelance
Data Engineer Semarchy xDM / xDI Montpellier
Publiée le
Semarchy
6 mois
330-350 €
Montpellier, Occitanie
Télétravail partiel
Data Engineer Semarchy xDM / xDI Montpellier Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
Offre d'emploi
Data Engineer AWS H/F
Publiée le
Ansible
AWS Cloud
Docker
12 mois
40k-55k €
440-550 €
Île-de-France, France
Télétravail partiel
Développement de la plateforme de microservices AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les media • Assurer la qualité, la fiabilité et l'accessibilité des données. • Développer les pipelines de traitement de données avec orientation media • Collaborer avec les équipes de data science pour comprendre les besoins en données et mettre en place les solutions appropriées. • Recueillir les besoins avec des métiers ou clients. • Assurer la maintenance et l'optimisation des systèmes de données existants. Livrables attendus : Des analyses, développements et documentations de qualité.
Mission freelance
Data Engineer GCP confirmé
Publiée le
10 mois
Lille, Hauts-de-France
Nous accompagnons actuellement un client final basé en Île-de-France , qui recherche un Data Engineer confirmé/expert GCP pour renforcer son équipe pluridisciplinaire (Data Engineer, DevSecFinOps). Contexte & missions principales : RUN : Maintien en condition opérationnelle (RDO multi-sources, 15 applications), gestion des incidents, suivi des flux, mise en production via Git. BUILD : Conception & développement de solutions data (BigQuery, Data Lake, SQL), modélisation sous gouvernance data, intégration Supply Chain, tests & reporting. EXPERTISE : Apport d'expertise GCP, montée en compétences sur le SI, approche FinOps (maîtrise et optimisation des coûts cloud). Livrables attendus : météo quotidienne, remontées d'alertes, scripts & requêtes, documentations, états d'avancement. Compétences requises : Expert impératif : GCP (BigQuery, Data Lake, SQL), GitLab, Terraform Confirmé : Script Shell, IWS, Airflow Langues : Français courant (impératif), Anglais bon niveau Informations pratiques : Démarrage : ASAP Localisation : Île-de-France (hybride) Durée : mission longue possible Contexte : client final - pas de sous-traitance Montreal Associates is acting as an Employment Business in relation to this vacancy.
Mission freelance
POT8623-Un Data Engineer sur Lille
Publiée le
Python
6 mois
240-360 €
Lille, Hauts-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Lille. Missions: Poursuivre / Finaliser le développement d'une infrastructure de gestion de données (collecte, stockage, traitement) sur AWS, incluant la sécurité de l'infrastructure et des données. Services AWS utilisés : S3, Lambda, Glue. Développement Infra as Code avec CDK et Transcript. Stockage des codes sur GitHub Enterprise. Déploiement avec GitHub Action. Maitriser la manipulation de données n'est pas la compétence la plus critique => donc bien maitriser le coté AWS, mais pas forcément sur Data. Data Engineer ou Cloud Engineer, compétences AWS, DevOps, Python
Mission freelance
Mission Freelance – Data Engineer (GCP / Python / BigQuery)
Publiée le
Google Cloud Platform (GCP)
1 an
400-560 €
Île-de-France, France
Télétravail partiel
Vos missions Concevoir, construire et maintenir des pipelines de données robustes et scalables (batch & stream). Participer à la mise en production et à la qualité des datasets liés à la personnalisation des contenus. Industrialiser les traitements avec Airflow, Terraform et Terragrunt. Garantir la qualité et l’intégrité des données (tests, monitoring, alerting). Optimiser les performances et la structure des données dans BigQuery . Participer à la gouvernance Data : documentation, bonnes pratiques, CI/CD, sécurité. Collaborer avec les équipes Data pour les aider à exploiter et requêter efficacement la donnée. Assurer la veille technologique sur les outils Data & Cloud. 🛠️ Stack technique Langages : Python, SQL, PySpark Cloud : Google Cloud Platform (BigQuery, Cloud Storage, IAM) Orchestration : Airflow Infra as Code : Terraform, Terragrunt CI/CD : GitLab CI Méthodologie : Agile / Scrum / Kanban
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
268 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois