Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 314 résultats.
Mission freelance
Data Platform Engineer
Cherry Pick
Publiée le
AWS Cloud
Python
12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Mission freelance
Data Engineer/Architect Apache Iceberg (Marseille 3j)
Cherry Pick
Publiée le
Apache
Google Cloud Platform (GCP)
Python
6 mois
600-620 €
Marseille, Provence-Alpes-Côte d'Azur
En quelques mots Cherry Pick est à la recherche d'un Data Engineer/Architect(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de la fabrication et la commercialisation des drones. Description 🧭 Contexte de la mission Dans un contexte de forte croissance des usages data autour de données issues de capteurs drones , la mission vise à concevoir et structurer une plateforme data internalisée , capable d’absorber des volumes importants de données hétérogènes (temps réel et batch), tout en répondant à des enjeux de sensibilité des données clients et de maintenance prédictive . 🛠️ Missions principales et rôle Concevoir et mettre en place un Data Lake basé sur une architecture médaillon (Bronze / Silver / Gold) Gérer l’ingestion et le stockage de données capteurs drones et de données tabulaires Mettre en œuvre une architecture data basée sur Apache Iceberg Garantir la disponibilité rapide des données après les vols d’essai Participer à la conception d’une brique data autonome , isolable pour les cas de données sensibles clients Contribuer à l’ internalisation de la plateforme data Traiter des pics de charge importants (jusqu’à 10 Go de données arrivant simultanément) Collaborer avec les équipes plateforme et data science sur les cas d’usage de maintenance prédictive 🎯 Objectifs Centraliser et fiabiliser les données drones dans un Data Lake scalable et robuste Permettre une exploitation rapide des données post-vol Sécuriser et isoler certaines données selon les contraintes clients Préparer les données pour des usages avancés (analytique, maintenance prédictive)
Mission freelance
Senior Data Engineer GCP
Groupe Aptenia
Publiée le
Apache Spark
Collibra
Google Cloud Platform (GCP)
3 ans
Île-de-France, France
🔍 Nous recherchons un Data Engineer senior pour renforcer une équipe Data en charge d’améliorer la qualité des données , d’industrialiser les contrôles et de contribuer aux initiatives de gouvernance sur GCP. 🎯 Vos missions principales ✅ Concevoir & industrialiser des contrôles qualité Data via Dataplex Universal Catalog (Terraform / Terragrunt) ✅ Construire des indicateurs de pilotage de la qualité et les exposer dans Collibra ✅ Développer des pipelines Data robustes & scalables (Python / SQL / Spark) ✅ Structurer, stocker et sécuriser les données à grande échelle ✅ Construire & maintenir les workflows CI/CD (Gitlab) ✅ Participer aux initiatives Data Governance & Data Quality ✅ Capitaliser & partager les bonnes pratiques au sein de la communauté Data
Mission freelance
Data Engineer (H/F) - 56
Mindquest
Publiée le
Spark Streaming
SQL
1 an
370-510 €
Vannes, Bretagne
Context Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Mission * Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers * Mettre en œuvre les tests unitaires et automatisés * Déployer le produit dans les différents environnements * Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents * Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Offre d'emploi
Data Analyst/ Data Engineer F/H
ICSIS
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Python
Lille, Hauts-de-France
Qui sommes nous ICSIS est une ESN digitale innovante et en fort développement, implantée à Lille et Strasbourg, qui accompagne ses clients dans leurs projets de Transformation Numérique avec un positionnement régional de proximité. Intégrer ICSIS, c'est participer à un projet d'entreprise motivant centré autour de ses collaborateurs, bénéficier d un management de proximité, avec un suivi et un accompagnement personnalisé de son projet professionnel. Nous proposons à nos consultants des missions valorisantes au sein des équipes de nos clients finaux (Banques, Finances, Assurances, Distribution et E-Commerce, Services & Utilities). ICSIS propose un panel varié de missions : - Développement applicatif (Back-End, Front End, Data, Cloud), - Conseil en Architecture, - Conseil des Maîtrises d’Ouvrage dans l’évolution de leurs métiers, de leurs organisations et dans l’intégration des nouveaux usages, - Assistance au Pilotage de projets. Dans le cadre du développement de notre agence de Lille, nous recrutons actuellement des Data Analyst / Data Engineer. La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données
Mission freelance
Data Engineer senior/expert DBT/Snowflake
EBMC
Publiée le
Snowflake
6 mois
120-450 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du renforcement de ses plateformes data, le client recherche un Data Engineer senior / expert dbt & Snowflake pour intervenir sur des sujets à forte valeur ajoutée autour de la modélisation, de l’industrialisation et de l’optimisation des pipelines de données. La mission s’inscrit dans un environnement data moderne, orienté analytics et performance, avec des enjeux forts de qualité, de sécurité et de scalabilité. Le consultant interviendra sur des projets structurants, nécessitant une excellente maîtrise des architectures cloud data et une capacité à travailler en autonomie dans un contexte international
Mission freelance
Data Engineer Azure Synapse / PySpark (Référentiel ESG)
STHREE SAS pour HUXLEY
Publiée le
12 mois
500 €
France
🔍 Contexte Un acteur européen majeur du secteur financier recherche un Data Engineer confirmé pour renforcer son département Data & Referential . La mission s'inscrit dans le cadre de la mise en place d'un référentiel de données unifié , avec un focus particulier sur les indicateurs ESG provenant de multiples sources. 🎯 Votre rôle Intégration de nouvelles sources de données via Azure Synapse & PySpark Mise en place d'un monitoring rigoureux des flux Adaptation des connexions au reporting interne pour intégrer les nouvelles données Coordination avec les Business Analysts Contrôles de cohérence et qualité des données (comparaison inter‑sources) 🧱 Compétences techniques clés Azure Synapse PySpark Azure Data Factory Azure DevOps SonarCloud API Management Micro‑services SQL Server Connaissance Informatica IDQ = un plus 👤 Profil recherché Bac+5 (ingénieur ou équivalent) Minimum 3 ans d'expérience sur Azure Synapse & PySpark Bonne culture Data & Monitoring Pratique des environnements Agile (SCRUM) & DevOps Maîtrise du français et de l'anglais Intérêt pour l' Asset Management et les sujets ESG 📅 Démarrage : 1er février 2026
Mission freelance
Lead Data Engineer - Python/AWS/DevOps/ Big Data/ Linux / Energie (H/F)
Octopus Group
Publiée le
Apache Airflow
Apache Spark
API
6 mois
500-600 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte dans l'Energie, un Lead data Engineer. Objectifs : Etre le/la référent(e) technique de la plateforme de données - coordination technique transverse Etre référent principale sur un sujet pilote Définir, mettre en œuvre et automatiser des pipes des données et gouvernance Assurer le Run notamment la MCO, la CI / CD et la mise en production en coordination avec l’équipe référente Préparer les pipelines Data en coordination avec l’architecte et le manager Avoir un sens expérimental et de proposition dans un contexte Multi cloud est un atout majeur Missions : Etre le/la référent(e) technique de la plateforme de données Etre garant(e) du socle technique de la plateforme data et de son évolution, Définir les besoins techniques, la roadmap d’évolution du socle technique de la plateforme de données pour suivre ses changements d’échelle et garantir ses performances et sa maintenabilité, Etre mentor et référent pour les membres de l’équipe, Participer aux choix de nos partenaires. Le dev de devops : définir, mettre en œuvre et automatiser des pipes des données et gouvernance Mettre en place des projets Data Lake (ingestion de sources, pipeline de traitements de données, modélisation, tests, déploiements) dans la meilleure architecture, Définir les meilleures de façon de stocker exposer les données au sein de la plateforme selon les usages attendus, Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats, Réaliser les développements en ayant intégré les besoins et pratiques des analystes et data scientists. run et environnements Maintenir les environnements techniques et partager vos connaissances, Gérer les incidents et s’assurer de leur résolution dans une logique d’amélioration continue et d’automatisation (ex : rejeu de données), Assurer la supervision des traitements (technique et fonctionnelle).
Offre d'emploi
Data Engineer - Elasticsearch
VISIAN
Publiée le
Elasticsearch
ETL (Extract-transform-load)
1 an
40k-60k €
400-550 €
Montreuil, Île-de-France
Environnement de travail: Au sein d'une équipe de DataManagement à taille humaine, devoir d'intégration et renfort de l'équipe pour contribution aux enjeux forts de DataDriven Travail à la mise à disposition de données en garantissant la qualité et la fraicheur pour l'ensemble des traitements et process qui l'utilisent. Collaboration avec les équipes informatiques et capacité de traitement des données en provenance de différentes sources, puis analyse et interprétation des résultats tout en définissant la structure de stockage Anglais écrit et oral pour des échanges avec certains interlocuteurs internationaux et les équipes de support éditeur. 1. Objet de la mission Développer, optimiser et maintenir des pipelines de données, incluant l’automatisation, la gestion des bases, la recherche et le traitement. 2. Périmètre de la prestation · Conception et développement de flux ETL/ELT. · Mise en place et exploitation de traitements en streaming. · Développement de scripts et automatisations PowerShell. · Administration et optimisation de PostgreSQL. · Indexation, recherche et optimisation dans Elasticsearch. 3. Livrables attendus · Pipelines opérationnels et documentés. · Scripts PowerShell industrialisés. · Schémas et procédures PostgreSQL optimisés. · Index/mappings Elasticsearch performants.
Offre d'emploi
Data Engineer – Pipelines & Streaming
OBJECTWARE
Publiée le
Apache Kafka
Elasticsearch
PostgreSQL
3 ans
Île-de-France, France
Dans le cadre du renforcement de ses capacités data, la mission consiste à concevoir, développer, optimiser et maintenir des pipelines de données , couvrant l’automatisation des traitements, la gestion des bases de données, les capacités de recherche ainsi que le traitement des flux temps réel. Livrables attendus Pipelines de données opérationnels, robustes et documentés. Scripts PowerShell industrialisés et maintenables. Schémas de données et procédures PostgreSQL optimisés. Index, mappings et configurations Elasticsearch performants.
Mission freelance
Data Engineer Big Data – Datalake Hadoop / Spark (on-premise)
CAT-AMANIA
Publiée le
Apache Hive
Big Data
CI/CD
2 ans
400-480 €
Île-de-France, France
Dans un contexte Data & BI à forts enjeux, vous intervenez au sein d’une équipe Big Data & API , rattachée à une squad Financing & Risk , en charge du développement et de l’exploitation d’un datalake utilisé comme plateforme data centrale par les équipes IT et métiers. En tant que Data Engineer , vous jouez un rôle clé dans la gestion, l’évolution et la fiabilité de cette plateforme. Vos principales missions sont les suivantes : Assurer la gestion de la production du datalake (suivi, incidents, stabilité des traitements) Prendre en charge la dette technique et contribuer à l’amélioration continue de la plateforme Analyser l’architecture existante et proposer des évolutions techniques pertinentes Réaliser les développements Big Data liés aux projets en cours et à venir Participer à l’industrialisation et aux déploiements via les chaînes CI/CD Vous évoluez dans un environnement technique Big Data on-premise , au sein d’une équipe travaillant en interaction avec des équipes IT et métiers, sur des sujets à forte valeur ajoutée.
Mission freelance
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) /sa
WorldWide People
Publiée le
DBT
Informatica
Snowflake
6 mois
400-500 £GB
Bordeaux, Nouvelle-Aquitaine
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) Bordeaux pour diriger la migration d'IICS vers DBT sur Snowflake. Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration). 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Bordeaux de préférence sinon France L'équipe recherche un data Engineer senior pour diriger la migration d'IICS vers DBT sur Snowflake. Le candidat idéal doit jouer le rôle de « traducteur » : il doit être capable de lire des mappages IICS hérités complexes (logique de rétro-ingénierie) et de les refactoriser en modèles SQL DBT modulaires et propres. Compétences requises : Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration).
Mission freelance
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) /sa
WorldWide People
Publiée le
DBT
Informatica
Snowflake
6 mois
400-500 £GB
France
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) pour diriger la migration d'IICS vers DBT sur Snowflake. Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration). 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Bordeaux de préférence sinon France L'équipe recherche un data Engineer senior pour diriger la migration d'IICS vers DBT sur Snowflake. Le candidat idéal doit jouer le rôle de « traducteur » : il doit être capable de lire des mappages IICS hérités complexes (logique de rétro-ingénierie) et de les refactoriser en modèles SQL DBT modulaires et propres. Compétences requises : Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration).
Offre d'emploi
Data Engineer / Data Analyst
ICSIS
Publiée le
BigQuery
CI/CD
Google Cloud Platform (GCP)
2 ans
30k-45k €
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Offre d'emploi
Data Engineer Semarchy xDI (H/F)
GROUPE ALLIANCE
Publiée le
Semarchy
36 mois
Île-de-France, France
SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST POUR TOI… CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à l’ingénierie des données, aux flux et aux performances Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi! Pour le compte d'un de nos clients issus du monde de l'assurance , tu participeras au renforcement de leur équipe Data en tant que Data Engineer Semarchy xDI : La conception, le développement et le test des flux d’alimentation de données (brutes et transformées) en utilisant Semarchy xDI , tu réaliseras La collaboration avec le Product Owner et les profils fonctionnels pour comprendre les besoins métiers et leur traduction en spécifications techniques , tu contribueras Le garant de la qualité, de la performance et de la fiabilité des flux de données mis en place, en réalisant notamment des tests unitaires avant livraison , tu seras La rédaction des spécifications techniques détaillées, les cahiers de recette techniques, dossiers d'application, tu veilleras La documentation fonctionnelle des solutions développées , tu rédigeras
Offre d'emploi
Data Engineer - Finance (H/F)
STORM GROUP
Publiée le
Apache Hive
Bash
Hadoop
3 ans
50k-60k €
480-550 €
Île-de-France, France
Contexte : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad Financing & Risk qui aujourd'hui développe et gère un datalake (FinLake). Ce datalake est utilisé comme une data plateforme pour les équipes IT et métiers. Missions : L'objectif de la mission est d'assurer le rôle de Data Engineer du FinLake : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- ARCE | Informations générales-Indemnisation
- Je code pour vous une application gratuitement
- Passage au réel après dépassement micro : notification URSSAF ?
- Placement via mon EURL à l'IS
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- TJM en vrille sur une proposition d'AO
314 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois