Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 305 résultats.
Freelance

Mission freelance
Data Engineer - Lille

ICSIS
Publiée le
Apache Kafka
CI/CD
DBT

2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Freelance
CDI

Offre d'emploi
Data Engineer Senior Snowflake (Lead / Mentoring)

UCASE CONSULTING
Publiée le
AWS Cloud
Qlik
Snowflake

1 an
40k-45k €
400-650 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous 😃 🔎 Contexte Dans le cadre du déploiement de Snowflake au sein de l’équipe Data, notre client recherche un Data Engineer expérimenté pour accompagner la montée en compétence des équipes, structurer l’architecture cible et intervenir sur des chantiers clés (migration & ingestion) 🎯 Objectifs de la mission 1. Accompagnement & montée en compétence Accompagner les équipes dans la prise en main de Snowflake Animer / coanimer des ateliers et diffuser les bonnes pratiques Faciliter l’appropriation des nouveaux workflows et outils 2. Architecture & structuration Concevoir et documenter l’architecture cible Snowflake Mettre en place et optimiser les pipelines d’ingestion et de transformation Garantir la performance, la scalabilité et la robustesse des traitements 3. Gouvernance & qualité de données Définir les règles de gouvernance (rôles, accès, organisation des environnements) Mettre en place des standards de développement (naming, versionning, documentation) Implémenter des processus de data quality (tests automatisés, contrôles de cohérence, fraîcheur…) Mettre en place des mécanismes de data observability et d’alerting Documenter les processus de gestion des incidents 4. Missions opérationnelles Participer à la migration de data products (Athena → Snowflake) Contribuer à l’ingestion et la structuration de nouvelles sources de données 🔧 Must have Expérience significative en tant que Data Engineer Expertise Snowflake (indispensable) Solide maîtrise SQL (optimisation, performance) Expérience en ingestion de données et/ou migration de plateformes data Connaissances en data quality et gouvernance Capacité à accompagner des équipes (pédagogie, mentoring) ➕ Nice to have Expérience sur AWS Connaissance de Qlik Expérience en environnement data moderne (pipelines, orchestration, CI/CD…) Contexte conseil / ESN Expérience sur des sujets de data observability 📍 Modalités Démarrage : Avril 2026 Localisation : Lyon Télétravail : 3 jours sur site/2 jours de TT
Freelance

Mission freelance
[SCH] Analytics Engineer / Data Engineer Conformité – Lutte contre la fraude - 1413

ISUPPLIER
Publiée le

10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre de la plateforme SPIDER, dédiée à la lutte contre la fraude, le blanchiment et le financement du terrorisme, notre client recherche un Analytics Engineer / Data Engineer orienté conformité. Intégré à la squad compliance de solutions cognitives, le consultant interviendra sur une plateforme d’investigation s’appuyant sur des technologies graphes comme Neo4j et Linkurious, permettant de centraliser les données issues de multiples applications internes et d’offrir une vision 360° des personnes et de leurs interactions. La mission porte plus particulièrement sur le socle d’ingestion de données alimentant la base graphe, avec un fort enjeu de qualité, de modélisation, d’industrialisation et de collaboration avec les métiers fraude et LCB-FT. Missions : -Transformer, modéliser et documenter les données brutes pour les rendre exploitables -Développer des modèles et produits de données orientés conformité pour alimenter la base graphe -Maintenir en condition opérationnelle les flux d’ingestion vers la base de données graphe -Améliorer les processus de traitement des données afin de gagner en rapidité et efficacité -Créer et mettre à jour la documentation des produits de données -Automatiser les contrôles et tests de qualité pour garantir l’intégrité des données -Produire des analyses à destination des métiers pour le calibrage de scénarios de fraude et de vigilance LCB-FT -Collaborer avec les Data Engineers et les métiers de la fraude / conformité pour enrichir la base graphe -Participer à la mise en production des produits de données avec l’équipe Data Platform -Contribuer à la structuration des flux dans une logique ELT / ETL et architecture data moderne Profil attendu : -Expérience confirmée en Analytics Engineering / Data Engineering -Très bonne maîtrise de SQL et Python -Bonne connaissance des concepts ETL / ELT -Expérience en modélisation de données -Connaissance de Snowflake et Dataiku -Bonne compréhension des architectures data modernes (médaillon, data mesh) -Capacité à travailler sur des sujets de qualité, documentation et industrialisation -Aisance à collaborer avec des équipes techniques et métiers -Sensibilité aux enjeux de fraude, conformité et LCB-FT appréciée -Rigueur, autonomie et bon niveau d’analyse
Freelance
CDI

Offre d'emploi
Data Engineer expérimenté – Plateforme Data (H/F)

Argain Consulting Innovation
Publiée le
Big Data
Data Warehouse
IBM DataStage

12 mois
40k-45k €
400-550 €
Nantes, Pays de la Loire
Contexte : Dans le cadre de l’évolution et de la modernisation d’une plateforme data stratégique, nous recherchons un Data Engineer expérimenté pour renforcer une équipe d’experts. Vous interviendrez dans un environnement agile et collaboratif, aux côtés d’ingénieurs data confirmés, avec un encadrement produit et méthodologique, favorisant l’excellence technique et l’innovation. Mission : La mission s’inscrit dans une dynamique ambitieuse autour de plusieurs axes : Build : Conception et développement de nouvelles solutions data Run : Maintien en conditions opérationnelles et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Modernisation : Évolution vers des architectures data modernes Responsabilités : Développer des traitements ELT (principalement à destination d’un datawarehouse) Concevoir et maintenir des templates ELT Participer à la définition de la feuille de route technique de migration ETL vers ELT Accompagner les équipes utilisatrices des solutions data Contribuer à la documentation des solutions du périmètre Garantir le bon fonctionnement du plan de production et le respect des engagements de service Identifier et proposer des optimisations dans une logique d’amélioration continue Partager ses connaissances et être force de proposition Attendus Développer des traitements ELT xDI principalement à destination du Datawarehouse Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Accompagner les développeurs Participer à la Documentation de l'ensemble des solutions Assurer le bon fonctionnement du plan de production et l'ensemble de nos produits et solutions en respectant les engagements de service Identifier / proposer des optimisations des traitements dans une démarche d'amélioration continue du plan de production Partager ses connaissances avec ses pairs et être force de proposition
Freelance

Mission freelance
Data engineer GCP

NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio

3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans
CDI

Offre d'emploi
Data Engineer - Semarchy xDI (H/F)

Degetel
Publiée le
ETL (Extract-transform-load)
PowerBI
Sap BO

Strasbourg, Grand Est
💼 À propos de l’entreprise Créée en 2008, Technology & Strategy est une société de conseil franco-allemande qui accompagne ses clients sur des projets d’engineering, de digital et de consulting. Avec plus de 3 500 collaborateurs , répartis dans 27 agences et plus de 10 pays , nous évoluons dans un environnement international 🌍 Ce qui fait notre force : Une expertise technique reconnue Des valeurs fortes : Respect, Partage, Initiative, Excellence Une vraie diversité avec plus de 45 nationalités Des équipes engagées, communicantes et solidaires Un accompagnement clair pour faire évoluer votre parcours Un environnement de travail certifié #HappyAtWork Des projets innovants, concrets et à impact 💼 À propos du poste – Data Engineer (H/F) – Strasbourg Dans le cadre de nouveaux projets data, nous recherchons un Data Engineer pour rejoindre notre équipe strasbourgeoise et intervenir sur des projets dans le domaine bancaire . Vous évoluerez dans un contexte orienté data décisionnelle / BI , avec des enjeux forts autour de l’intégration, de la structuration et de la valorisation des données. 🛠️ Vos missions Concevoir, développer et maintenir des flux d’intégration de données ( ETL / ELT ) Intervenir sur des outils d’intégration, idéalement Semarchy xDI (ex-Stambia) Participer à la modélisation des systèmes décisionnels Travailler sur les bases de données et rédiger des requêtes SQL performantes Contribuer à l’alimentation et à l’exploitation des outils de Business Intelligence Collaborer étroitement avec les équipes data, BI et métiers Garantir la qualité, la fiabilité et la performance des données 🚀
CDI
Freelance

Offre d'emploi
Data Engineer/Architecte

OBJECTWARE
Publiée le
Apache Spark
AWS Cloud
DBT

3 ans
41k-91k €
400-710 €
Île-de-France, France
Missions principales Conception et optimisation de pipelines de données à grande échelle (batch, streaming, API) Structuration des données selon le modèle Médaillon (Bronze / Silver / Gold) Développement et industrialisation via DBT, Spark et Iceberg Orchestration des workflows ETL/ELT via Airflow Déploiement cloud sur AWS et infrastructure as code avec Terraform Conteneurisation des traitements ( Docker, Kubernetes ) Supervision, observabilité, gestion des incidents et qualité des données Documentation et conformité RGPD Accompagnement de profils juniors
Freelance

Mission freelance
Data Engineer Devops (4-7ans) - Nantes - H/F

Argain Consulting Innovation
Publiée le
Apache Hive
Artifactory
Gitlab

12 mois
400 €
Nantes, Pays de la Loire
Nous avons besoin d’un renfort de profil développeur pour notre client grand compte dans le secteur bancaire, dont les missions sont les suivantes : Tâches : - Développer des User story relatives à l’ingestion /transformation de données avec des technos de type ETL sur une plateforme Cloudera customisée ou des procédures stockées - Mettre en œuvre les tests unitaires, participer à la recette fonctionnelle avec les Business analyst - Déployer le produit dans différents environnements - Produire la documentation associée à ces développements - Participer à l’affinage et chiffrage des solutions - Garantir et assurer le fonctionnement des produits en production (suivi du run) - Participer aux cérémonies et démarche agile Scrum Attendus : Prise en charge des récits de développement du backlog et des travaux associés (conception /DevTU/Recette/Déploiement ) du périmètre et de la trajectoire des produits de la squad Environnement techniques : Indispensables : ETL Jobfacto / Spark / HIVE / Oozie … Indispensables : Devops : Gitlab, Artifactroy
Freelance

Mission freelance
Data Engineer Sénior (Hadoop / Python)

Les Filles et les Garçons de la Tech
Publiée le
Apache Spark
Hadoop
Python

12 mois
150-650 €
Lyon, Auvergne-Rhône-Alpes
Au sein du pôle Big Data d'un grand groupe, l'objectif principal de ce poste est de réaliser et de maintenir les développements nécessaires à l'alimentation du Datalake sur une plateforme Cloudera Hadoop, de mettre en place des extractions de données et d'accompagner les utilisateurs. Rattaché(e) au responsable Big Data, vous évoluerez dans un contexte de production à fortes attentes où la tenue des délais de livraison et le pilotage opérationnel sont primordiaux. Vos principales missions seront les suivantes : Développement et intégration : Prendre en charge les évolutions des données à intégrer et reprendre les développements existants pour l'alimentation du Datalake. Vous développerez également des extractions avec un niveau d'expertise en SQL et créerez des scripts Shell avancés pour l'automatisation. Expertise technique et mentorat : Spécifier techniquement les tâches, fournir des requêtes de référence, effectuer des revues de code et accompagner les collaborateurs juniors, stagiaires ou alternants. Support et accompagnement : Assurer le support de niveau 2, faire appliquer les bonnes pratiques et consignes aux utilisateurs, et rédiger la documentation requise (guides, description de processus). Optimisation et maintenance : Garantir la maintenabilité, les performances et l'exploitabilité de la plateforme en respectant l'utilisation des modèles référencés par la Gouvernance de la Donnée. Vous optimiserez les traitements de la plateforme et ceux des utilisateurs, et mènerez des investigations (reverse engineering) dans une architecture héritée complexe
Freelance
CDI

Offre d'emploi
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse

12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
CDI

Offre d'emploi
DATA ENGINEER GCP

Peppermint Company
Publiée le
Apache Spark
Google Cloud Platform (GCP)
Hadoop

Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre d’un projet stratégique de transformation data, nous recherchons un Data Engineer orienté développement , capable d’intervenir sur une migration d’envergure d’Azure vers GCP . 🛠️ Missions principales Participation active à la migration des pipelines data d’Azure vers GCP Développement et optimisation de traitements data Conception d’architectures data robustes et scalables Collaboration avec les équipes data et métiers Contribution aux bonnes pratiques data engineering 🔧 Stack technique Google Cloud Platform (GCP) – niveau confirmé requis Apache Spark / Scala Hadoop ecosystem Forte orientation développement (profil Data Engineer "DEV")
Freelance

Mission freelance
DATA ENGINEER / TECH LEAD

Codezys
Publiée le
Conception
Informatica
Power BI Desktop

12 mois
450-550 €
Toulouse, Occitanie
Contexte de la mission Nous recherchons un(e) chef de projet technique / ingénieur data expérimenté(e), possédant des compétences avérées en SQL, ETL et outils de reporting. La mission concerne le domaine du datawarehouse de cargaison, spécialisé dans le chargement et la transformation de données pour les filiales AF&KL. La personne sélectionnée devra accompagner l’équipe dans la gestion des projets en cours ainsi que dans le développement de nouvelles fonctionnalités, en apportant son expertise pour les corrections et améliorations futures. Le poste s’inscrit au sein d’une équipe composée de huit membres, et la présence à Toulouse est obligatoire. Objectifs et livrables Contribuer à la maintenance et à l’évolution du datawarehouse cargo, en garantissant la qualité et la performance des données. Participer à la conception, au développement et à la mise en œuvre des nouvelles fonctionnalités et corrections. Collaborer étroitement avec l’équipe pour assurer la cohérence et l’efficacité des processus de chargement et de transformation des données. Fournir une documentation claire et précise des livrables réalisés. Conditions particulières Localisation : obligatoire à Toulouse. Veuillez fournir la matrice jointe détaillant les niveaux de compétence pour chaque profil proposé. Nous demandons uniquement la soumission de candidats correspondant strictement aux compétences requises, notamment pour les niveaux 3/4 ou 4/4 dans les compétences clés mentionnées.
Freelance

Mission freelance
Developpeur Data Engineer

Freelance.com
Publiée le
Big Data
Snowflake

3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Freelance
CDI

Offre d'emploi
Data engineer - AWS Informatica (H/F)

CHARLI GROUP
Publiée le
Apache Airflow
Apache Spark
AWS Cloud

2 ans
45k-55k €
500-600 €
Île-de-France, France
Contexte : Dans le cadre d'un programme de transformation DATA, l'objectif est de doter l'entreprise d'outils permettant une exploitation avancée des données pour des prises de décisions optimisées. Ce programme impacte à la fois les technologies utilisées, l'organisation et les processus internes. Les projets en cours sont variés et incluent : L'optimisation des algorithmes de recommandation et segmentation ; Le développement d'un Feature Store pour la gestion des données ; La modernisation des flux financiers et des plateformes de contenu ; La mise en place d'architectures Big Data traitant plus de 100 To de données par jour ; Le partage d'informations clients avec des partenaires stratégiques. Missions Intégré(e) à l'équipe DATA Delivery, vous interviendrez sur l'évolution et la maintenance des socles de données (Usage, VOD, Advertising, CRM...) et leur interconnexion avec divers partenaires. Vous travaillerez sur des architectures de Streaming Data full AWS et des technologies Big Data avancées. Vos responsabilités incluront notamment : La conception et le développement de pipelines de données performants ; Administrer, maintenir et optimiser la plateforme Informatica PowerCenter ( serveurs, repository, workflow, sessions...) Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et SI applicatifs Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python L'implémentation d'architectures de Streaming Data scalables et robustes ; Le développement de traitements de données en temps réel avec Scala, Spark et Terraform ; L'optimisation et la modernisation des flux de données dans un environnement Big Data ; Former et assister les utilisateurs internes ( équipes data, développeurs, MOA ...) La mise en oeuvre de bonnes pratiques en termes de qualité et de gouvernance des données ; La collaboration avec les équipes Data, BI et Infra pour garantir la cohérence et la disponibilité des données. Environnement technique Cloud & Big Data : AWS (Lambda, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB) Développement : Informatica, Scala, Spark, SQL, Terraform, Python CI/CD & Orchestration : GitLab CI/CD, Jenkins Méthodologies : Agile (Scrum, Kanban)
CDI
Freelance

Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT

OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT

3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
Freelance

Mission freelance
Data Engineer Nantes /st

WorldWide People
Publiée le
Python

12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
305 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous