L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 268 résultats.
Mission freelance
Data Engineer
MLMCONSEIL
Publiée le
Dataiku
Python
SQL
6 mois
100-460 €
Rennes, Bretagne
Nous recherchons un Data Engineer confirmé pour industrialiser et optimiser les traitements de données via Dataiku et une architecture AWS (S3, Redshift, Glue, Athena) . Le rôle inclut la collecte via API , la modélisation des données , ainsi que la qualité, sécurité et gouvernance des flux en lien avec les équipes métier. Profil attendu : 5 ans d’expérience minimum , maîtrise SQL/Python , Dataiku, environnement Cloud, anglais professionnel requis.. . ... ... ... ... ... ... ... ... ... ... ... ... ... .. .
Mission freelance
Senior Data Engineer
Signe +
Publiée le
MySQL
12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Concevoir, développer et maintenir des data pipelines et solutions de data warehouse en environnement cloud Mettre en place et industrialiser les processus ETL / ELT et l’orchestration des pipelines en production Traduire les besoins métiers en solutions techniques data robustes en collaboration avec les équipes transverses Définir et appliquer les standards techniques et bonnes pratiques d’ingénierie data Participer à l’amélioration continue des architectures data et des performances des pipelines Expérience requise 6 à 10 ans d’expérience en Data Engineering Expérience confirmée en implémentation de pipelines data et solutions de data warehousing cloud Expérience en modélisation de données et orchestration de pipelines en environnement production Expérience de travail en équipes cross-fonctionnelles Compétences techniques Maîtrise avancée SQL Plateformes Data Warehouse : Snowflake (préféré) ETL / ELT : IICS ou équivalent Transformation data : dbt (préféré) Python pour traitement de données Cloud : AWS (préféré) Orchestration : Airflow (préféré) CI/CD : GitHub Actions Versioning : Git Infrastructure as Code : Terraform Mise en place de standards d’ingénierie et patterns techniques Soft skills Esprit collaboratif et orientation solution Autonomie et proactivité Communication efficace avec équipes techniques et métiers Formation Bachelor minimum (Master apprécié) en informatique ou domaine équivalent Langue Anglais obligatoire
Mission freelance
Business Analyst Data Platform / Databricks Connaissance SAP
TAHYS RECRUITMENT SOLUTIONS
Publiée le
Databricks
SAP FICO
12 mois
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un client basé à Lyon un Freelance Data Engineer / Data Platform Consultant pour intervenir au cœur d’un environnement Data stratégique basé sur Databricks . 🎯 Contexte de la mission Vous jouerez un rôle clé à l’interface entre les métiers (Qualité, Usines, Finance, Opérations…) et la plateforme Data. Votre objectif : faciliter l’exploitation de la donnée en traduisant les enjeux métiers en solutions analytiques concrètes. 🚀 Vos responsabilités ✅ Recueil & traduction des besoins métiers Comprendre les problématiques opérationnelles Transformer les besoins en cas d’usage analytiques ✅ Data Engineering & Gouvernance Identification des sources (SAP ERP, MES Apriso, CRM…) Nettoyage, transformation et structuration des données Garantie de la qualité et de la cohérence Respect des process de gouvernance ✅ Analyse & Valorisation Analyses descriptives, exploratoires, prédictives SQL, Python, R… Identification de leviers d’optimisation ✅ DataViz & Storytelling Création de dashboards (Power BI, Tableau, Qlik…) Restitution claire et orientée décision Construction de véritables “data stories” ✅ Accompagnement à la décision Recommandations opérationnelles Définition & suivi des KPIs Mesure d’impact
Mission freelance
Data Engineer Semarchy ou stambia xDI Full remote ASAP
WorldWide People
Publiée le
Semarchy
6 mois
330-350 €
France
Data Engineer Semarchy ou stambia xDI Full remote ASAP Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDI , SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
Mission freelance
[SCH] Expert dbt - Data Engineer ELT - 1353
ISUPPLIER
Publiée le
10 mois
400-450 €
Vélizy-Villacoublay, Île-de-France
Dans le cadre d’une initiative groupe de modernisation et standardisation des transformations de données, le client cherche un Data Engineer expérimenté dbt pour soutenir la mise en place d’une plateforme dbt (industrialisation, bonnes pratiques, pipelines robustes et scalables) dans un contexte international (anglais fluent). Mission : -Définir et déployer les best practices dbt (standards de dev → déploiement) avec le responsable technique ELT. -Contribuer à l’architecture ELT (stratégie, modèle, gouvernance d’intégration des données). -Capturer le besoin : faisabilité technique, estimation de charge, rédaction spécifications techniques. -Concevoir et développer les jobs dbt (connecteurs/implémentation), assurer déploiement, UAT, documentation. -Assurer le support technique : optimisation, configuration, MCO, audits de jobs, amélioration continue. -Piloter l’analyse de gaps et accompagner la migration des solutions existantes vers dbt. -Animer formation / transfert de connaissances et contribuer à la communication (communauté ELT, présentations). -Co-définir stratégie de logging et gestion d’événements. Profil attendu : -Expert dbt capable de définir des standards et d’industrialiser une plateforme (dev, tests, déploiement). -À l’aise pour co-construire une architecture ELT et des modèles de données (gouvernance, conventions). -Capable de faire du support/MCO dbt (optimisation perf, configuration, audit, fiabilisation). -Expérience migration/standardisation à l’échelle groupe (gap analysis, inner source, diffusion bonnes pratiques). -Capable d’estimer, rédiger des spécifications, documenter et former. -Anglais fluent (workshops, formation, communautés internationales).
Offre d'emploi
Data engineer Azure
UCASE CONSULTING
Publiée le
Azure
Azure Data Factory
Databricks
1 an
50k-55k €
450-500 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon. Pour l'un de nos clients, nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur des environnements cloud Microsoft et participer à la conception de plateformes data modernes et performantes. Missions Concevoir et développer des pipelines de données robustes sur Azure Mettre en place et maintenir les flux via Azure Data Factory Développer et optimiser les traitements de données dans Databricks Participer à la modélisation des données (Data Lake / Data Warehouse) Garantir la qualité, la performance et la fiabilité des données Collaborer avec les équipes métiers et BI pour faciliter l’exploitation des données (notamment via Power BI )
Mission freelance
245891/Data engineer Spark Nantes
WorldWide People
Publiée le
Apache Spark
12 mois
Nantes, Pays de la Loire
Data engineer Spark Nantes La Squad Socles-Data a pour missions : • Le MCO de la plateforme Data Hub actuelle (DH V1). • La co-construction des nouvelles offres Data managées du nouveau Data Hub (DH V2) avec l’IT Groupe : o Prototypes, o Bêta-tests, o Pilotes, o Instanciation, o Homologation…etc. • La définition des normes, bonnes pratiques, guidelines pour simplifier/accélérer les futurs portages applicatifs sur Data-Hub V2. • Gouvernance opérationnelle. • La migration des Uses-Cases existants vers le Data-Hub V2 dans le Cloud privé BNPParibas. • Facilitage de l’usage des services Data. • Assurance du support et l’accompagnement des usagers des socles-Data. • Fournissement de l’expertise. Objectifs et livrables Les tâches sont: Data ingénieur : • Codage et testage des composants logiciels. • Formalisation des cas d’usages. • Conception et mise en œuvre des flux d’intégration de données. • Optimisation de la performance et la qualité logicielle. • Apport du support technique. • Bonne maitrise de l’écosystème Data / Java / SQL / Cloud. • Notions dans d’autres langages de programmation (Python, Scala) et connaître le fonctionnement des bases de données (SQL, NoSQL). Technologie Langage Niveau Starburst (Trino) SQL Moyen Astronomer Airflow Python Moyen Spark 3 Java (Scala selon vos applications) Avancé Cloud (Kubernetes, COS(S3), Vault) Bas DevOps (Gitlab, Jenkins, ArgoCD, Ansible) Go, Yaml Bas Log As a Service (elk) Moyen Java Moyen SQL Moyen Python Moyen Scala (selon vos applications) Moyen Compétences demandées Compétences Niveau de compétence SCALA Confirmé Apache Airflow Confirmé APACHE Confirmé
Offre d'emploi
Data Engineer Senior – DBT
adbi
Publiée le
DBT
1 an
45k-55k €
550-600 €
Île-de-France, France
Data Engineer Senior – Spécialiste DBT 📍 Localisation : Vélizy (3 jours minimum sur site) 🌍 Anglais courant requis Contexte Dans le cadre de la modernisation et de la standardisation des processus de transformation de données au sein du Groupe, nous recherchons un(e) Data Engineer expérimenté(e) spécialisé(e) DBT (data build tool) . Le/la consultant(e) interviendra sur la mise en place et l’industrialisation d’une plateforme DBT, avec pour objectif de garantir des pipelines de données robustes, scalables et alignés avec les meilleures pratiques ELT. Missions principales 🔹 Définition des standards et gouvernance Définir et formaliser les bonnes pratiques DBT (développement, déploiement, RUN). Mettre en place les standards et guidelines en collaboration avec le Tech Lead ELT. Définir les prérequis techniques et templates associés. Participer à la stratégie d’intégration et à la gouvernance des données. Co-définir la stratégie de logging et la gestion des événements. 🔹 Architecture & Stratégie Co-définir l’architecture cible, la stratégie et les patterns ELT avec les experts techniques. Étudier les analyses d’écarts (gap analysis) dans le cadre de migrations vers DBT. 🔹 Conception & Développement Recueillir et analyser les besoins. Évaluer la faisabilité technique et la charge associée. Concevoir les connecteurs et jobs avec le Tech Lead DBT. Développer les jobs DBT. Assurer le déploiement, les tests d’acceptance et la documentation. Réaliser des audits de jobs existants. 🔹 Support & Optimisation Accompagner les projets dans la qualification et la transformation des données. Optimiser et configurer l’outil DBT. Garantir le maintien en conditions opérationnelles optimales. Fournir un support technique avancé. 🔹 Documentation & Communication Rédiger les spécifications techniques. Produire la documentation de développement. Élaborer un guide des bonnes pratiques. Préparer et animer des sessions de formation / transfert de compétences. Participer aux communications (présentations, communauté ELT WW).
Mission freelance
Data Engineer - IA (Bordeaux)
Cherry Pick
Publiée le
Agent IA
Apache Kafka
DBT
12 mois
390-400 €
Bordeaux, Nouvelle-Aquitaine
Intégré à la DSI au sein de l’équipe Data Tech Knowledge de la direction IT DATA de notre client à Bordeaux , le Data Engineer participera à des projets autour de l’IA et de la data. La mission consiste à : Effectuer des alimentations de données . Collaborer avec un Data Analyst sur des projets IA/Data. Développer et travailler autour d’ agents IA pour le requetage SQL en langage naturel . Mettre à disposition des outils d’aide au développement et au monitoring . Assurer une veille technologique sur les architectures data et outils associés. Stack Technique : Langages : Python, SQL Bases de données : Snowflake, SQL Server, PostgreSQL DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend Data Visualisation : PowerBI
Offre d'emploi
Data Engineer Azure
VISIAN
Publiée le
Azure
Azure Data Factory
Azure Synapse
2 ans
40k-60k €
400-550 €
Paris, France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Azure avec une très bonne maîtrise d'Azure Data Factory et d'Azure Devops pour la CI/CD Nous recherchons un consultant capable de mettre en place les flux d'interface entre SAP Concur et les différentes applications Finance au travers de l'ETL Microsoft Azure Data Factory et d’en assurer le RUN/ CI/CD avec Azure Devops. Il est nécessaire d'avoir une capacité à être force de proposition et travailler en autonomie.
Mission freelance
Data Engineer – Scala / Spark - Solution digitale - Paris (H/F)
EASY PARTNER
Publiée le
Apache Airflow
Apache Kafka
Apache Spark
1 an
400-500 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes data, un acteur du secteur digital recherche un Data Engineer pour intervenir sur des problématiques de traitement et d’exploitation de données à grande échelle. Missions Concevoir et maintenir des pipelines de données (batch & streaming) Gérer l’ingestion, la transformation et la qualité des données Développer sur des environnements Big Data (Spark, Kafka) Mettre en place et optimiser les workflows (Airflow) Participer à l’industrialisation des traitements (CI/CD) Collaborer avec les équipes Data, DevOps et métiers Stack technique • Scala / Python / SQL avancé Spark / PySpark, Kafka Airflow (ETL / orchestration) Cloud : Azure et/ou AWS Git, CI/CD
Mission freelance
Data Engineer Confirmé – Environnement industriel (H/F)
Pickmeup
Publiée le
Dataiku
Numpy
Pandas
2 ans
350-370 €
Saint-Paul-Trois-Châteaux, Auvergne-Rhône-Alpes
Missions principalesConception et architecture des solutions data Concevoir et développer des pipelines de données robustes pour des environnements industriels. Cartographier et documenter les sources de données . Concevoir des solutions permettant le traitement de volumes importants de données . Définir la structure des bases de données et des métadonnées . Participer à la mise en place et à l’évolution d’un Data Lake . Intégration et gestion des données Collecter et intégrer des données provenant de sources multiples (applications, capteurs industriels, systèmes externes) . Garantir la qualité, la sécurité et la fiabilité des données . Mettre en place des mécanismes de contrôle, nettoyage et validation des données . Assurer la supervision et la maintenance des pipelines de données en production. Collaboration et animation Collaborer avec les équipes métier et IT afin de comprendre les besoins en données. Participer à l’animation de la communauté technique autour des sujets data . Contribuer à la veille technologique sur les solutions data et proposer des améliorations. Livrables attendus Dossier de spécification et d’architecture des solutions data mises en œuvre. Catalogues et cartographie des données . Mise en place d’un Data Lake adapté aux besoins métier . Documentation et outils permettant de garantir la qualité des données .
Mission freelance
DATA ENGINEER DDL ( profil habilitable)
Signe +
Publiée le
Python
12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
Offre d'emploi
Data Engineer (H/F)
AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API
3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
Mission freelance
Data Engineer Niort Buisness Object,Optimisation SQL, TABLEAU,DATAIKU
WorldWide People
Publiée le
Business Object
12 mois
400-460 €
Niort, Nouvelle-Aquitaine
Data Engineer Niort Buisness Object,Optimisation SQL, TABLEAU,DATAIKU La mission consiste à contribuer à la structuration, l’industrialisation et la valorisation de la donnée au sein d’une équipe dédiée, afin de soutenir une transformation data ambitieuse et d’améliorer de manière continue la fiabilité et la performance des traitements. Elle vise à concevoir, organiser et optimiser les flux de données, en garantissant que chaque chaîne d’alimentation et chaque modèle produit s’inscrivent dans une démarche cohérente, durable et alignée avec les besoins métiers. Le rôle repose sur la capacité à bâtir des pipelines robustes et industrialisés, à modéliser des structures de données adaptées, et à assurer une qualité irréprochable sur l’ensemble du cycle de vie de la donnée. Une attention particulière est portée à la standardisation des pratiques, à la réduction de la dette technique et à la bonne intégration des données dans les outils d’analyse et de visualisation. La mission implique également de challenger les solutions existantes, d’identifier des axes d’optimisation et de proposer des architectures ou processus plus performants, notamment en matière d’automatisation et de gouvernance. Elle s’inscrit dans un objectif global d’amélioration continue : sécuriser les traitements, fiabiliser les décisions métier, fluidifier les interactions entre les équipes impliquées et transformer les contraintes opérationnelles en leviers de performance durable.
Mission freelance
Data engineer H/F
HAYS France
Publiée le
6 mois
450-500 €
Luxembourg
Responsabilités clés : Le département Risk a décidé de refondre ses outils de reporting réglementaire et interne pour l'ensemble du Groupe. La solution cible reposera sur la collecte des sources de données via notre Microsoft Data Platform, ainsi que sur la transformation des données et la production d'une grande partie du reporting Risques du Groupe à l'aide de l'outil WKFS RiskPro et, pour une liste limitée de rapports, via Risk EUC et des rapports / tableaux de bord Power BI. Responsabilités : Développement de pipelines dans Azure Synapse Analytics pour l'ingestion de données Implémentation des règles de transformation dans la Microsoft Data Platform du Groupe Réalisation des tests techniques unitaires Support à la phase UAT (corrections d'anomalies / demandes d'évolution) Déploiement des développements
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
268 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois