L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 347 résultats.
Offre d'emploi
Data Engineer AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Data Engineer H/F
█ █ █ █ █ █ █
Publiée le
DevOps
Python
SQL
Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer Azure
VISIAN
Publiée le
Azure
Azure Data Factory
Azure Synapse
2 ans
40k-60k €
400-550 €
Paris, France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Azure avec une très bonne maîtrise d'Azure Data Factory et d'Azure Devops pour la CI/CD Nous recherchons un consultant capable de mettre en place les flux d'interface entre SAP Concur et les différentes applications Finance au travers de l'ETL Microsoft Azure Data Factory et d’en assurer le RUN/ CI/CD avec Azure Devops. Il est nécessaire d'avoir une capacité à être force de proposition et travailler en autonomie.
Mission freelance
245891/Data engineer Spark Nantes
WorldWide People
Publiée le
Apache Spark
12 mois
Nantes, Pays de la Loire
Data engineer Spark Nantes La Squad Socles-Data a pour missions : • Le MCO de la plateforme Data Hub actuelle (DH V1). • La co-construction des nouvelles offres Data managées du nouveau Data Hub (DH V2) avec l’IT Groupe : o Prototypes, o Bêta-tests, o Pilotes, o Instanciation, o Homologation…etc. • La définition des normes, bonnes pratiques, guidelines pour simplifier/accélérer les futurs portages applicatifs sur Data-Hub V2. • Gouvernance opérationnelle. • La migration des Uses-Cases existants vers le Data-Hub V2 dans le Cloud privé BNPParibas. • Facilitage de l’usage des services Data. • Assurance du support et l’accompagnement des usagers des socles-Data. • Fournissement de l’expertise. Objectifs et livrables Les tâches sont: Data ingénieur : • Codage et testage des composants logiciels. • Formalisation des cas d’usages. • Conception et mise en œuvre des flux d’intégration de données. • Optimisation de la performance et la qualité logicielle. • Apport du support technique. • Bonne maitrise de l’écosystème Data / Java / SQL / Cloud. • Notions dans d’autres langages de programmation (Python, Scala) et connaître le fonctionnement des bases de données (SQL, NoSQL). Technologie Langage Niveau Starburst (Trino) SQL Moyen Astronomer Airflow Python Moyen Spark 3 Java (Scala selon vos applications) Avancé Cloud (Kubernetes, COS(S3), Vault) Bas DevOps (Gitlab, Jenkins, ArgoCD, Ansible) Go, Yaml Bas Log As a Service (elk) Moyen Java Moyen SQL Moyen Python Moyen Scala (selon vos applications) Moyen Compétences demandées Compétences Niveau de compétence SCALA Confirmé Apache Airflow Confirmé APACHE Confirmé
Offre d'emploi
Data Engineer GCP (H/F)
CELAD
Publiée le
42k-48k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Mission freelance
Data Engineer - IA Gen
VISIAN
Publiée le
FastAPI
IA Générative
Large Language Model (LLM)
1 an
400-550 €
Paris, France
Afin de mener à bien notre mission l’équipe est composée de Data Engineer, de Data Scientist, de développeurs Python et d’un data analyst. L’équipe se veut jeune dynamique, motivée et très pro-active, l’entraide et la bonne ambiance sont présentes. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les softs skills sont donc autant essentielles que la technique : bon communiquant, motivé, force de proposition et sociable. La mission : Un programme visant à traiter l’ensemble des uses cases nécessitant l’utilisation d’IA à destination de la Finance a été lancé. Dans le cadre de notre activité nous avons pour mission d’accompagner la phase de cadrage faite par les Product Owner et d’implémenter des solutions adaptées aux besoins exprimés. Pour se faire nous cherchons à renforcer l’équipe actuelle constituée de développeur Full stack (Python\Angular) de data engineer et de data scientist avec un Data Engineer possédant de bonnes compétences en IA générative. La mission principale du profil retenu sera : Concevoir et développer des solutions de traitement de données complexes Implémenter solutions exploitant des modèles d'IA générative Participer à la mise en place de prompts et de RAG Collaborer étroitement avec les Product owner, les autres membres de l’équipe et d’autres DSI afin garantir l'efficacité et la fiabilité des solutions mises en œuvre. Si vous êtes passionné par les défis liés à la manipulation de données non structurées, que vous maîtrisez le Python et que vous avez une solide expérience en Data Engineering et en Ia générative, nous serions ravis de recevoir votre candidature. L’environnement de travail se veut stimulant, il offre des opportunités d'apprentissage continu et des projets innovants au sein d'une équipe dynamique et passionnée par les technologies émergentes. Durant votre intervention vous serez rattaché au responsable de l’équipe de développements tactiques et vous serez supervisé par un membre de l’équipe maitrisant les outils de data science. Vous serez fréquemment au contact du métier, des équipes innovation et d’autres développeurs.
Offre d'emploi
Data Engineer Senior – DBT
adbi
Publiée le
DBT
1 an
45k-55k €
550-600 €
Île-de-France, France
Data Engineer Senior – Spécialiste DBT 📍 Localisation : Vélizy (3 jours minimum sur site) 🌍 Anglais courant requis Contexte Dans le cadre de la modernisation et de la standardisation des processus de transformation de données au sein du Groupe, nous recherchons un(e) Data Engineer expérimenté(e) spécialisé(e) DBT (data build tool) . Le/la consultant(e) interviendra sur la mise en place et l’industrialisation d’une plateforme DBT, avec pour objectif de garantir des pipelines de données robustes, scalables et alignés avec les meilleures pratiques ELT. Missions principales 🔹 Définition des standards et gouvernance Définir et formaliser les bonnes pratiques DBT (développement, déploiement, RUN). Mettre en place les standards et guidelines en collaboration avec le Tech Lead ELT. Définir les prérequis techniques et templates associés. Participer à la stratégie d’intégration et à la gouvernance des données. Co-définir la stratégie de logging et la gestion des événements. 🔹 Architecture & Stratégie Co-définir l’architecture cible, la stratégie et les patterns ELT avec les experts techniques. Étudier les analyses d’écarts (gap analysis) dans le cadre de migrations vers DBT. 🔹 Conception & Développement Recueillir et analyser les besoins. Évaluer la faisabilité technique et la charge associée. Concevoir les connecteurs et jobs avec le Tech Lead DBT. Développer les jobs DBT. Assurer le déploiement, les tests d’acceptance et la documentation. Réaliser des audits de jobs existants. 🔹 Support & Optimisation Accompagner les projets dans la qualification et la transformation des données. Optimiser et configurer l’outil DBT. Garantir le maintien en conditions opérationnelles optimales. Fournir un support technique avancé. 🔹 Documentation & Communication Rédiger les spécifications techniques. Produire la documentation de développement. Élaborer un guide des bonnes pratiques. Préparer et animer des sessions de formation / transfert de compétences. Participer aux communications (présentations, communauté ELT WW).
Mission freelance
Senior Data Engineer AWS
Celexio
Publiée le
PySpark
Python
Terraform
3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
Mission freelance
Data Engineer Senior / Lead Data
Tenth Revolution Group
Publiée le
AWS Cloud
Collibra
Databricks
6 mois
620-660 €
Paris, France
Dans le cadre d'une mission chez un grand acteur du secteur de l'énergie en France, nous recherchons des profils Data Engineer Senior++ / Lead Data disponibles entre mi-mars et mi-mai 2025. Le client, accompagné par un cabinet de conseil top tier, recherche des consultants capables de s'emparer d'un périmètre data, de le cadrer et de le développer en toute autonomie. Plusieurs positions sont à pourvoir. La maîtrise et l'usage quotidien de l'IA dans le travail est un critère indispensable.
Mission freelance
Senior Data Engineer
Signe +
Publiée le
MySQL
12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Concevoir, développer et maintenir des data pipelines et solutions de data warehouse en environnement cloud Mettre en place et industrialiser les processus ETL / ELT et l’orchestration des pipelines en production Traduire les besoins métiers en solutions techniques data robustes en collaboration avec les équipes transverses Définir et appliquer les standards techniques et bonnes pratiques d’ingénierie data Participer à l’amélioration continue des architectures data et des performances des pipelines Expérience requise 6 à 10 ans d’expérience en Data Engineering Expérience confirmée en implémentation de pipelines data et solutions de data warehousing cloud Expérience en modélisation de données et orchestration de pipelines en environnement production Expérience de travail en équipes cross-fonctionnelles Compétences techniques Maîtrise avancée SQL Plateformes Data Warehouse : Snowflake (préféré) ETL / ELT : IICS ou équivalent Transformation data : dbt (préféré) Python pour traitement de données Cloud : AWS (préféré) Orchestration : Airflow (préféré) CI/CD : GitHub Actions Versioning : Git Infrastructure as Code : Terraform Mise en place de standards d’ingénierie et patterns techniques Soft skills Esprit collaboratif et orientation solution Autonomie et proactivité Communication efficace avec équipes techniques et métiers Formation Bachelor minimum (Master apprécié) en informatique ou domaine équivalent Langue Anglais obligatoire
Mission freelance
DATA ENGINEER DDL ( profil habilitable)
Signe +
Publiée le
Python
12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
Offre d'emploi
Data engineer Qlik / Power BI H/F
VIVERIS
Publiée le
45k-55k €
France
Contexte de la mission : Viveris accompagne un grand groupe du secteur agroalimentaire dans la structuration et la valorisation de ses données, notamment dans le cadre de la migration de ses outils décisionnels de Qlik vers Power BI. Au sein d'un environnement regroupant plus de 3 000 utilisateurs et près de 500 applications, vous intégrerez le pôle Data & Reporting. Votre mission consistera à accompagner le Technical Leader dans la gestion et la transformation des données, avec un rôle clé dans la conduite et la réussite de la transition vers Power BI. Responsabilités : * Garantir la qualité et l'intégrité des données tout au long du cycle de développement ; * Surveiller et gérer les incidents ; * Participer aux revues de code et à la validation des Pull Requests avec les autres Data Engineers ; * Automatiser l'infrastructure data à l'aide de Terraform (Infrastructure as Code) ; * Documenter les architectures, les pipelines et les bonnes pratiques ; * Se tenir informé des tendances technologiques et partager ces connaissances avec l'équipe lors de sessions dédiées.
Mission freelance
[SCH] Expert dbt - Data Engineer ELT - 1353
ISUPPLIER
Publiée le
10 mois
400-450 €
Vélizy-Villacoublay, Île-de-France
Dans le cadre d’une initiative groupe de modernisation et standardisation des transformations de données, le client cherche un Data Engineer expérimenté dbt pour soutenir la mise en place d’une plateforme dbt (industrialisation, bonnes pratiques, pipelines robustes et scalables) dans un contexte international (anglais fluent). Mission : -Définir et déployer les best practices dbt (standards de dev → déploiement) avec le responsable technique ELT. -Contribuer à l’architecture ELT (stratégie, modèle, gouvernance d’intégration des données). -Capturer le besoin : faisabilité technique, estimation de charge, rédaction spécifications techniques. -Concevoir et développer les jobs dbt (connecteurs/implémentation), assurer déploiement, UAT, documentation. -Assurer le support technique : optimisation, configuration, MCO, audits de jobs, amélioration continue. -Piloter l’analyse de gaps et accompagner la migration des solutions existantes vers dbt. -Animer formation / transfert de connaissances et contribuer à la communication (communauté ELT, présentations). -Co-définir stratégie de logging et gestion d’événements. Profil attendu : -Expert dbt capable de définir des standards et d’industrialiser une plateforme (dev, tests, déploiement). -À l’aise pour co-construire une architecture ELT et des modèles de données (gouvernance, conventions). -Capable de faire du support/MCO dbt (optimisation perf, configuration, audit, fiabilisation). -Expérience migration/standardisation à l’échelle groupe (gap analysis, inner source, diffusion bonnes pratiques). -Capable d’estimer, rédiger des spécifications, documenter et former. -Anglais fluent (workshops, formation, communautés internationales).
Offre d'emploi
Data Engineer H/F
HN SERVICES
Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI
45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Data Engineer expérimenté à sénior pour intervenir sur un projet Data pour l’un de nos clients situé à Aix-en-Provence. Contexte et mission : Dans le cadre du renforcement de l’équipe Data, vous serez intégré.e à une squad dédiée à la création d’une infrastructure robuste pour le produit DATA. Vous participerez à la conception et au développement de processus d’ingestion, de transformation et d’exposition des données sur la plateforme Google Cloud Platform (GCP). Vous collaborerez étroitement avec d’autres équipes pour : Mettre en place les jobs d’ingestion et de préparation des données. Développer des pipelines de données performants et maintenables. Exploiter les outils de l’écosystème cloud : Composer, dbt, BigQuery. Contribuer à l’amélioration continue des capacités de livraison du produit DATA. Environnement technique : GCP BigQuery, Linux, Python, SQL, dbt, Composer.
Offre d'emploi
Data Engineer (AWS / Databricks)
Hito
Publiée le
AWS Cloud
Databricks
Python
3 ans
40k-45k €
500-750 €
Tokyo, Japon
Pour le compte d’un de nos clients, nous recherchons un Data Engineer AWS motivé pour s’installer au Japon (Tokyo) afin de participer à la construction d’une nouvelle plateforme data. Missions : Dans le cadre de la mise en place d’un Data Hub, vous interviendrez notamment sur : - La construction de pipelines de données - L’intégration et la consolidation de données provenant de différents systèmes - Le mapping des flux de données entre systèmes sources et systèmes downstream - Le nettoyage et la fiabilisation des données - La mise à disposition des données pour des outils d’analyse et de reporting - Les échanges avec les équipes métier afin de comprendre les besoins data Stack technique - AWS - Databricks - Python - ECS - CI / CD - Outils de dataviz (type Tableau) Profil recherché - Expérience solide en Data Engineering - Très bonne maîtrise AWS - Expérience Databricks - Bonne compréhension des architectures data et pipelines Langues - Japonais requis (JLPT N2 dans l'idéal) pour échanger avec les équipes locales - OU Anglais professionnel/bilingue si tout est validé par le client pour la technique Organisation - Poste basé à Tokyo - Présence sur site 2 jours par semaine
Mission freelance
Data Engineer GCP (H/F)
CELAD
Publiée le
1 an
400-440 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
347 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois