Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 306 résultats.
Mission freelance
AI Data engineer H/F
HAYS France
Publiée le
12 mois
500-700 €
Luxembourg
Responsabilités clés : 1. Ingénierie des données et Développement de produits IA Concevoir, construire et maintenir des pipelines de données robustes ainsi que des produits de données pour les cas d'usage en analytique et en intelligence artificielle. Développer et optimiser des architectures hybrides (sur site / cloud). Mettre en œuvre l'automatisation CI/CD, des frameworks de tests et des processus de livraison industrialisés. 2. Analytique avancée & Machine Learning Développer, déployer et superviser des modèles de machine learning (fraude, performance commerciale, AML/KYC, compréhension de documents). Réaliser des expérimentations, du prototypage et des évaluations à l'aide de métriques structurées. Traduire des articles de recherche en solutions prêtes pour la production. Assurer la supervision technique et la relecture de code pour les contributeurs juniors. 3. Ingénierie IA & LLM Construire des composants pour l'OCR, la classification de documents, l'extraction d'informations et la génération augmentée par la recherche (RAG). Concevoir des modèles de prompts, des jeux de données d'évaluation et des flux d'interaction avec les LLM. Intégrer Snowflake Cortex, Dataiku LLM Mesh et des technologies équivalentes dans les processus bancaires. 4. Architecture, Intégration & MLOps Intégrer des modèles d'IA dans les processus métiers via des API, des microservices et des couches d'orchestration. Garantir des implémentations sécurisées et de niveau production en collaboration avec les équipes d'ingénierie. Gérer le versioning, la supervision, la traçabilité et la conformité aux règles de gouvernance de l'IA. 5. Engagement des parties prenantes & Gouvernance Produire la documentation des modèles, les supports de validation et des présentations adaptées aux comités. Communiquer les résultats et les analyses aux parties prenantes techniques et non techniques. Accompagner les lignes métiers, la conformité et les fonctions de gestion des risques pour assurer une adoption sécurisée de l'IA.
Mission freelance
Data Engineer Senior F/H
SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake
12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
Mission freelance
Data Engineer
Signe +
Publiée le
Database
ETL (Extract-transform-load)
SQL
2 ans
400-500 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients un Data Engineer. Contexte : Renforcement de l’équipe Data pour industrialiser et faire évoluer les environnements BI/ETL/Cloud (GCP BigQuery, Teradata, Informatica/IDMC, BO, Power BI) et soutenir les activités de delivery et de transformation. Mission & objectifs Concevoir, développer et industrialiser des pipelines de données robustes (batch/ELT). Garantir la qualité, la sécurité et la gouvernance des données (IAM, rôles, permissions). Moderniser les assets BI et modèles sémantiques (Power BI, Business Objects). Contribuer à l’ automatisation et à l’ infrastructure as code (Terraform). Accompagner les équipes Métiers/Tech dans l’usage des plateformes data (BigQuery, Teradata, Unix/Linux). Participer à la documentation et à la montée en compétence de l’équipe.
Offre d'emploi
Data Engineer
█ █ █ █ █ █ █
Publiée le
Big Data
CI/CD
DevOps
Meulan-en-Yvelines, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Engineer - Vannes
VISIAN
Publiée le
Apache Kafka
Apache Spark
Scala
3 ans
450-500 €
Vannes, Bretagne
Localisation : Bretagne Présence sur site minimum 3 jours par semaine Candidatures locales privilégiées Contexte Au sein d’un Chapitre Data intervenant en transverse dans l’entreprise, vous contribuez à la fabrication des cas d’usage Data portés par différentes Squads métiers. Vous évoluez dans un environnement collaboratif avec des interlocuteurs variés et participez activement aux échanges avec les membres du Chapitre présents sur d’autres sites en France. Missions Participer à la définition de l’architecture Data avec les architectes et les Squads Concevoir et développer des solutions de collecte, transformation et stockage de données issues de multiples sources Développer des pipelines Spark batch et Spark Streaming Mettre en place les tests unitaires et automatisés Déployer les solutions dans les différents environnements Assurer le suivi en production et la gestion des incidents Être force de proposition et contribuer à l’amélioration continue Environnement technique Spark (batch et streaming) indispensable SQL indispensable Scala apprécié Kafka apprécié Java et Shell appréciés Stack Hadoop Cloudera HDFS, Hive, HBase, Phoenix, MongoDB Git, Jenkins, Artifactory, XL Release ELK, Grafana Méthodologie Scrum Connaissances appréciées Outils de data visualisation tels que MicroStrategy, Power BI ou Tableau Profil recherché Expérience confirmée en Data Engineering Big Data Solide maîtrise de Spark dans un environnement Hadoop / Cloudera Capacité à évoluer en contexte transverse Soft skills attendues Autonomie Adaptabilité Bonne communication Capacité à challenger les besoins Prise de lead et force de proposition
Offre d'emploi
Tech Lead Data Engineer H/F
JEMS
Publiée le
50k-75k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : 5nko8xh5pb
Offre d'emploi
DATA ENGINEER GCP
UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL
6 mois
40k-71k €
400-630 €
Paris, France
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
Mission freelance
Data Engineer / Développeur Python Cloud
Intuition IT Solutions Ltd.
Publiée le
Python
6 mois
Toulouse, Occitanie
Mission Assurer le maintien en conditions opérationnelles des applications existantes, qu’il s’agisse de prototypes ou de solutions déjà déployées en production, en garantissant leur stabilité, performance et disponibilité. Concevoir, développer et faire évoluer des solutions de traitement de données couvrant l’ensemble de la chaîne : collecte, transformation, stockage, agrégation et restitution. Participer à la définition des besoins techniques, à la rédaction des spécifications et à la conception des architectures applicatives et data. Développer et maintenir des services, APIs et outils internes en Python, dans un environnement cloud AWS industrialisé. Mettre en place, optimiser et superviser des pipelines data fiables et robustes, en veillant à la qualité, l’intégrité et la traçabilité des données. Intervenir en support technique avancé pour analyser, diagnostiquer et résoudre les incidents ou anomalies applicatives et data. Accompagner les équipes lors des déploiements et assurer l’assistance aux utilisateurs internes. Rédiger et maintenir la documentation technique (spécifications, procédures, scripts, guides d’exploitation). Participer aux rituels Agile, au suivi des tickets, au reporting d’avancement et à l’amélioration continue des processus et outils. Garantir le respect des standards techniques, de sécurité, de qualité et de conformité propres à l’environnement industriel du client.
Offre d'emploi
Data Engineer DBT
UCASE CONSULTING
Publiée le
Azure
Databricks
DBT
40k-60k €
Île-de-France, France
En tant que Data Engineer , vous intervenez sur la conception, le déploiement et l’optimisation de plateformes data basées sur Azure et Snowflake . Concevoir, développer et optimiser des pipelines de données sur Azure et Snowflake Orchestrer les flux de données avec Azure Data Factory et dbt (Python / Snowpark) Intégrer et exploiter des API pour l’ingestion et la transformation des données Participer au déploiement et à la gestion de l’ infrastructure as code (Terraform) Mettre en œuvre et maintenir les pratiques CI/CD via Azure DevOps Automatiser les traitements et tâches récurrentes (PowerShell, Azure CLI) Modéliser les données (3NF, modèle en étoile) et contribuer aux architectures data (DWH, Data Lake, architecture médaillée) Assurer la qualité, la performance et la sécurité des données (gouvernance, RGPD, data lineage) Suivre et optimiser les performances et les coûts des plateformes data Documenter les solutions et collaborer étroitement avec les équipes métiers et techniques
Mission freelance
Data Engineer H/F
OUICODING
Publiée le
1 mois
420-580 €
Paris, Île-de-France
Mission : Concevoir, développer et opérer des pipelines data fiables et scalables, contribuer à l'industrialisation de la plateforme (standards, outillage, observabilité), et accompagner les équipes métiers et IT dans la mise en production et l'adoption. Responsabilités principales : -Ingestion & intégration : ingestion multi-sources (API, fichiers, bases de données), batch et/ou quasi temps-réel, gestion des erreurs et reprises. -Modélisation & transformations : implémentation des transformations (SQL et Python), optimisation des traitements, structuration des données (zones/étapes de transformation). -Industrialisation & CI/CD : contribution aux pipelines CI/CD (Azure DevOps/Git), packaging, déploiements, gestion des environnements. -Qualité, performance, observabilité : tests, contrôles de qualité, monitoring, alerting, analyse des incidents, amélioration continue. -Documentation & standards : documentation technique, bonnes pratiques de développement, revues de code, support à la montée en compétence. Stack / environnement (indicatif) : Azure (services data & automatisation), Snowflake, SQL, Python (dont Snowpark le cas échéant), Git, CI/CD, supervision (logs/metrics), outils de dataviz type Power BI en interface. CDC Prestation Data PDA 3 ETP v...
Offre premium
Offre d'emploi
Data Engineer Python / Azure / Ops
VISIAN
Publiée le
Azure
Azure Data Factory
Python
2 ans
Paris, France
La DSI du client recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l'exploitation des données par les analystes métiers et data scientists. A ce titre, vos principales missions consisteront à : Mener les projets d'intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, domain managers, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d'optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d'optimiser les architectures Contribuer à l'amélioration de la gouvernance sur la protection et la confidentialité des données. Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l'entreprise.
Mission freelance
Data Engineer Snowflake - Lyon
Net technologie
Publiée le
Snowflake
3 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de la migration de BW vers Snowflake, les deux profils seront en charge de la migration des données SAP & BW vers Snowflake au sein d’une équipe d’une dizaine de personnes pour notre client. Tâches à réaliser : Concevoir et développer les pipelines d’ingestion et de transformation des données depuis SAP et BW vers la plateforme Snowflake. · Assurer la qualité, la cohérence et la sécurité des données tout au long du processus de migration. · Collaborer étroitement avec les équipes fonctionnelles et techniques pour comprendre les besoins métiers et adapter les solutions data. · Optimiser les performances des flux de données et veillez à leur scalabilité dans l’environnement Snowflake. · Participer à la documentation technique et à la mise en place des bonnes pratiques autour des données. · Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration.
Mission freelance
Lead Data Engineer
Celexio
Publiée le
PySpark
Python
Terraform
3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
Mission freelance
React Native Data Engineer
Cherry Pick
Publiée le
Databricks
React Native
12 mois
400-470 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Développeur React Native - Data Engineer" pour un client dans le secteur de la grande distribution. Description 📱 Le Contexte : Un Rôle Pivot Mobile & Data Nous recherchons un profil atypique et polyvalent pour intervenir sur une plateforme technologique alliant une interface utilisateur mobile exigeante et une architecture de données robuste sous Azure. Votre mission principale sera d'assurer la maintenance évolutive et corrective d'une application mobile développée en React Native . En complément, et selon la charge du front-end, vous interviendrez sur la partie Data Engineering pour optimiser les pipelines et les notebooks au sein de l'environnement Azure Databricks . 🎯 Vos Missions : Du Pixel à la Donnée 1. Développement Mobile (Majeure) : Assurer la maintenance corrective (bugs) et évolutive (nouvelles features) de l'application React Native. Analyser les opportunités et la faisabilité technologique des nouvelles fonctionnalités. Réaliser le prototypage, le développement des composants et les revues de code croisées. Garantir l'industrialisation des composants et la documentation pour la mise en production (MEP). 2. Data Engineering (Mineure / Support) : Intervenir sur les traitements back/data en environnement Azure . Développer et maintenir des pipelines de données et des notebooks sous Databricks . Optimiser les traitements via Spark et requêtage SQL complexe. Participer à la structuration et au maintien des bases de données liées à l'application. 3. Qualité & Exploitation : Élaborer les jeux d'essais et réaliser les tests unitaires et d'intégration. Analyser les résultats, traiter les dysfonctionnements et rédiger les rapports de tests. Participer à la résolution des incidents de production et mettre à jour les dossiers d'exploitation.
Offre d'emploi
Data Engineer (Paris ou Lyon)
TEOLIA CONSULTING
Publiée le
BI
Data Lake
Master Data Management (MDM)
12 mois
40k-45k €
400-470 €
Paris, France
Nous recherchons pour l'un de nos clients un(e) Data Engineer pour renforcer une squad Data dédiée à la mise en place d’un socle de Master Data Management (MDM) . L’objectif du projet est de centraliser, fiabiliser et gouverner les données liées aux instruments financiers , dans un environnement exigeant en matière de qualité, traçabilité et sécurité. Missions : Intégré(e) à une équipe pluridisciplinaire (Data Engineers, Architecte, BA, PO), vous interviendrez sur : La conception et le développement de pipelines de données (modèle Bronze / Silver / Gold) L’ingestion et l’orchestration des flux via Apache NiFi L’intégration de données multi-sources (CSV, XML, API REST) La modélisation des données et la construction de vues consolidées MDM La mise en place de contrôles de qualité et de traçabilité (logs, audit, complétude, cohérence, versioning) L’optimisation des performances des pipelines Le respect des standards de sécurité et conformité La documentation et le partage de bonnes pratiques au sein de la squad Environnement technique Apache NiFi SQL / NoSQL PostgreSQL Stockage objet : S3 / Blob Formats & protocoles : JSON, XML, CSV, API REST Scripting : Python , Bash CI/CD : GitLab, GitLab CI
Offre d'emploi
Data Engineer / BI (H/F)
HAYS France
Publiée le
Master Data Management (MDM)
Microsoft SQL Server
Microsoft SSIS
46k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons pour notre client un Data Engineer / BI (H/F) Contexte : Consolidation de l’environnement existant, Projets, Axes de développement sur moyen et long terme. · Vous intégrez une équipe à taille humaine. · Véritable bras droit du manager, vous êtes amené à superviser l’équipe, gérant les priorités ainsi que les escalades. · Ce qui vous attend ? Du support opérationnel, de la Qualité & Conformité, du Reporting ainsi qu’une participation active dans l’Amélioration continue. Responsabilités principales : Modélisation de données, ETL, Data gouvernance… La mission consiste à garantir la continuité, la fiabilité et la conformité des activités Data & Business Intelligence, tout en pilotant les projets d’intégration, de reporting et d’optimisation au service des décisions stratégiques de l’entreprise. · Support opérationnel — Assurer le suivi des projets Data (ETL, data warehouse, dashboards) et veiller à la disponibilité des services BI. · Qualité et conformité — Maintenir les standards de qualité des données et garantir le respect des règles de sécurité et de conformité. · Reporting — Produire, contrôler et diffuser les KPI, tableaux de bord et analyses destinés aux directions métiers. · Amélioration continue — Identifier et mettre en avant les pistes d’optimisation des processus Data et BI. · Communication — Assurer le rôle d’interlocuteur privilégié auprès des parties prenantes internes et externes. · Coordination — Encadrer l’équipe Data en l’absence du manager, organiser les priorités et gérer les escalades. Environnement technique : Microsoft SQL Server, SQL, ETL, MS BI (SSIS, SSAS, SSRS), PowerBI, Data Modeling, Master Data Management (MDM), Cloud privé.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
306 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois