Trouvez votre prochaine mission ou futur job IT.
Mission freelance
Data Engineer azure (SQL / ADF /Power BI)
Au sein d’un Centre de Compétences Data, le Data Engineer participe à des projets de transformation digitale. Il conçoit, développe et déploie des solutions Data et BI pour permettre aux utilisateurs métiers de suivre et analyser leurs activités. Il met en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts), développe des pipelines ETL/ELT automatisés avec Azure Data Factory et SSIS, assure la qualité, la sécurité et la performance des données, et collabore avec les équipes DevOps, Product et Data pour garantir la cohérence technique et fonctionnelle des solutions. Compétences attendues : Langages : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Outils : GitLab, Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning
Mission freelance
Data LLM Engineer
Dans le cadre de projets innovants autour de l’Intelligence Artificielle et plus particulièrement des Large Language Models (LLM) , nous recherchons un Data LLM Engineer pour rejoindre une équipe spécialisée dans la mise en place de solutions IA génératives. Missions Concevoir, développer et optimiser des pipelines de données adaptés à l’entraînement et au fine-tuning de modèles LLM. Participer à la préparation, la structuration et l’étiquetage de jeux de données massifs et hétérogènes. Intégrer et déployer des modèles de langage dans des environnements de production. Mettre en place des mécanismes d’évaluation, monitoring et amélioration continue des performances des modèles (metrics, hallucinations, biais, robustesse). Collaborer étroitement avec les Data Scientists, MLOps et Software Engineers pour industrialiser les solutions IA. Assurer une veille technologique sur les dernières avancées en NLP, LLM et IA générative.
Offre d'emploi
Data Engineer GEN IA
Expertise technique GenAI • Développer les briques techniques nécessaires à l’exécution des agents GenIA (API, orchestrateurs, connecteurs, sécurité, monitoring, vectorisation…). • Garantir la robustesse, la scalabilité et la maintenabilité des composants sur Databricks. • Déployer les composants techniques en collaboration avec l’équipe Plateforme. Conception et développement d’agents GenIA • Participer à la définition fonctionnelle des agents avec le tech lead et l’architecte en lien avec le Product Owners et les métiers. • Développer les agents en intégrant les modèles IA via des frameworks comme LangChain. • Tester, valider et optimiser les performances des agents. Travail en équipe projet dans une Squad • Travailler sous l’animation d’un Scrum Master, en collaboration avec un Tech Lead et un Architecte. • Participer aux rituels agiles (daily, sprint planning, review, rétrospective). • Être force de proposition sur les choix techniques et les bonnes pratiques de développement.
Offre d'emploi
Technico-Fonctionnel Full Stack / Data engineer (Snowflake) / Audit & Estimation Description
Contexte & Objectif Dans le cadre d’un projet Data déjà développé, le client souhaite faire appel à un expert capable de réaliser un audit technique et fonctionnel. En tant que Technico-Fonctionnel Full Stack / Data engineer (Snowflake) / Audit & Estimation vos principales missions seront les suivantes : Réaliser un audit complet d’un projet existant. Vérifier la compatibilité technique avec Snowflake et les environnements associés. Analyser et traduire le code back/front . Produire des recommandations concrètes : faisabilité, coûts, charge, risques. Intervenir en interface technico-fonctionnelle entre équipes techniques et métiers.
Offre d'emploi
Data Engineer (h/f)
Résumé : Ce poste de Data Engineer a pour but principal d'analyser les besoins métiers afin de créer des indicateurs clés de performance (KPI) et de les visualiser à l'aide de Power BI. Responsabilités : Vous serez chargé de traduire les besoins métiers en solutions techniques et de garantir la qualité des données. Les principales responsabilités comprennent : Traduire les besoins métiers Rédiger les spécifications techniques à partir des besoins d'affaires Récupérer les données via des tickets Transformer les données sur Talend Faciliter et mettre en place les KPI Créer des dashboards complexes et appliquer des filtres sur Power BI Comprendre les cubes Azure Must Haves : Les compétences et qualifications suivantes sont obligatoires : Expérience avec Power BI Compétences en Talend Connaissance des cubes Azure Expérience en rédaction de spécifications techniques Nice to Have : Les compétences complémentaires qui seront un plus : Expérience en data engineering dans le domaine d'activité spécifique Connaissance des méthodologies Agile Compétence en data visualization Autres Détails : * Lieu : 75 * Prestation : temps plein hybride (3 jours sur site, 2 jours télétravail, modulables) * Démarrage : ASAP * Durée : 03 à 36 mois
Mission freelance
Data Engineer confirmé (F/H) – Nantes (3jours par semaine sur site)
Dans le cadre du renfort d’une équipe Data au sein d’un grand acteur du secteur public, nous recherchons un·e Data Engineer expérimenté·e pour assurer la continuité d’activité sur des projets stratégiques de valorisation de données clients et opérationnelles. La mission s’inscrit dans un contexte de consolidation des données, de mise à disposition d’indicateurs métiers, et d’industrialisation des traitements au sein d’une plateforme Data de grande ampleur. Localisation : Nantes (présence sur site 3 jours / semaine) Démarrage : ASAP Durée : Mission longue Expérience requise : 4 ans minimum 🎯 Vos principales missions : Participer à la compréhension des besoins métiers et des enjeux Data Définir le périmètre de données nécessaire à chaque projet Concevoir et optimiser les modèles de données et pipelines (Python / PySpark) Créer les tables et vues nécessaires aux différents cas d’usage Industrialiser les traitements en lien avec les équipes Ops Data Assurer un rôle de référent technique au sein de l’équipe Accompagner les travaux liés à la migration de plateforme
Offre d'emploi
Data Engineer Talend - DAX
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
Mission freelance
Mission Freelance – Data Engineer AWS (H/F)
🧠 Vos missions Concevoir, construire et maintenir l’infrastructure AWS dédiée aux traitements Data & IA. Développer des pipelines de données robustes et scalables, orientés médias. Industrialiser les cas d’usage métiers en lien étroit avec les équipes Data Science. Garantir la qualité, la fiabilité et la performance des données et des traitements. Contribuer à la documentation technique et au suivi de l’activité. Collaborer avec les équipes métiers pour recueillir les besoins et proposer des améliorations. 🛠️ Environnement technique Cloud & Infra as Code : AWS (IAM, S3, Lambda, Secret Manager, VPC), Terraform, Ansible, GitOps. Conteneurisation : Docker, Kubernetes, Helm. Langage principal : Python (POO, design patterns, tests). CI/CD : GitFlow, pipelines de déploiement. Bases de données : SQL et Graph. Outils projet : JIRA, méthodes Agile.
Mission freelance
Data Engineer - Azure
Missions principales : Contribuer à l’évolution de l’offre de service de la plateforme Big Data & ML. Définir et maintenir le cadre de référence des principes d’architecture. Accompagner les développeurs dans l’appropriation de ce cadre. Définir les solutions d’exposition, de consommation et d’export des données métiers. Accompagner les équipes dans la mise en œuvre des solutions proposées. Participer à la mise en place d’API LLM dans le cadre du socle LLMOPS. Expertise technique attendue : Architecture & Cloud Azure Définition d’architectures cloud et Big Data distribuées. Automatisation des ressources Azure via Terraform et PowerShell. Connaissance avancée d’Azure Databricks, Azure Data Lake Storage, Azure Data Factory. Administration réseau : vNet Spoke, Subnets Databricks. Sécurité : RBAC, ACLs. Data & IA Platform Maîtrise de la chaîne d’ingestion de données : pipelines ADF (Collecte, Routage, Préparation, Refine…). Études d’architecture en lien avec l’évolution de la plateforme. Administration ADF : Link Services, Integration Runtime. Administration Databricks : Tokens, Debug, Clusters, Points de montage. Administration Azure Machine Learning : Datastores, accès, debug. CI/CD & DevOps Configuration Azure DevOps : droits, connexions de service. Développement de pipelines CI/CD avec Azure Pipelines. Gestion des artefacts avec Azure Artifact et Nexus. Automatisation des déploiements. Pratiques FinOps et optimisation des coûts cloud. Agilité & Delivery Utilisation de Jira : création d’US/MMF, configuration de filtres, Kanban. Participation active aux cérémonies Agile : Sprint, Revue, Démo. Développement & Collaboration Développement Python : modules socle, code optimisé, tests unitaires. Développement PowerShell : déploiement de ressources Azure. Maîtrise de Git : push, pull, rebase, stash, gestion des branches. Pratiques de développement : qualité, tests unitaires, documentation.
Mission freelance
Data Engineer Expert - Finance - Assurance)
Data Engineer Expert pour la Modernisation du Système Finance (Assurance) Nous recherchons un Data Engineer Expert pour le compte d’un de nos clients assurance dans le cadre d’un projet de modernisation, de standardisation et d'harmonisation de son système Finance. Contexte Notre client, un acteur majeur du secteur de l' assurance , est engagé dans un projet stratégique visant à transformer son système d'information Finance. Ce programme a pour objectif la modernisation, la standardisation et l'harmonisation des processus et des outils Finance. Dans ce cadre, nous recherchons un profil de Data Engineer Expert pour jouer un rôle clé dans l'ingénierie des données de ce nouveau système. Rôles et Responsabilités Le consultant Data Engineer aura pour principales responsabilités : Concevoir et mettre en œuvre des solutions d'ingénierie des données pour le nouveau système Finance. Participer activement à la modernisation et à la standardisation des flux de données Finance. Assurer l'intégration, le traitement et la qualité des données provenant de diverses sources. Travailler en étroite collaboration avec les équipes métier Finance et les architectes pour garantir l'harmonisation des données. Compétences Clés & Techniques Une expertise de niveau Expert est exigée sur les points suivants : Expertise Technique : Maîtrise des technologies de Big Data et des environnements Cloud. Langages et Frameworks : JAVA (WEB), Spark, Angular, COBOL. Systèmes et Outils : MAINFRAME, VTOM. Visualisation et Reporting : Compétences sur Power BI. Domaine d'Application : Une connaissance approfondie du secteur Finance (idéalement en assurance ou banque) est un atout majeur. Anglais : Capacité à travailler dans un environnement technique et potentiellement international. Détails de la Mission Profil Recherché : Data Engineer Niveau d'Expérience : Expert Localisation : Paris Date de Démarrage : ASAP Durée : 12 mois. Taux Journalier Cible (TJM) : <950€.
Mission freelance
Data Engineer F/H - LILLE
Notre client, acteur majeur du secteur du Retail, renforce son équipe Data afin de soutenir sa stratégie de digitalisation et d’optimisation de l’expérience client. Dans ce cadre, nous recherchons un(e) Data Engineer passionné(e) par la donnée et désireux(se) d’évoluer dans un environnement stimulant et innovant. Missions principales : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour collecter, transformer et valoriser les données issues de différentes sources (e-commerce, magasins, CRM, supply chain, etc.). Assurer la qualité, la fiabilité et la disponibilité des données pour les équipes métiers, Data Science et BI. Participer à la mise en place d’architectures Big Data et Cloud modernes (Data Lake, Data Warehouse). Contribuer à l’optimisation des performances des traitements de données. Collaborer avec les équipes Data Analysts, Data Scientists et métiers afin de répondre aux besoins business (optimisation de l’expérience client, prévisions de ventes, gestion des stocks…). Mettre en place des bonnes pratiques de développement, de documentation et de monitoring. Environnement technique • Cloud & Data : GCP (BigQuery, Dataform) • Orchestration : Cloud Composer • Transformation : Dataform • Observabilité : Dynatrace • Référentiel & CI/CD : GitLab, Terraform, Cloud Build • Gouvernance & Qualité : DataGalaxy • Documentation & Pilotage : Confluence, JIRA (Scrum)
Offre d'emploi
Data Engineer - SQL Server/ SSIS – Environnement Agile
Dans le cadre de l’évolution d’une plateforme de gestion et de préparation de données sous SQL Server, nous recherchons un profil data Engineer capable de prendre en charge les demandes et incidents, d’accompagner les équipes au quotidien et de contribuer à la fiabilisation des traitements de données. 🧩 Tâches principales Assurer la réception, qualification et suivi des tickets (incidents fonctionnels et techniques) dans un environnement Agile. Prendre en charge la résolution d’incidents de premier niveau (SQL, habilitations, accès, erreurs simples de traitements). Escalader et documenter les incidents complexes vers les équipes de développement ou d’infrastructure. Accompagner les utilisateurs dans l’usage de la plateforme (explications, assistance, formation ponctuelle). Participer aux tests de non-régression et validations lors des évolutions ou migrations. Contribuer à l’ amélioration continue des processus de support et de documentation. Collaborer avec les équipes projet et développement dans un cadre Agile / Scrum (daily, rétrospectives, etc.).
Offre d'emploi
Tech Lead Data Engineer – Big Data / Java Spark
Contexte du projet : Dans le cadre d’un vaste programme de transformation digitale, CBX Group accompagne un grand acteur dans la mise en place et l’industrialisation d’une plateforme Big Data. Nous recherchons un Tech Lead Data Engineer expérimenté pour renforcer l’équipe Data et piloter la conception, le développement et la mise en production de traitements batch et temps réel, tout en encadrant les Data Engineers de la squad. Missions principales : Piloter la conception et le développement de pipelines en Spark SQL et Java Spark (batch & streaming). Définir les standards de développement et garantir la qualité technique de la squad (revues de code, bonnes pratiques, CI/CD). Concevoir et optimiser des traitements temps réel (Kafka, MongoDB, event-driven). Accompagner le design des usages Data en lien avec les Product Owners et le métier. Assurer l’optimisation et le tuning des traitements Spark pour garantir performance et scalabilité. Encadrer et coacher les Data Engineers de l’équipe, favoriser le partage de connaissances. Documenter l’architecture et les traitements dans Confluence, assurer le support et la maintenance. Participer aux rituels agiles et contribuer à la roadmap technique de la plateforme. Stack technique : Cloudera / MAPR, Java 11/17/21, Spark 2/3, Spring Boot, Kafka, MongoDB, Jenkins, Kubernetes, ArgoCD, SonarQube ; cloud GCP
Offre d'emploi
Data engineer GCP / Hadoop - DataOps
Au sein du département IT, l'équipe a pour vocation de fournir aux services Technologies & Opérations et Banque de Proximité et Assurance, l’ensemble des applications nécessaires à leur fonctionnement. L'appel d'offre vise à renforcer notre binôme de data engineers, en priorité sur le projet DatOps que nous opérons pour le compte de la Direction des Opérations. Celui-ci s'appuie sur la plateforme GCP, et représentera l'activité majeure du consultant. En mineure, il interviendra en parallèle sur un second projet, qui vise à le doter d'une plateforme data basé sur le Hadoop on premise du groupe. Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : Mettre en œuvre de nouvelles ingestions de données, data prep/transformation Maintenir et faire évoluer nos outils de gestion des pipeline de données Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme
Offre d'emploi
QA Data Engineer (salarié uniquement )
Construction du référentiel de tests Détection et remontées des défauts Elaboration PV de recette SQL - Confirmé - Impératif Azure event hub - Confirmé - Important Postman - Confirmé - Important Un profil technico fonctionnel est demandé pour traiter les sujets d'ingestion des données, les tests d'API via Postman, les tests d'intégration 2 à 2 et les tests de bout en bout. Expérience de5 à 10 ans dans un rôle QA, Data Analyst ou Data Engineer orienté qualité Une certification en QA ou Data (ISTQB, Data Management, etc.) est un plus
Offre d'emploi
Data Engineer (Spark-Scala-Azure Devops) H/F
Contexte et objectifs de la prestation : Dans ce cadre, la prestation consiste à contribuer à/au(x) : 1. Projets de migration vers notre nouveau Datalake sur infra “Azure” 2. Projets de maintenance évolutive des Use Cases Data déjà existants 3. Cadrage et chiffrage du projet (et validation) et assistance et expertise dans la définition de la stratégie et solution technique. 4. L'assistance et l'expertise sur l’architecture technique (design et conception) des couches datalake et des moyens de restitutions, 5. La conduite du changement dans la mise en œuvre et l’uniformisation des pratiques Craft 6. La définition des normes et standards de qualité édictés sur le périmètre (qualité de code, sécurité, performance, build automatique, analytics) 7. La définition du bon niveau de la documentation technique et mise à jour associée Diverses étapes de développements notamment sur les développements complexes : chiffrage, conception, spécifications techniques,mise en place, tests, déploiement, revue de code 8. Challenge des choix techniques pour qu’ils soient en adéquation avec : le besoin du client, les normes et standards des entités d’architectures, l’innovation et les principes de la transformation digitale de la banque Expertises : 1. Spark Scala 2. Cloudera, Azure 3. Mode Agile (Scrum) 4. Environnement anglophone.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.