Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 724 résultats.
Mission freelance
Senior Data Engineer
Signe +
Publiée le
Talend
6 mois
440-550 €
Vélizy Espace, Île-de-France
Contexte Dans le cadre d’un programme de transformation Data, le consultant interviendra sur la conception et l’industrialisation de pipelines de données, la structuration des plateformes Data et la collaboration avec les équipes métiers et techniques. Missions principales Conception et optimisation de pipelines ETL (Talend, SSIS, Azure Data Factory) Ingestion et traitement de données en environnement cloud (BigQuery, Cloud Storage, Dataproc) Conception de Data Warehouses, Data Marts et Data Cubes Intégration de données via API, fichiers et flux batch Participation au cadrage, data discovery et qualification Optimisation SQL, DAX, MDX Mise en place de CI/CD data Contribution à la structuration du Data Lake Compétences techniques Talend / SSIS / Azure Data Factory SQL Server (SSIS, SSAS, Reporting) SQL avancé, DAX, MDX Azure DevOps / GitLab Architectures Data modernes / Data Lake Profil recherché Senior Data Engineer confirmé Forte autonomie et capacité d’analyse Capacité à travailler en environnement international
Offre d'emploi
Data Engineer
Codezys
Publiée le
Azure DevOps Services
Python
24 mois
47 260-53 560 €
450-500 €
Saint-Denis, Île-de-France
Poste : Data Engineer Nombre de postes : 1 Expérience : > 7 ans TJM d’achat max : 500€ Localisation : Île-de-France Deadline réponse : 10/02/2026 Démarrage : 09/03/2026, mission longue durée Type de contrat : Salarié ou Freelance 1) Descriptif de la mission La mission se déroule au sein d’une équipe dédiée au développement d’outils, de méthodes et d’industrialisation pour un acteur majeur du secteur ferroviaire. L’objectif est de soutenir un périmètre spécifique concernant un outil d’analyse de la régularité des circulations, basé sur un ensemble de flux issus du système d’information de l’opérateur. Ce périmètre comprend l’accès à des données consolidées et prêtes à l’analyse, permettant aux équipes métier d’utiliser des données fiables. La mission concerne notamment : Assurer la continuité d’alimentation des flux de données pour l’outil et l’équipe technique, Adapter, développer, corriger et déployer des processus ETL lors de migrations de données, Intégrer de nouveaux flux de données en garantissant l’absence de régression, Maintenir ces flux en production et garantir leur disponibilité, Définir des formats d’échange pour alimenter l’outil, Mettre en place des indicateurs de supervision, Accompagner l’équipe dans l’exploitation des nouveaux flux. 2) Livrables attendus Le cahier des charges précise une liste de livrables avec des délais indicatifs : Recette de l’API : Document de validation, comparaison entre anciennes et nouvelles données issues du nouveau format. Déploiement : Paquets SSIS / SQL déployés, paramétrage automatique, documentation d’intégration. Processus de rattrapage simple : Documentation, industrialisation, déploiement, artefacts dans un environnement de gestion de versions. Documentation des nouvelles données : Note explicative sur la nature et l’utilisation des nouvelles données. Format d’échange : Documentation complète du schéma d’échange de données. Déploiement des flux : Projets SSIS / SQL, documentation du chargement, déploiement en environnement de production. Processus de rattrapage complexe : Développement, déploiement et documentation complète. KPI BI : Mise en place d’un tableau de bord avec suivi de l’intégration, des erreurs et de la disponibilité des flux en production.
Mission freelance
AWS Senior Data Engineer / Data Architect (Event-Driven & Streaming)
Tenth Revolution Group
Publiée le
Amazon Redshift
AWS Cloud
AWS Glue
6 mois
400-650 €
Auvergne-Rhône-Alpes, France
Contexte Dans le cadre de la modernisation d’une plateforme data, vous concevez et mettez en œuvre des architectures cloud-native orientées événements sur AWS. L’objectif est de remplacer les traitements batch par des pipelines distribués, temps réel ou quasi temps réel, robustes et scalables. Missions principales Vous définissez des architectures data serverless event-driven, concevez des pipelines d’ingestion et de transformation distribués et mettez en place des systèmes découplés basés sur la messagerie en garantissant la scalabilité, la résilience et l’optimisation des coûts. Vous transformez les flux ETL batch en pipelines cloud-native, implémentez les patterns asynchrones (retry, DLQ, idempotence, gestion des timeouts) et industrialisez les déploiements via l’Infrastructure as Code et la CI/CD. Vous déployez le monitoring, le logging et le tracing afin de suivre la performance, la latence et la qualité des flux. Compétences clés Solide expérience des architectures event-driven et des systèmes distribués, de l’event sourcing et du message brokering, de la gestion du backpressure et de la latence ainsi que de la transformation distribuée et du traitement de gros volumes. Ce poste n’est pas orienté BI, reporting ou data engineering batch classique Positionnement Rôle transverse avec une forte interaction avec les équipes data, cloud, DevOps et applicatives, impliquant une responsabilité importante sur les choix techniques et les bonnes pratiques. Synthèse Profil d’architecte data AWS spécialisé en serverless et en architectures orientées événements, capable de concevoir des pipelines distribués scalables et résilients.
Offre d'emploi
DATA ENGINEER GCP
UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL
6 mois
40k-71k €
400-630 €
Paris, France
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
Mission freelance
Architecte Data SAP / BW4HANA - Full remote
Signe +
Publiée le
SAP BW
2 mois
550-750 €
Toulouse, Occitanie
Dans un environnement industriel basé sur SAP, la mission s’articule autour de deux axes : Mise en place d’un mécanisme sécurisé et fiable de transfert de données entre une plateforme de stockage analytics industrielle (SAP HANA) et un environnement SAP BW. Intégration des données SAP BW vers une application décisionnelle afin d’optimiser la gestion des concessions et permettre la priorisation horaire des tâches. 🎯 Missions / Livrables : Réalisation de deux Architecture Design Dossiers comprenant notamment : Schémas de flux de données et contrats d’interface Définition des composants techniques Sécurité, conformité et gouvernance des données Gestion des accès et authentification Exigences de planification et de performance Alignement des modèles de données entre les différentes sources Mise à disposition des données en quasi temps réel Démarre : 2 Mars 2023 Durée : 1,5 mois Localisation : Full remote - Déplacements ponctuels à Toulouse
Mission freelance
Architecte Cloud AWS / Azure (Data Platform) - Paris
Net technologie
Publiée le
Architecture
AWS Cloud
Azure
3 mois
Paris, France
Nous recherchons un Architecte Cloud expérimenté pour accompagner la mise en place d’une nouvelle Data Platform au sein d’un programme de transformation data. 🎯 Enjeux : concevoir et piloter l’architecture SI cloud, garantir la cohérence avec la stratégie IT, et accompagner l’innovation autour des architectures Data Lakehouse . 🚀 Missions Définir et piloter l’ architecture cloud (AWS / Azure) Contribuer aux choix technologiques et à la stratégie SI Accompagner les projets dans la conception et l’intégration des solutions Définir les standards d’architecture et bonnes pratiques Garantir la sécurité, la résilience et la performance du SI Participer à l’amélioration continue et au partage des connaissances
Mission freelance
Techlead Data - GCP (H/F)
LeHibou
Publiée le
ETL (Extract-transform-load)
PowerBI
SQL
12 mois
400-520 €
Toulouse, Occitanie
Notre client dans le secteur Aérospatial et défense recherche un/une Data Engineer (H/F) Description de la mission : Dans le cadre d'un besoin de renfort sur ses activités, notre client va rechercher un freelance expérimenté sur la partie Data. Rattaché aux équipes Data en charge de la transformation de la donnée de notre client (8 personnes), vous interviendrez en tant que Techlead data. Ainsi, vous contribuerez aux projets actuels et futurs incluant le chargement des données le DWH : – Données de billetterie et de réservation – Données financières – Données opérationnelles Une bonne communication, autonomie, capacité d’adaptation sont attendues ainsi qu'une capacité à analyser des besoins complexes et à faciliter la coordination au sein de l’équipe ainsi qu’avec les autres parties prenantes (architecte, OPS, métier). Environnement technique : ETL : Powercenter : 20% SQL ( Teradata ) and scripting (BTEQ, shell…) : 50 % Linux : 10% Outils de reporting : SAP BI4 & PowerBI : 20%
Offre d'emploi
Expert GenAI / Data Engineer GCP (Agentic AI)
xITed
Publiée le
Google Cloud Platform (GCP)
1 an
Île-de-France, France
Contexte de la mission Dans le cadre du développement de ses initiatives autour de l’Intelligence Artificielle Générative et de l’automatisation intelligente, un grand groupe international souhaite renforcer ses équipes Data & AI avec un Expert GenAI / Data Engineer . Le consultant interviendra sur la conception et l’industrialisation de solutions basées sur des modèles de langage (LLM) intégrés à une plateforme data cloud moderne reposant sur Google Cloud Platform (GCP) . Objectifs de la mission Concevoir et industrialiser des solutions d’IA générative à l’échelle Développer des architectures d’agents intelligents (Agentic AI) Intégrer les usages IA aux plateformes data existantes Garantir la robustesse, la performance et la scalabilité des solutions Participer aux choix d’architecture et aux bonnes pratiques techniques Missions principales IA Générative / Agentic AI Conception et développement d’agents basés sur des modèles LLM Mise en œuvre d’architectures RAG (Retrieval Augmented Generation) Orchestration de workflows IA multi-étapes Intégration d’APIs et outils externes Optimisation des performances et de la qualité des réponses IA Data Engineering Conception et optimisation de pipelines data (ETL / ELT) Ingestion et transformation de données volumineuses Exploitation de données structurées et non structurées Mise en place de standards de qualité et de gouvernance des données Architecture Cloud Design d’architectures AI end-to-end sur GCP Déploiement de services cloud-native Participation aux décisions techniques et à l’industrialisation Mise en production et amélioration continue des solutions Environnement technique Cloud & Data Google Cloud Platform (GCP) BigQuery Dataflow Cloud Storage Pub/Sub Cloud Run / Cloud Functions AI / GenAI Vertex AI LLM APIs LangChain / LangGraph / LlamaIndex (ou équivalent) Architectures RAG Vector databases Développement Python (expert) APIs REST Docker CI/CD Git Profil recherché Minimum 7 ans d’expérience en Data Engineering / Software Engineering Expérience confirmée sur environnement GCP Expérience concrète sur projets GenAI / LLM en production Bonne maîtrise des architectures cloud distribuées Capacité à intervenir sur des sujets d’architecture et d’industrialisation Anglais professionnel Compétences clés GenAI / Agentic AI Data Engineering avancé Architecture GCP Industrialisation AI Python avancé
Mission freelance
Data Engineer - Paris
Intuition IT Solutions Ltd.
Publiée le
Apache Spark
SQL
3 ans
400-410 £GB
Paris, France
Description du poste – Data Engineer Senior Dans le cadre de projets numériques transverses, vous interviendrez au sein d’une équipe data intégrée à une plateforme de traitement et de valorisation des données. Vous collaborerez étroitement avec des profils métiers et techniques afin de garantir la collecte, la structuration et l’exploitation optimale des données. Vos missions incluent notamment : Participer aux phases de conception, planification et réalisation des projets data Construire et maintenir des pipelines de données robustes et scalables Centraliser des sources de données hétérogènes Structurer et organiser les stockages de données Mettre en place des infrastructures évolutives capables de gérer des volumes importants Développer et maintenir les workflows CI/CD Assurer la sécurité, la stabilité et la performance des environnements Accompagner les équipes dans l’exploitation et le requêtage des données Contribuer aux initiatives de gouvernance data Documenter les solutions et diffuser les bonnes pratiques Réaliser une veille technologique active
Offre d'emploi
Consultant SAP Data Migration Senior
Signe +
Publiée le
60k-90k €
Bordeaux, Nouvelle-Aquitaine
En tant que Consultant SAP Data Migration Senior, vous interviendrez au cœur des projets de transformation SAP. À ce titre, vos principales missions seront les suivantes : • Contribuer à la définition et au pilotage du plan de transformation ERP en apportant votre expertise sur les enjeux liés aux données. • Analyser, formaliser et challenger les besoins métier afin de concevoir une stratégie de migration de données adaptée : traitement des données historiques, gouvernance, gestion des référentiels (MDM), et qualité des données. • Animer des ateliers de cadrage et de conception avec les métiers et la DSI pour définir les solutions de migration, en lien avec les processus cibles SAP. • Participer aux choix technologiques liés à SAP et à son écosystème, en évaluant les outils de migration et de gestion de données (ex : Migration Cockpit, etc.). • Piloter ou contribuer activement aux différentes phases du projet de migration (stratégie, extraction, transformation, chargement, tests, validation, go-live, support). • Assurer la coordination entre les différentes parties prenantes : métiers, équipe projet, intégrateur, équipe data, etc. • Accompagner les utilisateurs dans la conduite du changement, via des actions de communication, formation et support à la prise en main des nouvelles solutions. • Contribuer à la mise en œuvre opérationnelle des solutions retenues, en garantissant la qualité, la conformité et la fiabilité des données migrées. • Accompagner vos collaborateurs dans leur montée en compétences. Référence de l'offre : wquj9gpvci
Mission freelance
246242/Data Scientist/IA Gen/Machine Learning / Deep Learning - Nantes
WorldWide People
Publiée le
IA Générative
3 mois
Nantes, Pays de la Loire
Data Scientist/IA Gen/Machine Learning / Deep Learning - Nantes Compétences et expériences demandées : Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. Connaissance de SQL Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Pratiquer une veille active sur vos domaines de compétence. Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe Objectifs et livrables Activité principales attendues : Machine Learning / Deep Learning Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. Création et production de modèles d'apprentissage automatique industrialisables Traitement de données à grande échelle pour la création de jeux de données d'entraînement Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen Prompt engineering Bench via des solutions d'évaluation des modèles d'IA Gen Optimisation des solutions (paramétrage des modèles) Compétences demandées Compétences Niveau de compétence machine learning Confirmé python Confirmé IA générative Confirmé
Mission freelance
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier
WorldWide People
Publiée le
Microsoft SSIS
6 mois
320-400 €
Montpellier, Occitanie
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS. Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS.
Offre d'emploi
Expert Spark Data Engineer
R&S TELECOM
Publiée le
Apache Kafka
Apache Spark
Kubernetes
1 an
Rennes, Bretagne
Contexte de la mission : Pour un besoin interne , nous recherchons un Expert Spark Data Engineer La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence construite sur une architecture comprenant Kafka Connect, Spark, Kubernetes et MongoDB, déployée sur l’infrastructure OVH. Volumétrie cible : 350 bases de données 5 000 requêtes par seconde 1 To par an Tâches à réaliser : Analyse et état des lieux technique Préconisations d'amélioration : Amélioration Spark streaming + temps réel + dimensionnement infra Préconisations d'amélioration : Dimensionnement infra pour le streaming temps réel. Préconisations d'amélioration : Dimensionnement MongoDB & structuration de la donnée (standardisation des patterns) Document d'architecture cible & de préconisations
Mission freelance
Business Analyst Senior BI / Data IQ
Byrongroup
Publiée le
Data quality
Database
Finance
1 an
500-600 €
Paris, France
La mission s’inscrit dans le périmètre Risques (défaut, provisionnement, recouvrement) avec une forte composante réglementaire et conformité BCE. L’objectif est de sécuriser l’exécution opérationnelle des projets risques, en garantissant la qualité des processus et la fiabilité de la donnée. Le consultant agit en MOA senior avec une forte orientation delivery : il encadre le besoin métier, assure le relais fonctionnel vers l’IT, et suit les évolutions jusqu’à la validation et la mise en production. Responsabilités principales • Cadrer et analyser les besoins métiers risques (défaut, provisionnement, recouvrement). • Rédiger les spécifications fonctionnelles et suivre la mise en œuvre par la MOE. • Assister les équipes métiers lors des tests, recettes et validations fonctionnelles. • Piloter la correction d’anomalies fonctionnelles et suivre leur résolution. • Réaliser des analyses de données, requêtes et contrôles sur la BI/Data IQ centrale. • Coordonner de multiples interlocuteurs (métiers, IT, Data, conformité).
Mission freelance
SAP Finance Data Governance Expert
Signe +
Publiée le
SAP S/4HANA
1 an
600-800 €
Paris, France
Dans le cadre d’un programme international de transformation digitale, un groupe déploie un ERP unique basé sur SAP S/4HANA Public Cloud afin d’harmoniser ses processus Finance. Ce programme vise à mettre en place un modèle de données global, standardisé et gouverné , garantissant qualité, fiabilité et conformité des données financières dans un environnement multi-pays. Rattaché(e) au programme Finance Transformation, vous êtes le/la référent(e) Data Governance sur le périmètre Finance. À ce titre, vous : Définissez et structurez le framework de Finance Data Governance Formalisez les rôles et responsabilités (Data Owners, Data Stewards) Définissez et maintenez le Finance Data Model cible Mettez en place les règles et indicateurs de Data Quality Supervisez les activités de nettoyage et de remédiation des données Encadrez les règles de mapping et de transformation dans le cadre des migrations SAP S/4 HANA Assurez la cohérence des données entre systèmes et flux inter-applicatifs Garantissez l’alignement avec les exigences réglementaires et de contrôle interne Animez les instances de gouvernance Data et accompagnez l’adoption au niveau global Des interactions fréquentes avec les équipes Finance, IT et Process Owners sont attendues. Des déplacements peuvent être à prévoir en phase de déploiement. Démarrage : Mars 2026 Durée : 1 an renouvelable Localisation : Paris ou Grenoble (2/3 jours de présentiel)
Mission freelance
Data Analyst experimenté - Nantes
VISIAN
Publiée le
SQL
3 ans
400 €
Nantes, Pays de la Loire
Contexte Au sein d’une entité Data d’un grand groupe bancaire, la mission s’inscrit dans une équipe chargée de la conception, de la fabrication et de la mise à disposition de jeux de données à destination de multiples entités internes. L’activité s’appuie sur plusieurs plateformes décisionnelles et entrepôts de données et s’exerce dans un cadre réglementaire et sécuritaire strict (protection des données, conformité, éthique d’usage). L’équipe intervient notamment pour des besoins d’audit, de conformité réglementaire, d’analyses exploratoires ou de soutien à des projets métiers (innovation, data science, nouveaux produits). Missions Cadrage et analyse des besoins Recueillir et analyser les demandes d’extraction ou de mise à disposition de données Accompagner les utilisateurs dans la formalisation des besoins et des règles de gestion associées Réaliser les analyses d’impact sur les systèmes existants Identifier les sources de données pertinentes et les outils d’extraction adaptés Production et livraison des jeux de données Concevoir et piloter la fabrication de jeux de données ou requêtes d’extraction Garantir la qualité, la cohérence et l’exploitabilité des données livrées Organiser la phase de recette avec les équipes métiers et utilisateurs Contribuer à l’industrialisation de certains cas d’usage Gouvernance, conformité et sécurité Veiller au respect des contraintes réglementaires et de protection des données Mettre en œuvre les contrôles d’accès et d’usage appropriés Collaborer avec les acteurs de gouvernance Data pour valider l’exploitabilité et la diffusion des données Coordination et communication Assurer l’interface avec les entités demandeuses et les parties prenantes internes Animer des ateliers d’étude multi-acteurs Promouvoir l’offre de services de l’équipe et produire les supports associés Mettre en place et suivre les indicateurs de performance du service Capitalisation et documentation Structurer et maintenir la documentation des dossiers traités Contribuer au partage de connaissances et à la montée en compétence collective Environnement technique Bases de données relationnelles et décisionnelles SQL (dont environnements décisionnels) Outils de reporting et de BI Outils d’extraction et de traitement de données Outils de gouvernance et de documentation de la donnée Outils bureautiques avancés Informations complémentaires Mission en environnement fortement réglementé Interactions fréquentes avec des interlocuteurs variés (métiers, data, gouvernance, conformité) Accès à des données sensibles nécessitant le respect strict des procédures de sécurité
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1724 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois