Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 722 résultats.
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL

6 mois
40k-71k €
400-630 €
Paris, France
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
CDI

Offre d'emploi
Tech Lead DATA & IA

INFOGENE
Publiée le

50k-60k €
Neuilly-sur-Seine, Île-de-France
Tech Lead Data & IA Infogene Neuilly-sur-Seine, Île-de-France, France (Sur site) Tech Lead Data & AI Bâtissez la pratique IA d’un groupe industriel Infogene - Groupe Vulcain Construisez l’IA qui compte Infogene, filiale digitale du Groupe Vulcain (850 collaborateurs, 90M€ CA), déploie des solutions d’intelligence artificielle pour les leaders de l’énergie, du nucléaire, du pharmaceutique et des infrastructures critiques. Notre pratique IA est jeune, ambitieuse, et en pleine structuration. Nous cherchons le Tech Lead qui en deviendra le pilier opérationnel : transformer une équipe de 4 en une force de frappe de 8+, industrialiser nos plateformes, et faire le lien entre vision stratégique et réalité du terrain. Vos missions Pilotage technique (60%) • Architecturer et maintenir les plateformes IA internes : infrastructure Docker, PostgreSQL, CI/CD, Linux • Garantir la qualité technique : revues de code, bonnes pratiques, choix d’outillage • Gérer les environnements d’inférence LLM et les bases vectorielles (vLLM, Ollama, Qdrant, ChromaDB) • Fiabiliser et automatiser les pipelines de déploiement et les workflows (n8n) Management & Delivery (40%) • Encadrer et faire grandir l’équipe (4 aujourd’hui, 8+ à horizon 12 mois) • Piloter les projets en Agile/ACTE (méthodologie Infogene) sur Jira et Confluence • Chiffrer pour convaincre : estimer la charge des projets (J/H), structurer les lots, identifier les risques et produire les plans de livraison qui alimentent les propositions commerciales • Coordonner avec le CAIO : priorisation, roadmap, allocation des ressources Projets en cours • PEPPER : plateforme data consolidant les outils internes du groupe (Boond, MyActivity, SAGE…) • Jarvis : solution IA de traitement automatique de comptes-rendus de réunion
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake

12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
Freelance

Mission freelance
Architecte Cloud AWS / Azure (Data Platform) - Paris

Net technologie
Publiée le
Architecture
AWS Cloud
Azure

3 mois
Paris, France
Nous recherchons un Architecte Cloud expérimenté pour accompagner la mise en place d’une nouvelle Data Platform au sein d’un programme de transformation data. 🎯 Enjeux : concevoir et piloter l’architecture SI cloud, garantir la cohérence avec la stratégie IT, et accompagner l’innovation autour des architectures Data Lakehouse . 🚀 Missions Définir et piloter l’ architecture cloud (AWS / Azure) Contribuer aux choix technologiques et à la stratégie SI Accompagner les projets dans la conception et l’intégration des solutions Définir les standards d’architecture et bonnes pratiques Garantir la sécurité, la résilience et la performance du SI Participer à l’amélioration continue et au partage des connaissances
Freelance

Mission freelance
Développeur(euse) Big Data

CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Python

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Description du poste : Dans le cadre de l'activité Big Data de notre client, nous recherchons un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans nos actions sur notre plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs.
Freelance

Mission freelance
Techlead Data - GCP (H/F)

LeHibou
Publiée le
ETL (Extract-transform-load)
PowerBI
SQL

12 mois
400-520 €
Toulouse, Occitanie
Notre client dans le secteur Aérospatial et défense recherche un/une Data Engineer (H/F) Description de la mission : Dans le cadre d'un besoin de renfort sur ses activités, notre client va rechercher un freelance expérimenté sur la partie Data. Rattaché aux équipes Data en charge de la transformation de la donnée de notre client (8 personnes), vous interviendrez en tant que Techlead data. Ainsi, vous contribuerez aux projets actuels et futurs incluant le chargement des données le DWH : – Données de billetterie et de réservation – Données financières – Données opérationnelles Une bonne communication, autonomie, capacité d’adaptation sont attendues ainsi qu'une capacité à analyser des besoins complexes et à faciliter la coordination au sein de l’équipe ainsi qu’avec les autres parties prenantes (architecte, OPS, métier). Environnement technique : ETL : Powercenter : 20% SQL ( Teradata ) and scripting (BTEQ, shell…) : 50 % Linux : 10% Outils de reporting : SAP BI4 & PowerBI : 20%
CDI
Freelance

Offre d'emploi
Expert GenAI / Data Engineer GCP (Agentic AI)

xITed
Publiée le
Google Cloud Platform (GCP)

1 an
Île-de-France, France
Contexte de la mission Dans le cadre du développement de ses initiatives autour de l’Intelligence Artificielle Générative et de l’automatisation intelligente, un grand groupe international souhaite renforcer ses équipes Data & AI avec un Expert GenAI / Data Engineer . Le consultant interviendra sur la conception et l’industrialisation de solutions basées sur des modèles de langage (LLM) intégrés à une plateforme data cloud moderne reposant sur Google Cloud Platform (GCP) . Objectifs de la mission Concevoir et industrialiser des solutions d’IA générative à l’échelle Développer des architectures d’agents intelligents (Agentic AI) Intégrer les usages IA aux plateformes data existantes Garantir la robustesse, la performance et la scalabilité des solutions Participer aux choix d’architecture et aux bonnes pratiques techniques Missions principales IA Générative / Agentic AI Conception et développement d’agents basés sur des modèles LLM Mise en œuvre d’architectures RAG (Retrieval Augmented Generation) Orchestration de workflows IA multi-étapes Intégration d’APIs et outils externes Optimisation des performances et de la qualité des réponses IA Data Engineering Conception et optimisation de pipelines data (ETL / ELT) Ingestion et transformation de données volumineuses Exploitation de données structurées et non structurées Mise en place de standards de qualité et de gouvernance des données Architecture Cloud Design d’architectures AI end-to-end sur GCP Déploiement de services cloud-native Participation aux décisions techniques et à l’industrialisation Mise en production et amélioration continue des solutions Environnement technique Cloud & Data Google Cloud Platform (GCP) BigQuery Dataflow Cloud Storage Pub/Sub Cloud Run / Cloud Functions AI / GenAI Vertex AI LLM APIs LangChain / LangGraph / LlamaIndex (ou équivalent) Architectures RAG Vector databases Développement Python (expert) APIs REST Docker CI/CD Git Profil recherché Minimum 7 ans d’expérience en Data Engineering / Software Engineering Expérience confirmée sur environnement GCP Expérience concrète sur projets GenAI / LLM en production Bonne maîtrise des architectures cloud distribuées Capacité à intervenir sur des sujets d’architecture et d’industrialisation Anglais professionnel Compétences clés GenAI / Agentic AI Data Engineering avancé Architecture GCP Industrialisation AI Python avancé
CDI

Offre d'emploi
Consultant SAP Data Migration Senior

Signe +
Publiée le

60k-90k €
Paris, France
En tant que Consultant SAP Data Migration Senior, vous interviendrez au cœur des projets de transformation SAP. À ce titre, vos principales missions seront les suivantes : • Contribuer à la définition et au pilotage du plan de transformation ERP en apportant votre expertise sur les enjeux liés aux données. • Analyser, formaliser et challenger les besoins métier afin de concevoir une stratégie de migration de données adaptée : traitement des données historiques, gouvernance, gestion des référentiels (MDM), et qualité des données. • Animer des ateliers de cadrage et de conception avec les métiers et la DSI pour définir les solutions de migration, en lien avec les processus cibles SAP. • Participer aux choix technologiques liés à SAP et à son écosystème, en évaluant les outils de migration et de gestion de données (ex : Migration Cockpit, etc.). • Piloter ou contribuer activement aux différentes phases du projet de migration (stratégie, extraction, transformation, chargement, tests, validation, go-live, support). • Assurer la coordination entre les différentes parties prenantes : métiers, équipe projet, intégrateur, équipe data, etc. • Accompagner les utilisateurs dans la conduite du changement, via des actions de communication, formation et support à la prise en main des nouvelles solutions. • Contribuer à la mise en œuvre opérationnelle des solutions retenues, en garantissant la qualité, la conformité et la fiabilité des données migrées. • Accompagner vos collaborateurs dans leur montée en compétences. Référence de l'offre : 8w5ydg5u97
Freelance

Mission freelance
Consultant Leader SAP Master Data

CERCAR
Publiée le

Paris, France
Dans le cadre du renforcement de sa gouvernance des données, un grand groupe recherche un Master Data Leader SAP pour piloter la gestion des données de référence au sein de son environnement SAP. La mission s'inscrit dans un contexte structurant avec des enjeux forts de qualité, de cohérence et de centralisation des données. Objectif de la mission Garantir la qualité, l'intégrité et la disponibilité des données de référence utilisées par les processus métiers, en définissant et en pilotant une gouvernance data robuste et durable dans l'écosystème SAP. Missions principales Superviser la création, la modification et la validation des données de référence dans SAP Assurer la qualité des données (déduplication, correction des incohérences, fiabilisation des référentiels) Définir et mettre en place des règles de gouvernance, workflows et mécanismes de contrôle Centraliser les données dans un référentiel unique et structuré Agir comme interface entre les équipes métiers, IT et projet SAP Participer aux projets d'implémentation SAP, notamment sur les modules impactés par les données de base Encadrer et structurer l'organisation Master Data si nécessaire Analyser les impacts des évolutions de processus sur les référentiels et assurer leur alignement stratégique Compétences requises Expertise approfondie des référentiels SAP (articles, fournisseurs, clients, nomenclatures, etc.) Maîtrise des outils de gouvernance type SAP Master Data Governance (MDG) Bonne compréhension des processus Supply Chain, logistique ou Finance Solide expérience en qualité de données et en gouvernance Capacité à piloter des sujets transverses et à structurer une organisation data Excellentes compétences en communication avec des interlocuteurs métiers et techniques Modalités pratiques Type de contrat : Freelance Localisation : Paris Remote : 2 jours par semaine Démarrage : ASAP Durée : à définir TJM indicatif : selon profil Merci de transmettre votre CV ainsi que vos disponibilités et votre taux journalier.
Freelance

Mission freelance
246242/Data Scientist/IA Gen/Machine Learning / Deep Learning - Nantes

WorldWide People
Publiée le
IA Générative

3 mois
Nantes, Pays de la Loire
Data Scientist/IA Gen/Machine Learning / Deep Learning - Nantes Compétences et expériences demandées : Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. Connaissance de SQL Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Pratiquer une veille active sur vos domaines de compétence. Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe Objectifs et livrables Activité principales attendues : Machine Learning / Deep Learning Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. Création et production de modèles d'apprentissage automatique industrialisables Traitement de données à grande échelle pour la création de jeux de données d'entraînement Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen Prompt engineering Bench via des solutions d'évaluation des modèles d'IA Gen Optimisation des solutions (paramétrage des modèles) Compétences demandées Compétences Niveau de compétence machine learning Confirmé python Confirmé IA générative Confirmé
Freelance

Mission freelance
Chef de projet - Data Management / Framework

STHREE SAS pour HUXLEY
Publiée le

12 mois
500 €
France
🚀 Mission Freelance - Business Analyst Data (H/F) - Paris - Longue mission Nous recherchons un Business Analyst Data confirmé pour Construire une approche et planning afin de se mettre en conformité vis a vis du framework Data Management Control Standard (DM CS) et End User Computing Control standard (EUC CS) Contrainte forte du projet : Connaissance et experience dans l'implementation des disciplines DAMA : Data Governance, Data Quality, Data Traceability, Risk Reporting. Connaissance experience de la Directive BCBS 239 est une atout majeur. Connaissance de la gestion des applications EUC d'un point vu Data Management. Les livrables sont Frameworks DM CS et EUC CSderivés pour la France Approche, Roadmap, status de l'implementation, Reporting local global. 🎯 Votre rôle Activités principales attendues de la mission : - Gap analysis as-is versus nouvelle version des policies DM CS et EUC CS incluant les issues ouvertes relatives à ces deux standards - Definition des policies en application au scope et au contexte local - Accompagnement des métiers (Communication / Training) - Identification des gaps et plan d'action de remediation inscrit dans une roadmap - Execution des roadmaps, suivi et reporting de la mise en conformité à ces deux policies - Execution et coordinations des cycles de tests des controls definis dans les policies (Test of Design/ Test of Effectiveness) 🛠️ Compétences requises SQL (confirmé) Data modelling Data Governance, Data Quality, Data Traceability, Risk Reporting Connaissance BCBS 239 EUC Management Anglais professionnel & français courant 📅 Modalités Démarrage : 9 mars 2026 Fin : 31 décembre 2026 Rythme : 2 jours / semaine sur site Lieu : Paris Type : Assistance technique - Freelance 👉 Si vous êtes un expert Data avec une forte orientation conformité & gouvernance, cette mission est faite pour vous !
Freelance
CDI
CDD

Offre d'emploi
Data Scientiste GPS/SIG

Freelance.com
Publiée le
GPS
Python

1 an
40k-80k €
400-600 €
Issy-les-Moulineaux, Île-de-France
Profil : Data scientiste GPS/SIG Séniorité : + 7 ans Lieu de mission : Paris 15 Date démarrage souhaitée : 16/03 Durée mission : 1 an Objet et description de la mission : Expertise Data scientiste Modélisation compétence SIG Le projet vise à construire un découpage territorial en secteurs géographiques équilibrés en termes de durée de distribution et de taille. Un modèle prédictif est développé pour estimer la durée de distribution de chaque secteur à partir d’indicateurs routiers, géospatiaux et fonctionnels. Des données GPS historiques permettent de reconstruire la durée réelle de couverture des secteurs. Ces données ne seront cependant pas disponibles à l’inférence. L’enjeu est donc d’extraire, à partir des traces GPS, des indicateurs structurels et stables caractérisant chaque secteur, utilisables en production. Objectif : Extraire et formaliser des features géospatiales robustes à partir de traces GPS. - Concevoir et entraîner un modèle prédictif de durée de distribution par secteur. - Garantir la stabilité temporelle et spatiale des indicateurs. - Structurer une méthodologie réplicable et documentée Compétences recherchées (non exhaustive) : Connaissance des systèmes d’information géographique (SIG). - Analyse de réseaux routiers (graphes, accessibilité, centralité, etc...). - Manipulation avancée de données spatiales (points, lignes, polygones, multi-géométries). - Expérience en analyse territoriale et optimisation de découpages géographiques. - Bonne compréhension des enjeux logistiques et de mobilité. - Expertise en modélisation statistique et machine learning supervisé. - Feature engineering avancé sur données spatio-temporelles. - Évaluation de la robustesse, de la stabilité et de l’importance des variables. - Maîtrise des problématiques de généralisation, de biais et de data leakage
Freelance

Mission freelance
Business Analyst Senior BI / Data IQ

Byrongroup
Publiée le
Data quality
Database
Finance

1 an
500-600 €
Paris, France
La mission s’inscrit dans le périmètre Risques (défaut, provisionnement, recouvrement) avec une forte composante réglementaire et conformité BCE. L’objectif est de sécuriser l’exécution opérationnelle des projets risques, en garantissant la qualité des processus et la fiabilité de la donnée. Le consultant agit en MOA senior avec une forte orientation delivery : il encadre le besoin métier, assure le relais fonctionnel vers l’IT, et suit les évolutions jusqu’à la validation et la mise en production. Responsabilités principales • Cadrer et analyser les besoins métiers risques (défaut, provisionnement, recouvrement). • Rédiger les spécifications fonctionnelles et suivre la mise en œuvre par la MOE. • Assister les équipes métiers lors des tests, recettes et validations fonctionnelles. • Piloter la correction d’anomalies fonctionnelles et suivre leur résolution. • Réaliser des analyses de données, requêtes et contrôles sur la BI/Data IQ centrale. • Coordonner de multiples interlocuteurs (métiers, IT, Data, conformité).
CDI
Freelance

Offre d'emploi
Data Engineer AWS expérimenté

UCASE CONSULTING
Publiée le
Apache Spark
AWS Cloud
Python

1 an
50k-60k €
500-600 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe Data de notre client, nous recherchons un(e) Data Engineer AWS expérimenté(e) (5 à 7 ans d’expérience minimum), capable d’intervenir sur des plateformes data à forte volumétrie et à forts enjeux de performance, de sécurité et de coûts. Missions 1️⃣ Maintien en condition opérationnelle de la plateforme Contrôler et garantir la disponibilité des données et des services Assurer le suivi des traitements et la gestion des incidents Répondre aux demandes de données ad hoc et analyser les anomalies Développer des correctifs et des évolutions si nécessaire Contribuer à la qualité des données et à l’industrialisation de la plateforme Communiquer avec les utilisateurs et accompagner les équipes 2️⃣ Design & construction de services et pipelines data Concevoir et mettre en place des flux de données (acquisition, transformation, exposition) Développer des pipelines robustes et performants (batch et temps réel) Réaliser des modélisations de données adaptées aux usages métiers Mettre en place les traitements sur différents formats (CSV, XML, JSON, Parquet) Ordonnancer les traitements et gérer les dépendances (Airflow) Développer et maintenir des flux temps réel via Kafka (MSK) Réaliser les tests unitaires et d’intégration Participer aux revues de code et veiller au respect des standards Gérer les déploiements sur l’ensemble des environnements Enrichir et maintenir la documentation technique Environnement technique AWS : S3, EMR, EKS, EC2, Lambda, Athena Spark (Scala), Python, SQL Kafka Airflow Dataiku GitLab & GitLab CI Terraform
Freelance

Mission freelance
ARCHITECT DATA / URBANISTE

HAYS France
Publiée le
API
BI
Data governance

1 mois
Grand Est, France
Dans le cadre d’un renfort sur ses projets de transformation digitale, notre client recherche un(e) Architecte Data / Urbaniste afin d’intervenir sur un périmètre stratégique lié à l’évolution de son architecture d’entreprise. Vous serez chargé(e) d’évaluer l’architecture data existante, d’identifier les axes d’amélioration et de proposer une vision cible permettant d’optimiser la qualité, la structuration et la valorisation du gisement de données. Votre rôle consistera notamment à analyser les sources actuelles, proposer l’intégration de nouvelles données, améliorer les mécanismes de gouvernance et contribuer à la valorisation des données pour les usages BI, API, reporting et datamesh. Vous interviendrez également sur la mise en place, la gestion et la structuration des métadonnées pour préparer des cas d’usage orientés intelligence artificielle. En lien direct avec les équipes data, techniques et métiers, vous contribuerez aux orientations d’urbanisation du SI et à la cohérence globale de la plateforme data, tout en apportant vos recommandations pour soutenir les enjeux de scalabilité et de performance. Rythme 80% TT possible.
Freelance
CDI

Offre d'emploi
Data Engineer

Codezys
Publiée le
Azure DevOps Services
Python

24 mois
47 260-53 560 €
450-500 €
Saint-Denis, Île-de-France
Poste : Data Engineer Nombre de postes : 1 Expérience : > 7 ans TJM d’achat max : 500€ Localisation : Île-de-France Deadline réponse : 10/02/2026 Démarrage : 09/03/2026, mission longue durée Type de contrat : Salarié ou Freelance 1) Descriptif de la mission La mission se déroule au sein d’une équipe dédiée au développement d’outils, de méthodes et d’industrialisation pour un acteur majeur du secteur ferroviaire. L’objectif est de soutenir un périmètre spécifique concernant un outil d’analyse de la régularité des circulations, basé sur un ensemble de flux issus du système d’information de l’opérateur. Ce périmètre comprend l’accès à des données consolidées et prêtes à l’analyse, permettant aux équipes métier d’utiliser des données fiables. La mission concerne notamment : Assurer la continuité d’alimentation des flux de données pour l’outil et l’équipe technique, Adapter, développer, corriger et déployer des processus ETL lors de migrations de données, Intégrer de nouveaux flux de données en garantissant l’absence de régression, Maintenir ces flux en production et garantir leur disponibilité, Définir des formats d’échange pour alimenter l’outil, Mettre en place des indicateurs de supervision, Accompagner l’équipe dans l’exploitation des nouveaux flux. 2) Livrables attendus Le cahier des charges précise une liste de livrables avec des délais indicatifs : Recette de l’API : Document de validation, comparaison entre anciennes et nouvelles données issues du nouveau format. Déploiement : Paquets SSIS / SQL déployés, paramétrage automatique, documentation d’intégration. Processus de rattrapage simple : Documentation, industrialisation, déploiement, artefacts dans un environnement de gestion de versions. Documentation des nouvelles données : Note explicative sur la nature et l’utilisation des nouvelles données. Format d’échange : Documentation complète du schéma d’échange de données. Déploiement des flux : Projets SSIS / SQL, documentation du chargement, déploiement en environnement de production. Processus de rattrapage complexe : Développement, déploiement et documentation complète. KPI BI : Mise en place d’un tableau de bord avec suivi de l’intégration, des erreurs et de la disponibilité des flux en production.
1722 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous