L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 491 résultats.
Mission freelance
POT9036 - Un Data ingénieur sur Massy
Almatek
Publiée le
SQL
6 mois
360-470 €
Île-de-France, France
Almatek recherche pour l'un de ses clients ,Un Data ingénieur sur Massy. Taches: Participation à la définition des solutions applicatives Développement, Intégration et Recette technique Surveiller et améliorer l'efficacité des processus Tenir à jour la documentation des systèmes et des processus. Contexte : Nous recherchons un/une Data Engineer expérimenté(e) pour contribuer à la réalisation des projets de la Squad Usages Data Avancé & IA: Conception et Maintenance de l'applicative Amélioration continue des produits / solutions de la squad Construction nouveaux usages Attendu: Construire et maintenir des pipelines ETL/ELT pour données structurées et non-structurées Mettre en oeuvre des chaines d'intégration, de déploiement et de suivi des solutions en production (DataOps). Préparer des datasets utilisés pour de l'exploration de données Développer et favorise l’industrialisation de modèles statistiques ou de machine learning Versionner données/modèles/code et monitorer performance/coûts Collaborer avec les équipiers de la squad et documenter vos travaux Compétences Humaines: Une bonne autonomie et capacité d'adaptation à des projets innovants et rythmés Sens du travail en équipe bonne communication et accompagnement utilisateurs Compétences Techniques: Langages : Python (FastAPI, Pyspark), SQL Qualité de code : Pytest, SonarQube MLOps/CI-CD : Docker, Kubernetes, GitHub/GitLab Actions Data & DB : PostgreSQL, Teradata, MySQL Observabilité : Stack ELK, Prometheus/Grafana, MLflow Plus si compétence en Big Data/Streaming : Spark, Kafka Experience 4 à 7 ans. Date de debut souhaitée :30 Mars 2026, mission longue
Mission freelance
Data Manager Senior - Customer domain
Atlas Connect
Publiée le
CICS (Customer Information Control System)
Data governance
Data Lake
12 mois
600-640 €
Issy-les-Moulineaux, Île-de-France
🎯 Contexte & Objectif du Poste Dans le cadre du renforcement de la gouvernance et de la structuration du paysage data, nous recherchons un Data Manager Senior intervenant de manière transversale sur le domaine Customer et les autres domaines data. Le Data Manager joue un rôle clé d’interface entre les équipes métier, produit et techniques. Il garantit la cohérence, la standardisation et la qualité long terme des données tout en accompagnant la conception des data products. 🧩 Responsabilités principales1️⃣ Cadrage & Conception des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products. Apporter une forte compréhension fonctionnelle des processus Customer. Conseiller sur les choix de modélisation, la complexité, la faisabilité et les impacts transverses. Garantir l’alignement avec les standards data et l’architecture cible. 2️⃣ Gouvernance & Standards Data Définir, maintenir et promouvoir les standards de data management (règles de modélisation, conventions de nommage, documentation). Co-construire des guidelines et patterns lors de nouveaux cas d’usage. Assurer l’adoption et la cohérence des standards au sein du domaine Customer. Être référent sur la qualité de la documentation et les bonnes pratiques de gouvernance. 3️⃣ Urbanisation & Cohérence Transversale Assurer l’interopérabilité entre les domaines data. Identifier et corriger les duplications, chevauchements et fragmentations (notamment autour des concepts Customer). Fournir des recommandations pour simplifier et rationaliser le paysage data. Promouvoir la réutilisation, l’harmonisation et la qualité long terme des données. 4️⃣ Data Management Opérationnel Support aux activités continues de gestion des données. Maintien de la documentation, des modèles et des définitions de données. Coordination des parties prenantes. Mise en place et suivi des règles de qualité, contrôles et réconciliations.
Mission freelance
Ingenieur Data RH
Comet
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Data Scientist / AI Engineer
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Offre d'emploi
Consultant Confirmé en Data gouvernance Collibra
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Paris, France
Contexte de la mission : Dans le cadre du déploiement et de l’industrialisation de notre démarche de gouvernance des données, nous recherchons un consultant expert technique Collibra. La mission s’inscrit dans un programme structurant visant à renforcer le catalogage des données et la traçabilité (data lineage). Le consultant intégrera l’équipe Data en lien direct avec les architectes de la DSI qui ont une vision sur l’ensemble de la chaîne de valeur de la donnée, de l’acquisition à la restitution. Tâches à réaliser : · L’operating model de Collibra et la capacité à modifier les settings sur sa partie OOTB ou custom (asset type, attributs, relations…) selon un scope puis mesurer les impacts sur l’existant DEV/PROD et le déployer en PROD · L’asset model du Data Product · Les rôles et permissions (globale, ressources, …) · Les fonctionnalités de migration import/export (par ex. pour les vues) · Le paramétrage des vues de diagramme · Savoir lancer et interpréter les résultats des connecteurs EDGE (technologies Datalake Azure/AWS, Databricks unity) et technical lineage (Databricks, Power BI) · Savoir manipuler les assets en masse (modification d’attributs, déplacements, suppressions), si besoin par import/export · Connaitre les fonctionnalités liées à Edge pour le sampling, profiling, data notebook · Scripting / APIs / Workflow · Trouver et savoir tester les APIs Collibra du portail développeur · Savoir comprendre et modifier un workflow existant (script : Groovy), le rendre paramétrable, le versionner si besoin et déployer DEV/PROD · Scripter des validations rules sur les assets Livrables attendus · Expressions de besoins et documents de cadrage · Workflows Collibra configurés · Catalogues de données alimentés · Lineage modélisé et documenté · Toute l’implémentation est en langue EN, éventuelle doc. technique succincte à réaliser sur les actions menées Compétences recherchées : Obligatoires : Maîtrise avancée de Collibra (Catalog, Lineage, Workflows) Solide expérience en Data Gouvernance et Data Management Bonnes connaissances des environnements Azure/ AWS / Databricks / Power BI /API/ BDD Expérience nécessaire : 5 années minimum Langues : Anglais et français
Offre d'emploi
Data Analyst Senior H/F
SMARTPOINT
Publiée le
Git
PySpark
Python
12 mois
50k-60k €
400-500 €
Nantes, Pays de la Loire
Analyse et compréhension des besoins Comprendre et modéliser les problématiques métiers et celles du pôle. Définir le périmètre des données nécessaires à la mise en œuvre des solutions analytiques. Élaborer un plan d’analyse des données adapté aux besoins métiers. Data science et modélisation Concevoir et développer des modèles de machine learning . Mettre en œuvre des techniques statistiques et de data mining . Optimiser les modèles de données des projets data. Développer et maintenir des scripts Python optimisés . Exploitation et valorisation des données Analyser les données et interpréter les résultats pour les métiers . Conceptualiser des solutions autour de problématiques opérationnelles. Formaliser les résultats d’analyse et les présenter aux équipes métiers. Mettre en évidence la valeur des actions proposées. Visualisation et restitution Concevoir des visualisations de données adaptées aux besoins métiers . Produire éventuellement des visualisations cartographiques . Rendre les résultats lisibles, exploitables et actionnables. Collaboration et industrialisation Créer les tables et vues nécessaires aux projets data . Collaborer avec les équipes Data Ops pour l’industrialisation : collecte de données traitements supervision restitution Estimer la charge des traitements techniques et des développements. Recommandations et amélioration Être force de proposition sur les actions à mettre en œuvre. Formuler des préconisations opérationnelles basées sur les analyses.
Offre d'emploi
Business Analyst Data
VISIAN
Publiée le
Agile Scrum
Business Analyst
MySQL
1 an
Paris, France
Descriptif du poste Au sein d'une équipe data qui a pour mission de définir la stratégie et la feuille de route Data du groupe, de développer et gérer l'écosystème de partenaires Data, de définir et déployer la gouvernance des données, de définir et piloter le plan d'acculturation Data, et d'accompagner le déploiement des produits et services Data. Le Global Data Office a en charge le développement et le maintien des données de référence du groupe, et a lancé un programme de refonte de la plateforme de Master Data Management
Mission freelance
Consultant SAP FI/CO + Data Migration
ALLEGIS GROUP
Publiée le
SAP FICO
1 an
400-550 €
Clamart, Île-de-France
Dans le cadre d’un projet SAP Finance en cours, notre client recherche un Consultant SAP FI/CO confirmé , capable d’intervenir à la fois sur la conception fonctionnelle , l’accompagnement des métiers et les travaux de migration de données . Le consultant interviendra en renfort sur un périmètre critique pour la bascule de fin d’année . Responsabilités principales Participation aux ateliers avec les équipes Finance & Controlling Analyse des besoins et rédaction de la documentation fonctionnelle (spécifications, process…) Contribution aux activités de Data Migration : mapping, validation, reprise, contrôle de cohérence Accompagnement des utilisateurs, support UAT, correction des anomalies Collaboration étroite avec les équipes techniques (ABAP, Data, Basis) Suivi d’avancement et reporting auprès du chef de projet
Mission freelance
Développeur Java orienté Data H/F
ODHCOM - FREELANCEREPUBLIK
Publiée le
Java
Python
SQL
6 mois
Neuilly-sur-Seine, Île-de-France
Descriptif de mission – Développeur Fullstack orienté Data Nous recherchons un développeur fullstack ayant une forte sensibilité à la data, pour intervenir sur une application interne stratégique dédiée à la gestion de données complexes et volumineuses. L’environnement technique s’appuie sur : des interfaces de consultation de données, un back-end en Java, une base de données SQL avec un modèle riche et structuré, des traitements batch automatisés (Java / SQL). Dans ce contexte, la qualité, la fiabilité et la structuration des données sont au cœur des enjeux. Vos responsabilités En vous appropriant les enjeux fonctionnels et la base de code existante, vous interviendrez sur l’ensemble du cycle de vie de l’application : Analyse & compréhension des données Manipuler et analyser des modèles de données complexes Garantir la cohérence, la qualité et l’intégrité des données Identifier des axes d’optimisation du data model Conception & développement Implémenter des fonctionnalités en lien avec les besoins métier Participer à la conception technique et à l’évolution de l’architecture Réaliser des prototypes et contribuer aux choix techniques Data & performance Écrire et optimiser des requêtes SQL complexes Participer à l’optimisation des traitements batch et des performances globales Qualité & tests Mettre en place et exécuter des tests (unitaires, intégration, end-to-end) Identifier, analyser et corriger les anomalies Maintenance & amélioration continue Assurer la maintenance corrective et évolutive Participer à la rétro-ingénierie du code existant Contribuer à la documentation et aux bonnes pratiques (versioning, code review…)
Offre d'emploi
Scrum Master DATA IA
Le Groupe SYD
Publiée le
12 mois
35k-55k €
350-550 €
Niort, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟Scrum Master Data & IA 📍Lieu : Niort 🏠 Télétravail : 2 jours par semaine 📝Contrat : CDI, Freelance, Portage 👉 Contexte client : Nous recherchons un Scrum Master spécialisé Data & IA pour accompagner l’un de nos clients majeurs du secteur de l’assurance, basé à Niort. Dans un contexte de transformation digitale avancée et de montée en puissance des usages Data/IA, tu rejoindras une organisation en mode produit, articulée autour d’environnements agiles matures (Scrum, SAFe). Ton rôle sera central pour accélérer la délivrance , renforcer la dynamique agile des équipes et garantir un delivery fluide, orienté valeur, sur des projets Data, Analytics et Intelligence Artificielle. Tu auras pour missions de : Garantir le respect des pratiques Scrum et promouvoir les valeurs agiles. Animer l’ensemble des cérémonies : Daily, Sprint Planning, Review, Rétrospectives. Faciliter la collaboration entre Data Scientists, Data Engineers, Product Owners et équipes métiers. Accompagner les équipes dans la compréhension et l’intégration des flux data, des modèles IA/ML et de la chaîne analytique. Aider à la priorisation des sujets avec une approche orientée valeur, ROI et usages opérationnels. Contribuer à la fluidité du delivery pour des produits tels que : modèles prédictifs, NLP/LLM, automatisation IA, cas d’usage data métier. Lever les irritants organisationnels et techniques pour fluidifier la production. Suivre et faire progresser les indicateurs d’équipe : vélocité, qualité, DORA metrics, etc. Coach agile auprès des équipes et des parties prenantes métier. Partenaire du Product Owner pour clarifier le backlog, préparer les sprints, sécuriser le périmètre. Contribuer à la cohésion, la motivation et la montée en compétence de l’équipe.
Mission freelance
Consultant(e) – Étude de Faisabilité Finance Data
Lùkla
Publiée le
API
Cloud
High Level Design (HLD)
1 an
Marseille, Provence-Alpes-Côte d'Azur
Contexte : Dans le cadre d’un projet Groupe, nous recherchons un(e) consultant(e) pour réaliser une étude de faisabilité visant l’intégration des données financières des terminaux dans les Finance Datamarts Groupe . Le périmètre couvre les processus : Accounts Payable (AP) Accounts Receivable (AR) General Ledger (GL) L’environnement est multi-ERP (IFS, SAP, Sage, Navision…) avec une gouvernance décentralisée et des niveaux de maturité hétérogènes. Objectifs de la mission : Le consultant interviendra exclusivement sur une phase d’étude et d’aide à la décision , incluant : Analyse des processus financiers des terminaux Cartographie des ERP et des flux de données Évaluation de la qualité et de la cohérence des données Analyse des architectures et patterns d’intégration (batch, API, cloud-to-cloud) Étude des aspects gouvernance, sécurité et conformité Définition de scénarios de faisabilité (2 à 3 options) Recommandation finale de type Go / No Go Livrables attendus : Analyse fonctionnelle détaillée Cartographie des systèmes et data Schémas d’architecture de haut niveau (HLD) Scorecards de faisabilité Analyse des risques et plans de mitigation Rapport final consolidé Support de comités de pilotage
Offre d'emploi
DATA ENGINEER GCP
Peppermint Company
Publiée le
Apache Spark
Google Cloud Platform (GCP)
Hadoop
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre d’un projet stratégique de transformation data, nous recherchons un Data Engineer orienté développement , capable d’intervenir sur une migration d’envergure d’Azure vers GCP . 🛠️ Missions principales Participation active à la migration des pipelines data d’Azure vers GCP Développement et optimisation de traitements data Conception d’architectures data robustes et scalables Collaboration avec les équipes data et métiers Contribution aux bonnes pratiques data engineering 🔧 Stack technique Google Cloud Platform (GCP) – niveau confirmé requis Apache Spark / Scala Hadoop ecosystem Forte orientation développement (profil Data Engineer "DEV")
Offre premium
Mission freelance
Développeur C confirmé (H/F)
FRISBEE PROFILING
Publiée le
C/C++
Dev-C
Développement
12 mois
400-450 €
Paris, France
Nous recherchons pour notre client un développeur C confirmé (H/F) - au moins 8/10 ans d’expérience. Vous évoluerez au sein d’une équipe de développement, sur les systèmes centraux, en charge de la programmation en langage C des projets de la roadmap. Principales tâches : - Assurer la maintenance corrective et évolutive des applications. - Ecrire et tester les parties ou parties des projets confiés. Mission de longue durée, démarrage ASAP, 2 jours de télétravail par semaine possibles une fois l'intégration validée.
Mission freelance
Data Engineer Sénior (Hadoop / Python)
Les Filles et les Garçons de la Tech
Publiée le
Apache Spark
Hadoop
Python
12 mois
150-650 €
Lyon, Auvergne-Rhône-Alpes
Au sein du pôle Big Data d'un grand groupe, l'objectif principal de ce poste est de réaliser et de maintenir les développements nécessaires à l'alimentation du Datalake sur une plateforme Cloudera Hadoop, de mettre en place des extractions de données et d'accompagner les utilisateurs. Rattaché(e) au responsable Big Data, vous évoluerez dans un contexte de production à fortes attentes où la tenue des délais de livraison et le pilotage opérationnel sont primordiaux. Vos principales missions seront les suivantes : Développement et intégration : Prendre en charge les évolutions des données à intégrer et reprendre les développements existants pour l'alimentation du Datalake. Vous développerez également des extractions avec un niveau d'expertise en SQL et créerez des scripts Shell avancés pour l'automatisation. Expertise technique et mentorat : Spécifier techniquement les tâches, fournir des requêtes de référence, effectuer des revues de code et accompagner les collaborateurs juniors, stagiaires ou alternants. Support et accompagnement : Assurer le support de niveau 2, faire appliquer les bonnes pratiques et consignes aux utilisateurs, et rédiger la documentation requise (guides, description de processus). Optimisation et maintenance : Garantir la maintenabilité, les performances et l'exploitabilité de la plateforme en respectant l'utilisation des modèles référencés par la Gouvernance de la Donnée. Vous optimiserez les traitements de la plateforme et ceux des utilisateurs, et mènerez des investigations (reverse engineering) dans une architecture héritée complexe
Offre d'emploi
Business Analyst DATA
OBJECTWARE
Publiée le
Audit
MySQL
1 an
Île-de-France, France
🎯 Contexte Dans le cadre d'un programme de transformation en profondeur de nos référentiels d’entreprise, nous recherchons un Business Analyst DATA Objectif : 👉 Rationaliser les données, moderniser les outils et refondre les processus de construction des produits d’assurance. Le programme comprend plusieurs chantiers : Refonte des modèles de données Refonte des processus internes Décommissionnement / nettoyage des systèmes obsolètes Audit des systèmes existants (documents, bases de données, interfaces techniques) Accompagnement des directions métier dans la digitalisation des processus : Refonte complète du processus de construction d’un produit d’assurance (actuellement basé sur Excel / Word) vers une application digitale transverse. 🎯 Mission Au sein d’une équipe programme (6 personnes, entre MOA et experts IT), le consultant interviendra sur : Animation d’ateliers et accompagnement des directions métier Analyse des référentiels et schémas de données Audit des systèmes existants Collaboration avec les équipes IT et directions métier Participation à la refonte des modèles de données Contribution à la mise en place d’un outil de gestion des processus d’administration des données Propositions de feuilles de route et recommandations 🔹 Compétences techniques Maîtrise SQL Capacité à naviguer dans des schémas de bases de données Connaissance API / ETL Compréhension des flux de données Expérience audit systèmes / analyse documentaire appréciée Si possible : sensibilité à la construction d’interfaces ou d’outillage maison Connaissance d’EBX appréciée mais non obligatoire. 🔹 Compétences fonctionnelles & comportementales Forte capacité de collaboration transverse À l’aise avec les directions métier Capacité à challenger et faire évoluer les pratiques Dynamique, moteur Capacité de synthèse pour la propositions de feuilles de route 🔹 Connaissance métier Connaissance du secteur assurance fortement appréciée Compréhension du cycle de vie produit assurance = vrai plus
Mission freelance
CONSULTANT(E) MOA BI EXPERIMENTE(E)
PROPULSE IT
Publiée le
BI
MOA
24 mois
325-650 €
Paris, France
Descriptif détaillé de la mission : ➢ Identifier, analyser et comprendre les besoins métier, problématiques à résoudre et opportunités à concrétiser. ➢ Conseiller et assister les équipes métier dans la priorisation, la formalisation des besoins et de la recette, les problématiques et les opportunités. Être le référent du métier. ➢ Coordonner les parties prenantes métier et techniques, et accompagner le changement associé (y compris la transition en RUN). ➢ Identifier et proposer, en étroite collaboration avec les équipes Solutions et Business Applications, les solutions data ou reporting qui permettent d'y répondre. ➢ S'assurer que le delivery correspond aux besoins du métier ➢ Contribuer à la documentation de la solution. ➢ Être force de proposition sur les opportunités d'améliorations des solutions. ▪ Environnement technique de la mission : ➢ SSIS / SQL SERVER ➢ IBM COGNOS ➢ TABLEAU ➢ AZURE ▪ Date début de mission : ASAP ▪ Durée estimée de la mission : 3 mois (renouvelables)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3491 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois