Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 877 résultats.
Freelance

Mission freelance
SAP Tech Lead BTP / Integration & Data Conversion

Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA

2 ans
Versailles, Île-de-France
Nous recherchons un SAP Tech Lead BTP / Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de piloter techniquement les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: Gérer techniquement le travail autour de SAP BTP, Integration Suite, APIs et l'interfaçage avec les systèmes legacy. • Définir et sécuriser les solutions d'intégration : APIs, événements, fichiers, middleware et sécurité des échanges. • Superviser les activités de conversion de données : mappage source/cible, règles de transformation, qualité, reprises et basculement. • Contribuer à la mise en œuvre de sujets critiques et soutenir les équipes projet sur les normes techniques. • Produire des recommandations de gouvernance d'architecture et de développement en ligne avec les principes Clean Core. Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec mappage, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes.
CDI
Freelance

Offre d'emploi
Consultant SAP Data Migration (H/F)

Scalesys
Publiée le

1 mois
55k-75k €
700-1 200 €
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
Freelance

Mission freelance
Data Scientist Senior

NEOLYNK
Publiée le
Python
SQL

3 mois
400-500 €
Lille, Hauts-de-France
Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques.
Freelance

Mission freelance
DATA MESH PLATFORM MANAGER

Codezys
Publiée le
Azure
Cloud
Data governance

12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Freelance
CDI

Offre d'emploi
Data analyste - Montpellier / Nantes / Paris

VISIAN
Publiée le
Microstrategy
PowerBI

3 ans
47k-50k €
500-530 €
Montpellier, Occitanie
Contexte Au sein d’une Direction Data d’un grand groupe du secteur bancaire, vous intégrez un chapitre dédié à l’accompagnement des équipes métiers dans la valorisation de la donnée. Vous intervenez dans un environnement multi-sites, en lien étroit avec des squads produit, des équipes marketing et des directions métiers, avec un fort enjeu de pilotage business et de transformation digitale par la data . Missions Recueillir et analyser les besoins métiers en collaboration avec les équipes Business, PO et BA Traduire les besoins en KPI pertinents pour le pilotage des activités Exploiter les données issues du SI décisionnel / marketing Réaliser des analyses exploratoires et produire des indicateurs fiables Concevoir et maintenir des tableaux de bord décisionnels (reporting, data visualisation) Restituer les analyses aux équipes métiers et accompagner la prise de décision Présenter les résultats dans des instances (comités, réunions métiers) Participer à l’amélioration continue des pratiques data Contribuer à des sujets de tracking digital et analyse marketing (parcours utilisateurs, performance digitale) Livrables KPI métiers (définition, calcul, documentation) Tableaux de bord décisionnels Analyses exploratoires et études data Restitutions visuelles et supports de présentation Recommandations business basées sur la donnée Environnement technique Data visualisation : MicroStrategy (ou Power BI / Tableau) SQL (niveau expert) Base de données : Teradata Environnement décisionnel / data marketing
Freelance
CDI
CDD

Offre d'emploi
Data Quality Analyst senior

FIRST CONSEIL
Publiée le
BigQuery
Data quality
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Île-de-France, France
Au sein d'une équipe composée de data analysts intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer, analyser et documenter les données du data warehouse du groupe; Contribuer à l’amélioration de la qualité du data warehouse : mettre en place le plan d’action défini sur 2026 : contrôles, monitoring et alerting Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. Notre stack data : GCP, BigQuery, Python, Looker Studio Profil recherché Formation : Diplôme de niveau BAC +4 à 5, en école d’ingénieurs ou université spécialisé en statistiques, data science, informatique décisionnelle ou data management ; Langues : Français et Anglais courant exigés ;
Freelance

Mission freelance
Chef de projet IT / métier - Niort

Signe +
Publiée le
Clarity
Cycle en V
JIRA

6 mois
430-460 €
Niort, Nouvelle-Aquitaine
Contexte de la mission 🔺Mission de longue durée 🔺3 jours sur site obligatoire/ semaine 🔺Minimum 10 ans d'expérience en gestion de projet IT et Métier dans des domaines variés Vos principales missions sont les suivantes : 1.Cadrer et organiser : * Cadrer, structurer et organiser chaque étape du projet (Cadrage, Réalisation, Déploiement) Prendre en compte les contraintes du Groupe et identifier les impacts du projet Définir les moyens nécessaires à la mise en œuvre du projet (budgets, ressources, techniques, Change, ... ) * Constituer l'équipe projet en fonction des compétences nécessaires * Préparer le passage en mode RUN 2.Animer : * Manager fonctionnellement l'équipe projet * Planifier les tâches nécessaires à la production des livrables (outil CLARITY) * Animer les travaux de chaque étape du projet, des études et des diagnostics selon le contexte du projet (outil JIRA) 3.Suivre l'avancement : * Détecter, qualifier les risques et mener le plan d'action associé * Détecter et coordonner les dépendances externes au projet * Garantir le respect de l'application de la méthodologie retenue pour le projet * Mesurer l'avancement des tâches et des livrables * S'assurer du respect du budget et des jalons clé 4.Rendre compte et communiquer : * Préparer et animer les instances de pilotage et formaliser les décisions & plans d'actions * Escalader vers les instances ad hoc en fonction de la situation * Proposer des décisions aux instances de pilotage ad hoc et les décliner en plan d'actions * S'assurer de la bonne communication du projet : ' avec les instances de pilotage du projet ' au sein de l'équipe projet ' auprès des autres Directions en lien avec le projet (métiers, utilisateurs, ...) Les livrables projet à produire sont référencés sur les sites Macif et AMM (DODSI et PMO).
CDI
Freelance

Offre d'emploi
Responsable RUN/Data

OBJECTWARE
Publiée le
Master Data Management (MDM)

3 ans
40k-78k €
400-590 €
Île-de-France, France
Objectif de la mission Profil technico fonctionnel : Suivi du RUN et gestion des incidents Conception d'achitecture applicative Conception technique Maitrise des batchs Stratégie de test et test fonctionnel Garantie du bon fonctionnement des applications, leur maintenabilité et leur évolutivité Réponse et analyse aux incidents Env technique : - APIs Rest et Web Services SOAP - Applications web en java - Base de données Oracle - XML - Ordonnanceur control-M - ETL Informatica - Git - Outils : service now, JIRA, … - Un plus : MDM EBX Tibco et MDM Semarchy
Freelance

Mission freelance
POT9076 - Un Chef de Projet/ Data - Success factor à IDF

Almatek
Publiée le
API

6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients ,Un Chef de Projet/ Data - Success factor à IDF Compétences (1 à 3) : • Gestion de projet 2 • Conception de test 2 • analyse de données 3 • rédaction de contrat d’interface 2 définition de stratégie de recette 2 • Coordination d’acteur 2 • excel 3 • Administration fonctionnelle de Success factor module EC 3 • Outil de requêtage de base de données 3 • Supervision des traitements batch 2 Missions : Stabilisation des interfaces EC => • Analyse et correction des erreurs. • Suivi quotidien des flux (API, IC, middleware). • Mise en qualité des échanges de données. Optimisation des flux SF ? middleware => • Audit des interfaces existantes. • Simplification et amélioration des mappings / règles. Accompagnement à l’implémentation de nouvelles interfaces => • Rédaction des specs techniques. • Coordination IT / middleware. • Tests et support post go-live.
CDI

Offre d'emploi
Senior Master Data Project Manager H/F (CDI)

Zenith Rh
Publiée le

Hauts-de-Seine, France
Dans un contexte de forte croissance et d'acquisitions internationales, nous recrutons un Senior Master Data Project Manager en CDI. Rattaché(e) à une équipe de 3 personnes, vous aurez pour mission de piloter les projets structurants liés aux données de référence tout en assurant un support business de haut niveau. Missions principales : Pilotage de projets : Cadrer, piloter et assurer la mise en place de projets Master Data complexes (intégration d'acquisitions, harmonisation de flux). Expertise SAP MDM : Garantir l'intégrité et la qualité des données au sein de l'environnement SAP MDM. Support Business International : Accompagner l'ensemble des pays du groupe dans leurs problématiques de gestion de données. Amélioration continue : Identifier les axes d'optimisation des processus de maintenance et de gouvernance des données.
Freelance
CDI

Offre d'emploi
Business Data Analyst Pré‑Trade Énergie & Commodities

WHIZE
Publiée le
Big Data
Finance

3 ans
Paris, France
Le Business Analyst Pré‑Trade intervient au cœur des activités Front‑to‑Middle sur les marchés de l’énergie (électricité, gaz, pétrole, émissions, garanties d’origine). Il accompagne les desks trading dans l’analyse, la structuration et l’évolution des processus pré‑trade, ainsi que dans la gestion et la qualité des données de marché. Ses missions couvrent l’analyse fonctionnelle, la compréhension des produits énergie, la modélisation des données, et l’amélioration continue des systèmes ETRM/CTRM. Le rôle est orienté trading, opérationnel et data , sans dimension Risk. Missions principales Analyser les besoins des desks Power, Gas, Oil, Emissions et Renewables. Étudier les mécanismes des marchés spot, intraday, day‑ahead, balancing et dérivés énergie. Documenter et optimiser les workflows pré‑trade : saisie d’ordres, enrichissement, contrôles, validation. Analyser les contract features des produits énergie : profils horaires, règles de livraison, indexations, contraintes physiques. Structurer et fiabiliser les market data énergie : prix spot/forward, courbes, données fondamentales, données issues des plateformes (EPEX, ICE, NordPool…). Comprendre et documenter le fonctionnement de l’ order book : profondeur, liquidité, matching. Réaliser des analyses data (SQL, Python) et produire des dashboards pour les équipes trading. Rédiger des spécifications fonctionnelles (user stories, règles métier, mapping de données). Participer aux phases de tests (UAT, non‑régression) et accompagner les utilisateurs lors des déploiements.
CDI

Offre d'emploi
Data Analyst / Développeur C# - Python – secteur bancaire (F/H)

CELAD
Publiée le

38k-43k €
Dijon, Bourgogne-Franche-Comté
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 1 jour de télétravail / semaine - Dijon (21) - Expérience de 4 ans minimum Vous aimez comprendre ce que racontent vraiment les données… et surtout les transformer en décisions concrètes ? Si vous cherchez juste à faire des dashboards… ce poste ne va pas vous intéresser. En revanche, si vous aimez travailler sur de gros volumes de données , avec des enjeux bancaires concrets (clients, fraude, pilotage) , vous allez rapidement voir l’impact de votre travail. Vous intervenez dans un environnement où la data est au cœur des décisions. Pourquoi on a besoin de vous ? L’équipe se renforce pour mieux exploiter les données issues du système d’information bancaire commun. Objectif : transformer des données complexes en analyses utiles pour les équipes métier (finance, risques, marketing…). Ce que vous allez faire concrètement : 1/ Vous explorerez les données pour répondre à des questions concrètes Vous travaillerez sur des données clients, des opérations bancaires, des indicateurs de performance ou encore des sujets liés à la fraude et à la conformité. Par exemple, vous pourrez être amené à : - identifier des comportements inhabituels dans les flux bancaires ; - comprendre pourquoi un indicateur métier évolue ; - aider une équipe à mieux connaître ses clients ; - produire des analyses utilisées pour piloter l’activité. 2/ Vous utiliserez SQL pour analyser de gros volumes de données Vous interrogerez les bases de données afin d’extraire, croiser et fiabiliser les informations. L’objectif n’est pas seulement d’écrire des requêtes, mais de faire parler la donnée pour aider les métiers à décider plus vite et plus justement. 3/ Vous développerez en C# et Python pour automatiser et fiabiliser les traitements Vous utiliserez C# et Python pour : - automatiser certaines analyses ; - construire ou améliorer des traitements de données ; - rendre les analyses plus robustes et plus rapides ; - industrialiser ce qui fonctionne pour éviter les retraitements manuels. 4. Vous construirez des modèles de données exploitables Vous structurerez les données pour qu’elles soient plus simples à utiliser. Concrètement, vous créerez des modèles permettant aux équipes métier de retrouver rapidement la bonne information, sans dépendre à chaque fois d’un traitement spécifique.
Freelance

Mission freelance
Senior Data Engineer AWS

Celexio
Publiée le
PySpark
Python
Terraform

3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
Freelance

Mission freelance
DATA ENGINEER DDL ( profil habilitable)

Signe +
Publiée le
Python

12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
CDI

Offre d'emploi
Expert Data & Cloud Azure (H/F)

Amiltone
Publiée le
Azure
Cloud

40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, nous recherchons un Expert Data & Cloud Azure : Objectifs de la mission - Migrer une application data existante vers une architecture cloud Azure moderne - Améliorer les performances, la sécurité et la supervision - Mettre en place des pipelines data robustes et automatisés - Garantir la fiabilité et la maintenabilité de la solution Responsabilités principales - Analyser l'existant et définir l'architecture cible sur Azure - Concevoir et implémenter des pipelines ETL / ELT avec Azure Data Factory / Fabric - Migrer les données et traitements Oracle vers le cloud - Mettre en place les bonnes pratiques DevOps (CI/CD) via GitLab et/ou Azure DevOps - Assurer la supervision des flux et plateformes (monitoring, logs, alertes) - Implémenter les mécanismes de sécurité (RBAC, chiffrement, conformité) - Moderniser et automatiser les scripts et traitements legacy - Rédiger la documentation technique et accompagner le transfert de compétences Compétences techniques requises - Excellente maîtrise de Microsoft Azure - Azure Data Factory / Fabric - Services data et intégration cloud - Forte expérience en migration de solutions data vers le cloud - Expertise confirmée sur bases de données Oracle - Bonne connaissance des pratiques CI/CD et DevOps - Expérience en supervision et sécurisation d'applications cloud
Freelance

Mission freelance
Data analyst GCP (H/F) - 94

Mindquest
Publiée le
Google Cloud Platform (GCP)

4 mois
110-480 €
Ivry-sur-Seine, Île-de-France
Dans le cadre de la mise en conformité réglementaire liée à la Facturation Électronique, notre client lance un chantier stratégique d'assainissement et d'analyse de données. L'enjeu est de garantir que les référentiels (Produits, Fournisseurs, Taxes) et les flux financiers sont prêts pour les nouvelles exigences légales. En tant que Data analyst vos missions seront de : * Analyse Exploratoire : Investiguer et manipuler des données brutes pour en extraire de la valeur et identifier les anomalies de structuration. * Audit de Conformité : Vérifier l'alignement des référentiels produits et fournisseurs avec les exigences de la facturation électronique (TVA, SIRET, règles de facturation). * Architecture & Flux : Concevoir et maintenir des pipelines de données via des API, Cloud Run ou Cloud Functions. * Analyse d'Impact : Réaliser des analyses croisées complexes entre les flux logistiques (Retail) et les flux financiers/comptables. * Pilotage : Concevoir des rapports et indicateurs sous Looker Studio pour monitorer l'avancement de la mise en conformité.
2877 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous