Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 409 résultats.
Freelance

Mission freelance
Data Engineer – Scala / Spark - Solution digitale - Paris (H/F)

EASY PARTNER
Publiée le
Apache Airflow
Apache Kafka
Apache Spark

1 an
400-500 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes data, un acteur du secteur digital recherche un Data Engineer pour intervenir sur des problématiques de traitement et d’exploitation de données à grande échelle. Missions Concevoir et maintenir des pipelines de données (batch & streaming) Gérer l’ingestion, la transformation et la qualité des données Développer sur des environnements Big Data (Spark, Kafka) Mettre en place et optimiser les workflows (Airflow) Participer à l’industrialisation des traitements (CI/CD) Collaborer avec les équipes Data, DevOps et métiers Stack technique • Scala / Python / SQL avancé Spark / PySpark, Kafka Airflow (ETL / orchestration) Cloud : Azure et/ou AWS Git, CI/CD
Freelance

Mission freelance
Business Analyst – ALM Treasury Transformation - Paris

Net technologie
Publiée le
ALM
Data quality
Recette

9 mois
Paris, France
Dans le cadre d’un programme stratégique de modernisation du SI ALM Treasury , nous recherchons un(e) consultant(e) pour accompagner la refonte des moteurs de calcul des indicateurs de risque de taux et de liquidité du Banking Book . 🎯 Missions Organisation et coordination des tests UAT des nouveaux moteurs de calcul Validation des modélisations (échéanciers, positions optionnelles, P&L, taux de cession interne) Contribution aux contrôles de Data Quality Coordination du déploiement des solutions en France et à l’international Animation d’ateliers métiers & coordination avec les équipes IT Suivi des roadmaps et dépendances projets 📌 Contribution possible à la rédaction de Business Requirements (≈20%).
Freelance

Mission freelance
Développeur Senior Java / AWS – API & Cloud

Axysse
Publiée le
AWS Cloud
Java
Spring

1 an
450-550 €
Île-de-France, France
Dans le cadre du renforcement d’une plateforme digitale stratégique , nous recherchons un Développeur Senior Java / AWS pour contribuer au développement et à l’évolution d’un ensemble d’API exposant des données métiers à grande échelle. Vous interviendrez au sein d’une équipe agile expérimentée , dans un environnement technique moderne, avec une forte culture d’ownership et de qualité logicielle. 🎯 Vos responsabilités Au sein de l’équipe produit, vous participerez activement à la conception et au développement des services : Concevoir et développer de nouvelles fonctionnalités sur des API REST Participer à la conception technique et à l’architecture des services Développer et maintenir des applications Java / Spring hébergées sur AWS Analyser et corriger les anomalies (bug fixing) Réaliser des tests unitaires et contribuer à la qualité du code Participer aux rituels Agile / Scrum Contribuer aux revues de code et à l’amélioration continue Produire la documentation technique Les équipes fonctionnent selon le principe “You build it, you run it” , avec une responsabilité forte sur la qualité et la maintenabilité des services. 🧰 Environnement technique Indispensable Java (niveau senior) Spring / Spring Boot Conception de solutions techniques complexes API REST Cloud AWS Apprécié JavaScript (NestJS, Angular) Architecture microservices Méthodologies Agile / Scrum
CDI
Freelance

Offre d'emploi
Builder Azure / DevSecOps Data

VISIAN
Publiée le
Azure
Azure DevOps
CI/CD

1 an
Paris, France
L’objectif de la mission est de concevoir, bâtir et sécuriser l’architecture cloud Azure d'un prototype Energy Management System (EMS), tout en préparant une industrialisation future sans dette d’architecture. Missions Concevoir et déployer l’architecture Azure du prototype EMS, incluant : Ingestion IoT & streaming temps réel (Azure IoT Hub, Event Hubs, Eventstream Microsoft Fabric RTI) Traitement temps réel & validation qualité (Eventstream processors, KQL Databases, Quality gate asynchrone < 10s) Stockage différencié (RAW, VALIDATED / CERTIFIED, OneLake & intégration Fabric) Observabilité, sécurité et traçabilité (Azure Monitor, Log Analytics, diagnostics, métriques temps réel, audit de bout en bout) Mettre en œuvre des patterns event-driven & streaming adaptés aux workloads IoT / EMS. Construire une plateforme data temps réel et sémantiquement gouvernée avec Microsoft Fabric, RTI & Fabric IQ : Conception des pipelines (ingestion, enrichissement, filtrage, routing, persistance temps réel) Exploitation des KQL Databases pour agrégations temps réel, détection d’anomalies, corrélation d’événements Mise en place d’actions automatiques via Activator (alertes, workflows) Contribution à la modélisation des entités métier, règles de qualité fonctionnelle et états opérationnels Préparation de l’intégration d’agents intelligents sur données temps réel Assurer la mise en œuvre DevSecOps & Infrastructure as Code : Infrastructure en IaC (Terraform ou Bicep) Pipelines CI/CD (GitHub Actions / Azure DevOps) Gestion des environnements (dev / acc / prod), secrets (Key Vault), identités managées, RBAC, policies Azure Intégration des garde-fous sécurité dès le prototype (least privilege, chiffrement, audit, gouvernance Fabric & Purview) Développer la plateforme data : APIs, streams, endpoints temps réel Microservices de traitement événementiel en Python et/ou Node.js / TypeScript Composants de normalisation et validation qualité, règles métier temps réel, intégration de modèles d’IA (Azure ML) Respect des contraintes fortes : latence end-to-end < 10 secondes, fiabilité, idempotence, gestion des erreurs & backpressure Produire un socle simple, robuste et consommable avec environnements reproductibles et documentés Réaliser des démonstrations régulières à destination des parties prenantes métier et techniques Outils & Environnement Cloud & Architecture : Azure IoT Hub, Azure Event Hubs, Microsoft Fabric RTI, Fabric IQ, OneLake Traitement & Stockage : Eventstream processors, KQL Databases (Eventhouse), Azure Functions, Azure Container Apps Observabilité & Sécurité : Azure Monitor, Log Analytics, Key Vault, RBAC, Managed Identity, policies Azure DevSecOps & IaC : Terraform (préféré) ou Bicep, GitHub Actions, Azure DevOps Développement : Python, Node.js, TypeScript Modélisation & Qualité métier : Fabric IQ, règles métier, qualité fonctionnelle et technique Automatisation : Activator (alertes, workflows) IA & Data Science : Azure Machine Learning (optionnel)
Freelance

Mission freelance
PMO Data

Codezys
Publiée le
Animation
Data management
Gouvernance

12 mois
330-430 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre de ses programmes de transformation stratégique, notre organisation souhaite renforcer la mise en œuvre de ses initiatives « data ». À cet effet, nous recherchons un PMO expérimenté afin d’assurer l’animation opérationnelle des équipes plateformes. La mission consiste à coordonner et suivre l’ensemble des travaux liés à la mise en œuvre des attendus « data », en veillant à la conformité avec les enjeux de gouvernance et d’architecture data. Le candidat idéal devra posséder une solide expertise en architecture data et gouvernance , afin d’accompagner efficacement les équipes dans la réalisation des objectifs stratégiques. Type de mission : Temps plein Démarrage : Dès que possible Objectifs et livrables Management de la backlog d'évolution : Assurer la priorisation, la gestion et la coordination des évolutions nécessaires pour la plateforme data en alignement avec les objectifs du programme. Animation des rituels de suivi par plateforme : Organiser et animer les réunions régulières afin de faire le point sur l’avancement, identifier les risques et coordonner les actions correctives. Reporting au directeur de programme : Élaborer des rapports synthétiques et précis pour suivre l’état d’avancement, les enjeux et les résultats des travaux en cours auprès de la direction.
Freelance

Mission freelance
Préparation des données industrielles (BOM, gammes, postes, articles) en vue de la bascule vers SAP

Mon Consultant Indépendant
Publiée le
Data management
Gestion de projet

6 mois
500-540 €
Paris, France
Finalité de la mission : Dans le cadre de la mise en place du projet SAP, recherche d'une expertise Méthodes / Logistiques / Data analyst afin de : • Supporter l’équipe dans la structuration et la migration des données de production, méthodes, et logistique usine, entre notre système actuel M3 et notre futur système SAP S/4HANA • Garantir la fiabilité, la cohérence et la qualité des données de production et des « Master Data » dans SAP Missions principales : Gestion & fiabilisation des Master Data Production : • Participer à la revue des Master Data de production (nomenclatures (BOM), gammes de production, postes de charge, fiches article et vues MRP). • Vérifier que les données techniques sont complètes pour permettre la création et l’exécution correcte des OF (BOM active, gamme active, UM cohérentes, conversions d’unité, stratégies MRP…). • Garantir l’intégrité des données utilisées par la planification (MRP) et la logistique interne (PSA, staging, stockage). • Vérification de la cohérence du paramétrage interne à SAP en lien avec les règles de gestion définies • Contribuer en appui du BPO et du Data Manager à l’homogénéisation sur le paramétrage des Data entre usines (exemple pour la sous-traitance de production) • Coordonner et être en soutien du nettoyage des données sources avec les usines et les méthodes • Vérifier la cohérence des données de production vis-à-vis des règles de gestion établies • Participer à la constitution des fichiers de création, de migration et de chargement des données en lien avec notre Data Manager • Proposer éventuellement des améliorations ou des ajustements dans nos choix métiers en cours de définition pour ensuite correction lors de la phase des tests Support & gouvernance data : • Aider à la rédaction des SIT en particulier sur les données de Production, des Méthodes et de la Logistique Usine • Participer à la définition du dictionnaire de données et des règles de gouvernance. • Formaliser pour la Production et les Méthodes, et la Logistique Usine les règles de création, modification des Master Data et des données production à l'aide de procédures
Freelance
CDI

Offre d'emploi
Consultant SAP Data Migration (H/F)

Scalesys
Publiée le

1 mois
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
Freelance

Mission freelance
Data Engineer

Signe +
Publiée le
Deep Learning
MLOps
Python

6 mois
400-480 €
Toulouse, Occitanie
Nous recherchons pour l'un de nos clients un Data Engineer. Missions : En tant que Data Engineer, vous serez en charge de : Concevoir, développer et maintenir des data pipelines robustes et scalables en Python Collecter, transformer et valoriser de grands volumes de données Mettre en œuvre des traitements géospatiaux et 3D (GDAL, PDAL ou équivalents) Participer à l’industrialisation des modèles de données dans des environnements MLOps (MLflow, Kubeflow) Orchestrer les workflows data via des outils tels que Argo ou Prefect Déployer et exploiter les solutions dans des environnements Docker / Kubernetes Intervenir sur des plateformes Cloud (AWS, GCP ou Azure) Collaborer étroitement avec les équipes Data Science, DevOps et Métiers Participer aux bonnes pratiques data : qualité, performance, sécurité et observabilité
CDI

Offre d'emploi
Chef/Directeur de Projet Data (Sénior) - Lyon

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Business Analyst

50k-65k €
Lyon, Auvergne-Rhône-Alpes
Rôle transversal positionné entre les équipes métier, les équipes Data Engineering, les Data Analysts/Modelers et les sponsors projets, vous intervenez sur : Des programmes Data d’envergure (Data Lakehouse, modernisation BI, Data Governance, MDM, Analytics avancés). Des environnements Cloud (Azure, GCP, AWS) et des architectures modernes (Data Mesh, Datavault). Des enjeux de pilotage projet, de cadrage fonctionnel et d’accompagnement à la transformation Data. En tant que Senior (+8 ans), nous attendons de vous : Une grande autonomie et capacité à sécuriser un projet ou un périmètre. Une forte expérience en gestion de projets Data complexes. Une capacité à accompagner les équipes, structurer les pratiques et diffuser la culture Data. Une maîtrise avancée des méthodologies de modélisation (3NF, Étoile/Flocon, Data Mesh…), des pipelines ETL/ELT, et des outils BI.
Freelance

Mission freelance
Lead Data H/F

CELAD
Publiée le

1 an
450-500 €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Lead Data H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez dans un environnement Data structuré, organisé en squads, avec des enjeux forts autour de la gouvernance, de la qualité et de la valorisation des données. En lien étroit avec les équipes Data (Data Engineers / Data Analysts) et les métiers, vous jouez un rôle clé dans le pilotage des initiatives Data et dans le déploiement des bonnes pratiques de gouvernance et de conformité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Piloter et animer les travaux Data en coordination avec les équipes Data et les métiers - Collecter, prioriser et organiser les besoins Data des squads - Assurer le suivi de la mise en œuvre des solutions Data - Participer au cadrage des projets et garantir le respect du cadre Data (gouvernance, protection, BI) - Accompagner les équipes sur les sujets de Data Management et de Data Privacy (RGPD) - Animer les échanges et assurer un reporting régulier auprès des parties prenantes
CDI

Offre d'emploi
Lead Data H/F

CELAD
Publiée le

Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Lead Data H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez dans un environnement Data structuré, organisé en squads, avec des enjeux forts autour de la gouvernance, de la qualité et de la valorisation des données. En lien étroit avec les équipes Data (Data Engineers / Data Analysts) et les métiers, vous jouez un rôle clé dans le pilotage des initiatives Data et dans le déploiement des bonnes pratiques de gouvernance et de conformité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Piloter et animer les travaux Data en coordination avec les équipes Data et les métiers - Collecter, prioriser et organiser les besoins Data des squads - Assurer le suivi de la mise en œuvre des solutions Data - Participer au cadrage des projets et garantir le respect du cadre Data (gouvernance, protection, BI) - Accompagner les équipes sur les sujets de Data Management et de Data Privacy (RGPD) - Animer les échanges et assurer un reporting régulier auprès des parties prenantes
Freelance
CDI

Offre d'emploi
un Intégrateur OPS Distribution H/F

NITROLABZ By SYNC-DIGITALS SAS
Publiée le
Ansible
AWS Cloud
Gitlab

6 mois
Annecy, Auvergne-Rhône-Alpes
NITROLABZ : Nous sommes une entreprise innovante spécialisée dans le développement de solutions IT pour les marchés financiers. Nous accompagnons nos clients dans la transformation digitale de leurs systèmes, avec un focus sur la performance, la sécurité et la continuité des services en ligne. Notre culture repose sur l’innovation, la collaboration et l’excellence technique. Nous cherchons a recruter pour le compte d'un de nos clients un Intégrateur OPS Distribution H/F CETTE OPPORTUNITÉ N'EST PAS OUVERTE À L'INTRODUCTION SUR TERRITOIRE Contexte et mission Au sein de la direction des systèmes d’informations, tu es en charge du déploiement, de la configuration et de la validation des applications et infrastructures de la plateforme de distribution. Tu assures la continuité et la qualité des environnements, de la recette à la production, en garantissant sécurité et robustesse. Ton rôle concret • Accompagner les équipes SI Distribution dans les recettes projets et l’analyse des anomalies sur tous les environnements. • Préparer et fournir les documents de mise en production et les spécifications d’ordonnancement en collaboration avec le pôle projet. • Déployer les nouvelles versions et correctifs, en contrôlant l’intégrité et la performance des environnements. • Définir et exécuter des tests techniques sur les nouvelles versions et correctifs. • Valider les changements de bases de données et superviser leur intégration. • Automatiser les chaînes applicatives (CTRL-M) et rédiger les spécifications associées. • Réaliser des tests de charge et de robustesse sur les composants et la plateforme. • Mettre en place la supervision nécessaire pour l’exploitation des nouvelles fonctionnalités. • Planifier et gérer le patch management pour garantir la stabilité et la sécurité de la plateforme.
Alternance

Offre d'alternance
12 month apprenticeship – data science

█ █ █ █ █ █ █
Publiée le
Python
SQL

Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Analyst F/H (H/F)

█ █ █ █ █ █ █
Publiée le
Python
SQL

52k-57k €
France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Alternance - Data Analyst H/F

█ █ █ █ █ █ █
Publiée le
Python
SQL

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
QA Big Data

KLETA
Publiée le
Big Data
Hadoop

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
2409 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous