Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 412 résultats.
CDI

Offre d'emploi
Business Analyst Data

Peppermint Company
Publiée le
Business Analyst
Data management
Développement

Sophia Antipolis, Provence-Alpes-Côte d'Azur
vous interviendrez dans une Business Unit transverse couvrant plusieurs domaines : ✈️ Airline – 🏨 Hospitality – 🚆 Rail La mission s’inscrit dans un programme stratégique autour de la Data Platform (création et structuration d’outils data à grande échelle). 🧩 Missions Recueil et analyse des besoins métiers Rédaction des spécifications fonctionnelles Interface entre équipes techniques et métiers Contribution à la construction de la plateforme data Participation aux ateliers et cadrage fonctionnel Accompagnement des équipes sur les sujets data
Freelance

Mission freelance
Data Engineer – Scala / Spark - Solution digitale - Paris (H/F)

EASY PARTNER
Publiée le
Apache Airflow
Apache Kafka
Apache Spark

1 an
400-500 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes data, un acteur du secteur digital recherche un Data Engineer pour intervenir sur des problématiques de traitement et d’exploitation de données à grande échelle. Missions Concevoir et maintenir des pipelines de données (batch & streaming) Gérer l’ingestion, la transformation et la qualité des données Développer sur des environnements Big Data (Spark, Kafka) Mettre en place et optimiser les workflows (Airflow) Participer à l’industrialisation des traitements (CI/CD) Collaborer avec les équipes Data, DevOps et métiers Stack technique • Scala / Python / SQL avancé Spark / PySpark, Kafka Airflow (ETL / orchestration) Cloud : Azure et/ou AWS Git, CI/CD
Freelance

Mission freelance
Data Architect Databricks Nantes/pa

WorldWide People
Publiée le
Databricks

12 mois
Nantes, Pays de la Loire
Data Architect Databricks Nantes Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…). Prestation de Data Architect •Il définit l’architecture Data pour son périmètre, en fonction des besoins métier, en tenant compte de l’architecture du SI, des règles de gouvernance Data et plus globalement des standards et des communs définis au niveau de son organisation. •Sur la partie Data, il définit les normes et standards en matière de disponibilité, d’intégrité, de confidentialité et de traçabilité dans l'objectif de maximiser la valeur que l’organisation tire de ces données. •C’est lui qui pilote la mise en oeuvre des principes d’architecture Data dans le SI et garantit sa conformité, sa performance, sa pérennité, son adéquation aux besoins métier ainsi que l’optimisation du cycle de vie de la donnée. •Le Data Architect préconise et valide les principes de modélisation des données pour qu’ils soient adaptés aux usages de façon durable. •Il organise la gestion des référentiels Data et facilite leur maintenance. Tâches : •Contribue à l’élaboration de la stratégie Data de la donnée alignée avec la stratégie business et en cohérence avec la roadmap de l’Architecte d’entreprise. •Contribue aux choix technologiques qui portent le cycle de vie de la donnée. •Assure une veille technologique active sur les solutions innovantes et particulièrement en matière de Data et d’IA. •Définit les règles, normes et standards en matière de stockage et de traitement de la donnée. •Coordonne les travaux d’architecture Data et en assure la gouvernance. •Assure la cohérence du modèle Data tout au long du cycle de vie des projets. •Répond aux exigences réglementaires liées à la Data. Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…).
Freelance

Mission freelance
PMO Data

Codezys
Publiée le
Animation
Data management
Gouvernance

12 mois
330-430 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre de ses programmes de transformation stratégique, notre organisation souhaite renforcer la mise en œuvre de ses initiatives « data ». À cet effet, nous recherchons un PMO expérimenté afin d’assurer l’animation opérationnelle des équipes plateformes. La mission consiste à coordonner et suivre l’ensemble des travaux liés à la mise en œuvre des attendus « data », en veillant à la conformité avec les enjeux de gouvernance et d’architecture data. Le candidat idéal devra posséder une solide expertise en architecture data et gouvernance , afin d’accompagner efficacement les équipes dans la réalisation des objectifs stratégiques. Type de mission : Temps plein Démarrage : Dès que possible Objectifs et livrables Management de la backlog d'évolution : Assurer la priorisation, la gestion et la coordination des évolutions nécessaires pour la plateforme data en alignement avec les objectifs du programme. Animation des rituels de suivi par plateforme : Organiser et animer les réunions régulières afin de faire le point sur l’avancement, identifier les risques et coordonner les actions correctives. Reporting au directeur de programme : Élaborer des rapports synthétiques et précis pour suivre l’état d’avancement, les enjeux et les résultats des travaux en cours auprès de la direction.
Freelance

Mission freelance
Tech Lead Customer Data Cloud

EBMC
Publiée le
SAP

6 mois
300-600 €
France
Dans le cadre d’un projet digital dans le secteur pharmaceutique, nous recherchons un Tech Lead spécialisé SAP Commerce Cloud afin d’accompagner une équipe projet sur des sujets de développement et d’évolution de la plateforme e-commerce. Le consultant interviendra en tant que référent technique sur le périmètre Commerce Cloud, avec pour mission de structurer les travaux, sécuriser les choix techniques et garantir la qualité des livrables. Il participera également à l’encadrement et à la montée en compétence de consultants, tout en contribuant activement aux activités de conception et de delivery.
CDI

Offre d'emploi
Data Analyst H/F

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Numpy
Python

45k-55k €
France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
DevSecOps AWS - Lyon

Tenth Revolution Group
Publiée le
AWS Cloud

3 ans
100-500 €
Lyon, Auvergne-Rhône-Alpes
Le DevSecOps contribue à l’intégration de la sécurité au sein du cycle de développement logiciel, tout en pilotant et optimisant les pipelines CI/CD et les environnements techniques. Il intervient sur la mise en place, l’automatisation et la sécurisation des processus de développement, de déploiement et d’exploitation. Il assure également la supervision des plateformes, la gestion des incidents, l’amélioration continue et le soutien aux équipes projets. Ses responsabilités couvrent notamment : L’automatisation du cycle de vie applicatif et l’industrialisation des déploiements L’intégration de solutions de sécurité dans les pipelines CI/CD La gestion et l’évolution des infrastructures Cloud et On‑Premise Le monitoring, l’observabilité et la performance des systèmes Le support aux équipes Dev, Ops et Sécurité La contribution à la qualité, à la fiabilité et à la sécurité des produits numériques
CDI

Offre d'emploi
Chef/Directeur de Projet Data (Sénior) - Lyon

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Business Analyst

50k-65k €
Lyon, Auvergne-Rhône-Alpes
Rôle transversal positionné entre les équipes métier, les équipes Data Engineering, les Data Analysts/Modelers et les sponsors projets, vous intervenez sur : Des programmes Data d’envergure (Data Lakehouse, modernisation BI, Data Governance, MDM, Analytics avancés). Des environnements Cloud (Azure, GCP, AWS) et des architectures modernes (Data Mesh, Datavault). Des enjeux de pilotage projet, de cadrage fonctionnel et d’accompagnement à la transformation Data. En tant que Senior (+8 ans), nous attendons de vous : Une grande autonomie et capacité à sécuriser un projet ou un périmètre. Une forte expérience en gestion de projets Data complexes. Une capacité à accompagner les équipes, structurer les pratiques et diffuser la culture Data. Une maîtrise avancée des méthodologies de modélisation (3NF, Étoile/Flocon, Data Mesh…), des pipelines ETL/ELT, et des outils BI.
Freelance

Mission freelance
Data Migration SAP Expert 550 e par j

BI SOLUTIONS
Publiée le
Data analysis
SAP

2 ans
400-550 €
Île-de-France, France
Data Migration SAP Expert 550 e par j (x7) avec expérience confirmée (5–8 ans), capable de gérer des migrations de bout en bout dans un environnement SAP. +5 ans d'xp Principales missions : Définir et piloter la stratégie de migration des données (DTM) SAP Gérer le nettoyage des données, les KPIs et le suivi qualité Construire et maintenir les templates de migration (mapping, règles, outils…) Piloter les différentes phases : MOCK1, MOCK UAT, Production Load Analyser les défauts et gérer les écarts de méthodologie Accompagner et former les équipes locales (DMEs) Assurer la cohérence globale entre régions et contribuer à l’amélioration continue 550 e par j
Freelance

Mission freelance
Développeur Senior Java / AWS – API & Cloud

Axysse
Publiée le
AWS Cloud
Java
Spring

1 an
450-550 €
Île-de-France, France
Dans le cadre du renforcement d’une plateforme digitale stratégique , nous recherchons un Développeur Senior Java / AWS pour contribuer au développement et à l’évolution d’un ensemble d’API exposant des données métiers à grande échelle. Vous interviendrez au sein d’une équipe agile expérimentée , dans un environnement technique moderne, avec une forte culture d’ownership et de qualité logicielle. 🎯 Vos responsabilités Au sein de l’équipe produit, vous participerez activement à la conception et au développement des services : Concevoir et développer de nouvelles fonctionnalités sur des API REST Participer à la conception technique et à l’architecture des services Développer et maintenir des applications Java / Spring hébergées sur AWS Analyser et corriger les anomalies (bug fixing) Réaliser des tests unitaires et contribuer à la qualité du code Participer aux rituels Agile / Scrum Contribuer aux revues de code et à l’amélioration continue Produire la documentation technique Les équipes fonctionnent selon le principe “You build it, you run it” , avec une responsabilité forte sur la qualité et la maintenabilité des services. 🧰 Environnement technique Indispensable Java (niveau senior) Spring / Spring Boot Conception de solutions techniques complexes API REST Cloud AWS Apprécié JavaScript (NestJS, Angular) Architecture microservices Méthodologies Agile / Scrum
CDI

Offre d'emploi
Développeur Python, C++, Java et Big Data

CELAD
Publiée le

36k-42k €
Bordeaux, Nouvelle-Aquitaine
CDI / Freelance / Portage Salarial - Pas de télétravail - Bordeaux - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Développeur python pour intervenir chez un de nos clients. Vos missions Vous interviendrez sur plusieurs volets : Data & exploitation Gestion des données d’essais dans les outils internes Correction des anomalies de chargement Gestion et suivi de la documentation associée Réalisation de tests sur les évolutions des outils et des formats de chargement Développement & scripting Développement de scripts en Python (obligatoire) Correction de bugs et maintenance des applications existantes Contributions en C++ et/ou Java API & interconnexions Développement et maintien en conditions opérationnelles des API Interconnexion des applications métiers (ex : outils internes, PLM) Participation à l’industrialisation pour limiter le Shadow IT Rationalisation et amélioration des outils existants Innovation & Data avancée Participation à des sujets Big Data Intégration et connexion de LLMs aux outils existants Collaboration avec les équipes client sur les problématiques data
Freelance

Mission freelance
Chef(fe) de projet MO expérimenté(e)

Codezys
Publiée le
Active Directory
Azure
Azure Data Factory

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre de cette mission, le/la consultant(e) intégré(e) à un service structuré en deux équipes : Une équipe AMOA chargée de la gestion quotidienne de la relation client, proche des besoins clients, et proactive dans la proposition d’évolutions de service. Une équipe technique composée de profils variés, couvrant des missions telles que la maintenance en condition opérationnelle (MCO), le support utilisateur et l’ingénierie. Le profil recherché interviendra principalement en tant qu’ingénieur(e) système, notamment pour le développement de nouveaux services, fonctionnalités, automatisations, tout en assurant également le support utilisateur. Dans le cadre de sa mission, la maîtrise des technologies suivantes sera indispensable : Citrix Virtual Apps and Desktop , Cloud Microsoft Azure , Windows 10 & 11 , Windows Server et PowerShell . Objectifs et livrables La mission consiste à assurer l’ingénierie de l’offre de Publication de Postes Virtuels destinée aux clients métiers, ainsi qu’à participer à la conception de nouvelles offres de Postes Virtuels pour d’autres utilisateurs et usages innovants. Missions principales Garantir le bon fonctionnement de la solution et traiter les incidents (support N3) Automatiser les tâches (N1, N2, N3) Proposer des améliorations visant à fiabiliser et optimiser les processus Réaliser des études techniques et concevoir de nouvelles solutions Piloter des projets d’évolution de l’offre Gérer les relations techniques avec des éditeurs, tels que Microsoft et Citrix Systems Livrables attendus Documents techniques et d’études Scripts d’automatisation (par ex. PowerShell) Documentation associée Comptes rendus techniques Support au déploiement des solutions et accompagnement des utilisateurs Cycle de projet Conception et validation (VABF, VSR) Déploiement des solutions Mise en production Maintenance et support Formation et accompagnement des utilisateurs
Freelance

Mission freelance
Developpeur Data Engineer

Freelance.com
Publiée le
Big Data
Snowflake

3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
CDI

Offre d'emploi
Data Analyst - Assurances H/F

VIVERIS
Publiée le

45k-55k €
Crédit Agricole du Languedoc, Occitanie
Contexte de la mission : Viveris accompagne ses clients dans la conception, la maintenance et l'optimisation de leurs infrastructures informatiques. Dans ce cadre, nous recherchons un Data Analyst pour accompagner notre client dans les assurances, dans la transformation des données de télémétrie en indicateurs décisionnels à forte valeur ajoutée. Vous interviendrez en tant que référent analytique sur un périmètre centré sur les environnements Windows 11, avec pour objectif de mesurer, analyser et améliorer l'expérience utilisateur à grande échelle. Responsabilités : Concevoir des tableaux de bord adaptés aux différents niveaux de pilotage (direction, support, exploitation) ; Définir et structurer des KPIs orientés expérience utilisateur (DEX Score, performance, productivité) ; Mettre en place des indicateurs de suivi de la qualité de service et du ROI des actions menées ; Identifier les signaux faibles et anomalies impactant l'expérience utilisateur; Réaliser des analyses de causes racines en croisant données techniques et incidents ; Définir et configurer des mécanismes d'alerte proactifs ;Recueillir les besoins métiers et les traduire en indicateurs mesurables ; Accompagner les équipes support et exploitation dans l'usage des dashboards ; Contribuer à l'amélioration continue des pratiques d'observabilité.
Freelance
CDI

Offre d'emploi
Consultant SAP Data Migration (H/F)

Scalesys
Publiée le

1 mois
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
Freelance
CDI

Offre d'emploi
QA Big Data

KLETA
Publiée le
Big Data
Hadoop

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
2412 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous