Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 123 résultats.
Freelance

Mission freelance
Tech Lead Customer Data Cloud

EBMC
Publiée le
SAP

6 mois
300-600 €
France
Dans le cadre d’un projet digital dans le secteur pharmaceutique, nous recherchons un Tech Lead spécialisé SAP Commerce Cloud afin d’accompagner une équipe projet sur des sujets de développement et d’évolution de la plateforme e-commerce. Le consultant interviendra en tant que référent technique sur le périmètre Commerce Cloud, avec pour mission de structurer les travaux, sécuriser les choix techniques et garantir la qualité des livrables. Il participera également à l’encadrement et à la montée en compétence de consultants, tout en contribuant activement aux activités de conception et de delivery.
Freelance

Mission freelance
Business Analyst Data – Projet ERP International (PeopleSoft) Anglais

Freelance.com
Publiée le
Master Data Management (MDM)
PeopleSoft
PowerBI

1 an
400-480 €
Île-de-France, France
Dans le cadre d’un programme international de transformation ERP, nous recherchons un Business Analyst orienté Data pour accompagner le déploiement d’une solution PeopleSoft dans plusieurs pays (Europe et Amérique du Nord). Vous interviendrez au cœur des enjeux de qualité de données, gouvernance et intégration , avec un rôle clé dans la compréhension des besoins métiers et leur traduction en solutions concrètes. Vos responsabilités incluront notamment : Analyse des besoins métiers et formalisation des exigences data Conduite d’interviews et d’ateliers multi-acteurs (métiers, IT, partenaires) Étude du third-party management (fournisseurs, partenaires…) dans le SI Analyse des processus et des flux de données Contribution à la mise en place d’une gouvernance et d’une stratégie de qualité des données Participation au déploiement international (France, Belgique, Espagne, UK, US, Canada, Italie) Reporting régulier auprès des parties prenantes locales et globales Vous serez également en charge de : Produire les livrables clés (documents de besoins, mapping data, stratégie de validation…) Identifier les risques et opportunités liés aux données Assurer la cohérence, la sécurité et la conformité des données
Freelance
CDI

Offre d'emploi
Business Analyst Data (Assurance Vie / Banque Patrimoniale) H/F

Aleysia
Publiée le
Business Analyst
Data analysis
SQL

12 mois
35k-45k €
130-490 €
Paris, France
Si la Data est pour toi une passion plus qu'une compétence, rejoins notre univers technique qui t'attend de pied ferme avec ce poste de Business Analyst Data (Assurance Vie / Banque Patrimoniale) ! 🚀 Ton challenge si tu l’acceptes : • Recueillir, analyser et formaliser les besoins métiers (finance, risques, conformité…) • Animer des ateliers avec les équipes métier et cadrer les besoins • Concevoir et maintenir les modèles de données • Participer à la mise en place des flux data (ETL / DWH / Data Lake) • Assurer la recette fonctionnelle et garantir la qualité des données • Suivre les anomalies et assurer la cohérence des données • Travailler en méthodologie Agile/Scrum avec les équipes IT et Data
Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
CDI
Freelance

Offre d'emploi
Développeur .Net / Cloud / IA

VISIAN
Publiée le
.NET
.NET CORE
Agent IA

3 ans
40k-45k €
400-550 €
Boulogne-Billancourt, Île-de-France
Le Contexte : Notre client est un acteur français majeur de la communication extérieure et des médias digitaux, présent dans l'intégralité des lieux de vie et de mobilité. Dans le cadre d'un plan de transformation ambitieux initié en 2024, l'entreprise engage une modernisation profonde de son système d'information avec un tournant technologique majeur prévu pour 2026. Le But de la Mission : Directement rattaché à la Direction Tech, vous jouez un rôle clé dans la construction du SI de demain. Votre mission consiste à assurer la transition entre les technologies historiques (Legacy) et une architecture moderne, tout en intégrant l'Intelligence Artificielle de manière industrielle et robuste. Missions Principales : Développement & Modernisation : Concevoir et maintenir des applications en .NET Framework et .NET Core (C#). Stratégie de Migration : Piloter la migration progressive du legacy (WCF, WPF, SSIS) vers des architectures .NET Core modernes. Cloud & DevOps : Déployer des applications sur Microsoft Azure (App Services, Functions, API Management) et optimiser les pipelines CI/CD (GitHub Actions, Docker). IA Industrielle : Intégrer des cas d'usage IA réels en production, avec une maîtrise stricte de la latence, des coûts (FinOps) et de l'observabilité. Architecture & Qualité : Apporter une vision sur les approches micro-services et garantir la qualité du code (tests, revues de code). Profil Recherché : Expérience : Minimum 5 ans en développement .NET (Framework et Core) sur des projets d'envergure. Expertise IA Requise : Vous devez impérativement justifier d'une expérience concrète en mise en production de solutions IA (pas uniquement des POC ou des démos). Vous maîtrisez les limites des modèles (hallucinations, sécurité) et savez les intégrer proprement dans un SI existant. Compétences Techniques : Expert : .NET Core (6/8), C#, SQL Server (T-SQL, SSIS). Avancé : Azure Cloud, Architecture (API REST, DDD/CQRS, Microservices), CI/CD. Intermédiaire : Front-end ( Razor, Blazor ou Angular/React) et Sécurité (OAuth2, Azure AD). Qualités attendues : Rigueur technique et autonomie. Esprit analytique capable de naviguer dans des bases de code legacy volumineuses. Excellente communication pour expliquer des choix techniques à des interlocuteurs métiers.
Freelance
CDI

Offre d'emploi
Expertise IAG / GCP (550€ MAX)

BEEZEN
Publiée le
Agent IA
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Île-de-France, France
La prestation consiste à assurer un rôle de référent technique et méthodologique sur l’IA Générative, avec pour objectif d’industrialiser l’usage des agents intelligents au sein de l’organisation. Elle inclut notamment : Conception de la Plateforme Agentique : Architecture et mise en place d'un environnement permettant le déploiement d'agents autonomes multi-fonctions sur Google Cloud Platform (GCP) . Idéation & Use Cases : Accompagner les directions métiers dans l'identifi cation des cas d'usage à forte valeur ajoutée (automatisation de processus complexes, support client augmenté, analyse prédictive textuelle). Mise en oeuvre & Monitoring : Développer les solutions (RAG avancé, chaînage de modèles, orchestration d'agents) et mettre en place un monitoring strict de la performance Livrables : ●Catalogue des use cases métiers priorisés avec études de faisabilité. ●Architecture technique de la plateforme agentique déployée sur GCP. ●Code source des agents et intégration aux APIs métiers. ●Dashboard de monitoring de la performance et de l'éthique des solutions IAG
Freelance

Mission freelance
Expert SQL Sénior / Data Engineer DBT

Signe +
Publiée le
Google Cloud Platform (GCP)

5 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
🎯 MISSIONS Réaliser la data prep dans le cadre d'un projet d'automatisation des analyses récurrentes Contribuer à l'élaboration d'un cockpit de performance (data prep + data visualisation) Assurer le run quotidien : extraction, automatisation de livrables, création de reporting Renforcer le suivi de performance sur la partie non alimentaire Livrables attendus : Datasets sur BigQuery Classeurs Tableau Analyses + scripts pour le run quotidien 🛠️ ENVIRONNEMENT TECHNIQUE Cloud / Data : GCP, BigQuery Langages / Outils : SQL avancé (gros volumes), DBT Versioning : Git Méthode : Agile / Scrum 👤 PROFIL RECHERCHÉ Expert SQL Senior et/ou Data Engineer DBT confirmé Bac+5 informatique (école d'ingénieur ou université) ou équivalent 7 ans d'expérience minimum en Data Engineering DBT / SQL Expérience retail / grande distribution appréciée Bon communicant, autonome, esprit d'amélioration continue
Freelance
CDI

Offre d'emploi
Développeur BI / .NET (SSIS, SSAS, Azure)

Management Square
Publiée le
.NET
Azure
Azure Data Factory

1 an
50k-55k €
500-550 €
Paris, France
Contexte de la mission Dans le cadre de la modernisation d’un outil interne de pilotage de données financières (type cube décisionnel), une organisation recherche un consultant BI expérimenté pour accompagner la transformation technique et fonctionnelle de cette plateforme. L’outil permet le suivi d’indicateurs clés liés à l’activité (notamment des données financières et opérationnelles) et est utilisé par plusieurs départements métiers. Objectifs de la mission Le consultant interviendra sur plusieurs axes : Migration d’une architecture décisionnelle existante vers des technologies plus modernes Transition vers une plateforme cloud (Microsoft Azure) Enrichissement fonctionnel de l’outil Mise en place de mécanismes d’alerte automatisés Support opérationnel et maintenance évolutive Responsabilités principales 1. Modernisation de l’architecture Migration d’un modèle SSAS multidimensionnel vers un modèle tabulaire Optimisation des performances et des modèles de données Adaptation et migration des flux d’intégration de données (SSIS) Refonte et migration des rapports (SSRS) Déploiement de la solution sur Azure (Analysis Services, Data Factory, SQL Database, etc.) Intégration de nouvelles sources de données via API 2. Évolutions fonctionnelles Développement de nouveaux indicateurs et KPI Amélioration des règles de gestion et des calculs existants Intégration de nouvelles sources de données Extension du modèle de données 3. Mise en place d’un système d’alerting Définition des événements déclencheurs (seuils, anomalies, etc.) Développement de mécanismes d’alertes automatisées (emails, dashboards…) Intégration fluide avec l’écosystème existant 4. Support et maintenance Support applicatif de niveau 2/3 Analyse et résolution des incidents Collaboration avec les utilisateurs métiers Garantie de la stabilité et de la performance de la solution
CDI

Offre d'emploi
CDD Data Analyst Junior F/H (H/F)

█ █ █ █ █ █ █
Publiée le
eFront
Python
SQL

Croix, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Consultant SAP Data Migration (H/F)

Scalesys
Publiée le

1 mois
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
CDI

Offre d'emploi
Data Analyst - Power BI (F/H)

INFOGENE
Publiée le

40k-50k €
Belfort, Bourgogne-Franche-Comté
Dans le cadre du développement et de la valorisation de ses données, notre client recherche un(e) Data Analyst pour accompagner les équipes métiers dans l’analyse, l’interprétation et la mise en valeur des données afin de soutenir la prise de décision, à Belfort. Vos missions : En tant que Data Analyst, vous serez en charge de : Collecter, nettoyer, structurer et fiabiliser les données issues de différentes sources Analyser les données et produire des indicateurs de performance (KPI) pertinents Concevoir et maintenir des tableaux de bord et rapports à destination des métiers et du management Automatiser les reportings et améliorer la qualité des données Collaborer étroitement avec les équipes métiers pour comprendre leurs besoins analytiques Documenter les jeux de données, les modèles et les méthodologies utilisées Participer à l’amélioration continue des processus data
Freelance

Mission freelance
ETL / Data Streaming Project Manager

Comet
Publiée le
Apache Kafka
API
CRM

6 mois
400-570 €
Île-de-France, France
Contexte de la mission Au sein de l’équipe Architecture et Intégration dans un contexte international et multiculturel, vous aurez pour missions principales de gérer et piloter les lignes de services intégration ETL : Talend (Cloud - plate-forme hybridé) et Data Streaming ( Kafka Confluent - Cloud) Objectifs et livrables Le support / suivi / maintenance de l’existant (Projet CRM / Annuaire / PIM) Accompagnement dans la création de nouveaux projets (analyser le besoin des clients, le challenger, cadrage technique : définition d’architecture et conception technique des flux) Piloter l’équipe en Inde (en charge des développements / tests / déploiements) Gérer un plan de charge et proposer des plannings Administration et suivi opérationnel de notre plateforme Talend et des composants On Prem (upgrade, monitoring, résolution de problème ponctuel) Administration et suivi opérationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation pour ces 2 plateformes Etablir, partager et faire partager les bonnes pratiques (configuration / développements …) Compétences demandées Connaissances CRM Salesforces - Élémentaire Talend Data Integration studio V8 - Expert API & format fichier Json, Xml, Csv - Confirmé management équipe - Confirmé Java8+ - Confirmé Linux/Unix - Confirmé KAFKA - Confirmé SQL et Base de données - Confirmé Source management ( Gitlab) - Confirmé Niveau de langue Français - Courant Anglais - Courant
CDI

Offre d'emploi
Data Analyst F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python
SQL

Rennes, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
QA Big Data

KLETA
Publiée le
Big Data
Hadoop

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
Freelance

Mission freelance
Data Migration SAP Expert 550 e par j

BI SOLUTIONS
Publiée le
Data analysis
SAP

2 ans
400-550 €
Île-de-France, France
Data Migration SAP Expert 550 e par j (x7) avec expérience confirmée (5–8 ans), capable de gérer des migrations de bout en bout dans un environnement SAP. +5 ans d'xp Principales missions : Définir et piloter la stratégie de migration des données (DTM) SAP Gérer le nettoyage des données, les KPIs et le suivi qualité Construire et maintenir les templates de migration (mapping, règles, outils…) Piloter les différentes phases : MOCK1, MOCK UAT, Production Load Analyser les défauts et gérer les écarts de méthodologie Accompagner et former les équipes locales (DMEs) Assurer la cohérence globale entre régions et contribuer à l’amélioration continue 550 e par j
Freelance

Mission freelance
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD

12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
4123 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous