L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 015 résultats.
Offre d'emploi
DATA STEWARD CRM / DATA GOVERNANCE H/F
Savane Consulting
Publiée le
60k-75k €
Seine-et-Marne, France
Contexte du poste : Nous recherchons un Data Steward afin d’intervenir au sein de la Direction Commerciale, dans le cadre du déploiement d’un CRM Sales. Vous interviendrez sur un périmètre stratégique (offres commerciales, contrats, produits) avec un enjeu clé autour de la migration, de la qualité et de la gouvernance des données. Vous intégrerez un programme structurant avec des jalons majeurs à court terme, où la qualité des données sera déterminante pour la réussite des mises en production. Votre rôle sera central pour assurer la fiabilité, la structuration et la valorisation des données métiers, en lien étroit avec les équipes commerciales, la DSI et les équipes projet CRM. Missions principales : Piloter la migration des données vers le CRM (stratégie, mapping source/cible, fichiers d’import) Formaliser les cycles de vie des référentiels (contrats, campagnes, produits) Consolider les impacts liés aux évolutions des applications (décommissionnement, couplage SI) Animer des ateliers métiers pour accompagner les changements de pratiques Définir et mettre en œuvre les règles de qualité des données (complétude, cohérence, fraîcheur) Mettre en place le monitoring de la qualité (Power BI ou équivalent) Produire les supports de formation liés aux bonnes pratiques data Contribuer au catalogage des données dans Collibra Documenter les référentiels et les univers de données (offres, contrats, produits) Définir les règles de gouvernance de la donnée avec les parties prenantes Assurer le suivi continu de la qualité des données Documenter les impacts des évolutions des référentiels sur le SI Produire les reportings et bilans de suivi
Mission freelance
Data analyst SENIOR
MLMCONSEIL
Publiée le
Python
6 mois
100-470 €
Nantes, Pays de la Loire
Recherche d'un data analyst SENIOR : Tâches Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning
Offre d'emploi
Data Scientist – IA (F/H)
K-Lagan
Publiée le
Big Data
Data science
IA
1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet en Data & IA donnait un vrai sens à votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets innovants où la Data et l’Intelligence Artificielle sont au cœur de la transformation des entreprises. Aujourd’hui, nous recherchons un·e Data Scientist – IA (F/H) pour rejoindre l’un de nos clients dans un environnement stimulant et orienté innovation. 🔍 Contexte Vous interviendrez sur des projets à forte valeur ajoutée, visant à exploiter la donnée pour améliorer la prise de décision, automatiser des processus et développer des modèles prédictifs . Vous évoluerez au sein d’équipes pluridisciplinaires dans un environnement agile. 🎯 Missions Concevoir, développer et déployer des modèles de Machine Learning / IA Analyser et exploiter des volumes de données complexes Participer à la définition des cas d’usage Data & IA Mettre en production les modèles et suivre leur performance Collaborer avec les équipes Data Engineering, BI et métiers Assurer la qualité, la robustesse et la fiabilité des modèles Contribuer à l’ amélioration continue des solutions IA
Offre d'emploi
Data Analyst fonctionnel
OCTOGONE
Publiée le
Modélisation
Recette
2 ans
Île-de-France, France
Contexte V1 d’un grand projet dont la finalité est l’enregistrement et la publication des actes et déclarations, GESFIE a pour objectif de remplacer une application existante, mais obsolète : FIDJI Le palier 1 de GESFIE dont la mise en production est fixée en T1 2029 propose 3 modules : un module d’enregistrement, un module de comptabilité et un module pilote. Par la suite, d’autres modules seront accueillis au sein de GESFIE. Description Rédaction de spécifications fonctionnelles détaillées en cycle en V : CU, IHM, Contrat de services , modélisation fonctionnelle Rédaction de compte rendu suite à ateliers fonctionnels avec des partenaires Rédaction de guides utilisateurs Rédaction de notes de problématique, de notes de déploiement (…) Elaboration de cahiers de tests fonctionnels dans le cadre de la recette Sélection des jeux d’essai Conception de matrices de couverture Livrables spécifications fonctionnelles détaillées compte rendu guides utilisateurs notes de problématique, de notes de déploiement (…) Préparation à la recette fonctionnelle : cahiers de tests fonctionnels avec jeux d’essais, Matrice de couverture
Mission freelance
Data analyst SENIOR
MLMCONSEIL
Publiée le
Python
6 mois
100-470 €
Nantes, Pays de la Loire
Recherche d'un data analyst SENIOR : Tâches Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning
Offre d'emploi
Data Engineer GenAI / Databricks
UCASE CONSULTING
Publiée le
AWS Cloud
Databricks
GenAI
1 an
40k-45k €
400-710 €
Île-de-France, France
Bonjour à tous 😀 🎯 Contexte : Dans le cadre du développement de ses capacités en Intelligence Artificielle Générative , nous recherchons un Data Engineer spécialisé sur Databricks pour intervenir sur des cas d’usage innovants à forte valeur ajoutée. Le poste combine des enjeux de data engineering, machine learning et mise en production dans un environnement moderne. 🛠️ Missions principales Concevoir et développer des modèles de Machine Learning (GenAI) Collecter, préparer et exploiter les données Développer des pipelines d’ingestion et de transformation Assurer la mise en production et le monitoring des modèles (MLOps) Intervenir sur des sujets d’architecture RAG et fine-tuning Conseiller sur les choix techniques et les cas d’usage 🧩 Environnement technique Python / SQL / Pandas Databricks Machine Learning / Deep Learning (LLM, Transformers) Architectures GenAI (RAG, fine-tuning) Cloud AWS MLOps
Mission freelance
Data Steward
Signe +
Publiée le
BI
12 mois
400-420 €
Mérignac, Nouvelle-Aquitaine
Dans le cadre d'un programme de transformation numérique, le Data Steward interviendra sur la refonte d'un SI documentaire dans le secteur de l'énergie ( Socle GED ). Missions principales Structuration et maintien du Modèle d'Organisation des Métadonnées (MOM) Construction des glossaires métiers documentaires et modèles de données Pilotage de la qualité des données et des indicateurs associés Mise en place des lignages de données Appui à la préparation à la migration du socle GED Identification et cadrage de cas d'usages Data / IA documentaires (OCR, NLP, GenAI) Profil recherché Intitulé : Data Steward Expérience : 5 à 7 ans Compétences techniques requises Data Stewardship et gouvernance de la donnée (confirmé) Modélisation de données et maîtrise du SQL Data Management, MOM Outils : JIRA, Confluence, MEGA HOPEX, Microsoft Power BI
Mission freelance
Expert Looker Core (BI & Big Data)
Nicholson SAS
Publiée le
Big Data
BigQuery
Google Cloud Platform (GCP)
4 mois
700-900 €
Paris, France
Nous recherchons un Expert Looker pour accompagner l'un de nos clients majeurs dans le secteur du transport aérien, dans le cadre d'une étude stratégique sur ses outils de Dataviz.📋 Détails de la mission Démarrage : 04/05/2026 Durée : Jusqu'au 31/08/2026 (Visibilité sur Octobre 2026) Localisation : Paris ou Toulouse (Rythme hybride selon politique site) Expertise attendue : +5 ans d’expérience 🎯 Enjeux et Missions Au sein de la plateforme Data & AI Technology , vous interviendrez sur l'évaluation de Looker comme futur standard de Dataviz du Groupe (contexte de migration Cloud). Vos responsabilités : Accompagnement de POCs : Développement et support aux métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique sur l'architecture, la sécurité et l'optimisation FinOps . Formation & Pédagogie : Acculturation des utilisateurs métiers et échanges techniques avec les équipes IT (Ops, Architectes). Évaluation stratégique : Analyser la capacité de l'outil à répondre aux besoins d'analyses Ad-hoc, aux enjeux d'IA (Conversational Analytics) et au remplacement de solutions existantes (SAP BO, Spotfire). 🛠️ Compétences Requises Looker Core (Indispensable) : Maîtrise parfaite de l'outil (Note : Looker Studio est hors scope). Ecosystème GCP : Excellente maîtrise de BigQuery et du SQL . Culture Data : Compréhension des enjeux de migration "Data Move To Cloud". Soft Skills : Excellent relationnel, capacité à vulgariser des sujets complexes et pédagogie. Langues : Anglais courant (contexte international). Bonus : Une maîtrise de Power BI est un plus apprécié. 💰 Conditions financières TJM Paris : 900 € (selon profil) TJM Toulouse : 700 € (selon profil)
Mission freelance
Data Engineer / Data Platform Engineer (H/F)
INFOGENE
Publiée le
Data Engineering
Finance
Python
6 mois
Paris, France
Contexte Dans un environnement financier exigeant, CFM souhaite moderniser et fiabiliser son système de gestion des prix de marché (equities, futures, bonds, IRS…). Le système actuel, basé sur des infrastructures legacy, manque de visibilité, de performance et de robustesse, rendant les opérations complexes et peu fiables pour les équipes support et data. Objectif de la mission Concevoir et développer une plateforme centralisée de gestion et de visualisation des prix , permettant de suivre l’ensemble du cycle de vie des données et d’améliorer les opérations quotidiennes. Missions principales Concevoir une architecture cible scalable et robuste Développer une API Python exposant les données de prix et leur cycle de traitement Implémenter des services backend pour : suivi des statuts des prix gestion des événements et anomalies opérations en masse (validation, rejet, reprocessing) Mettre en place des interfaces utilisateurs : dashboard opérateur interface d’administration visualisation des workflows et historiques Améliorer la traçabilité des données (origine, transformation, blocages) Optimiser les performances et la gestion des volumes Documenter les solutions et accompagner les équipes
Offre d'emploi
Consultant SAP Data Migration (H/F)
Scalesys
Publiée le
1 mois
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
Offre d'alternance
Analytics Engineer/Data Analyst (f/m/d) - Data Pricing - Alternance
█ █ █ █ █ █ █
Publiée le
Git
Python
SQL
Fierville-les-Parcs, Normandie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Expert Power Platform (Power Apps / Power Automate / SharePoint)
DEKIMO EXPERTS
Publiée le
Power Platform
6 mois
Bruxelles, Bruxelles-Capitale, Belgique
Expert Power Platform (Power Apps / Power Automate / SharePoint) Nous recherchons un Expert Power Platform capable d’accompagner la transformation et la modernisation d’environnements collaboratifs SharePoint, avec une forte expertise sur les solutions Microsoft 365 et les workflows métiers. Le candidat interviendra sur des projets de migration et de refonte de flux existants développés sous Nintex dans des environnements SharePoint On-Premise vers des solutions modernes basées sur SharePoint Online et la Power Platform. Analyser et comprendre les workflows et processus métiers existants sous SharePoint On-Premise et Nintex Concevoir, développer et maintenir des solutions Power Platform : Power Apps, Power Automate, Microsoft Forms Reproduire et optimiser les flux existants dans un environnement SharePoint Online Participer aux ateliers de recueil des besoins métiers Assurer la documentation technique et fonctionnelle des solutions mises en place Garantir la qualité, la performance et la maintenabilité des développements Accompagner les utilisateurs dans l’adoption des nouveaux outils et processus
Offre d'emploi
Technical Business Analyst Senior – Market Data to Data & Migration Plateforme Analytics (Trading)
Avanda
Publiée le
Business Analyst
Data analysis
2 ans
Paris, France
Avanda est une société de conseil en services professionnels basée en Suisse. Nous recherchons actuellement un(e) Analyste Métier Technique Senior pour rejoindre notre équipe internationale chez notre client final mondial dans la région de Zurich. Il s'agit d'une opportunité à long terme (le projet s'étend jusqu'en 2028). Le travail à distance est accepté, avec une présence sur site toutes les 4 à 6 semaines. Vous intégrerez un programme pluriannuel de migration de données de marché vers une plateforme Data & Analytics dans le secteur du Trading. En tant qu'Analyste Métier Technique, vous apporterez votre soutien au Chef de Projet et aux responsables de chantiers sur les sujets techniques et métier liés à la migration, avec un focus sur la réconciliation, la validation, l'ingénierie des exigences et le déblocage des équipes techniques lorsqu'un contexte métier ou risque est nécessaire. VOS RESPONSABILITÉS Traiter les sujets de réconciliation entre les sources de données de marché legacy et la nouvelle plateforme, et les conduire jusqu'à la validation formelle avec les parties prenantes métier et risque Recueillir et clarifier les exigences auprès des utilisateurs métier et risque, et les traduire à destination des équipes techniques fédérées Accompagner les utilisateurs métier sur les problématiques de données et servir de pont avec les équipes techniques Débloquer les équipes techniques sur les questions métier ou risque en suspens Soutenir le Chef de Projet dans le suivi des actions techniques, le suivi des points ouverts et les clarifications avec les parties prenantes
Offre d'emploi
Consultant Data & Transformation ERP sur Haut de france: Marquette Lez Lille
EterniTech
Publiée le
ERP
Microsoft Dynamics
Microsoft Excel
3 mois
Hauts-de-France, France
Mission :Transition Excel / ERP & Data Gouvernée Localisation :Haut de France: Marquette Lez Lille Démarrage : Asap Jours obligatoires sur site : 3 jours/semaine 3 mois de mission pour le moment Contexte: Je cherche pour un de mes client un Consultant Data & Transformation ERP sur Haut de france: Marquette Lez Lille Dans le cadre de notre transformation numérique et du déploiement de notre ERP (Microsoft Dynamics 365 Business Central / Tegos), nous accompagnons nos équipes métiers dans l’abandon progressif des fichiers Excel au profit d’un pilotage structuré, automatisé et fiable de la donnée. L’enjeu est double : • Remplacer les usages Excel existants (reporting, suivi opérationnel, analyses) • Rendre les équipes autonomes via des outils intégrés (modes analyses ERP, Microsoft Power BI) tout en garantissant une gouvernance des données robuste et pérenne. Vos missions 1. Cadrage & compréhension des besoins métiers • Recueillir et analyser les usages actuels Excel (reporting, KPI, fichiers critiques) • Identifier les écarts entre pratiques actuelles et standards ERP • Challenger les besoins pour éviter la reproduction à l’identique des Excel 2. Migration et transformation des usages • Reprendre les données issues des fichiers Excel existants • Structurer et fiabiliser les données dans l’ERP • Concevoir des restitutions directement exploitables via : o Modes analyses de l’ERP (Business Central / Tegos) o Tableaux de bord sous Microsoft Power BI 3. Automatisation & industrialisation • Supprimer les retraitements manuels Excel • Mettre en place des flux automatisés (exports, datasets, rafraîchissements) • Garantir la cohérence et la traçabilité des données 4. Accompagnement au changement • Former les utilisateurs métiers aux nouveaux outils • Construire des supports pédagogiques adaptés (guides, cas concrets) • Accompagner la montée en compétence vers plus d’autonomie 5. Gouvernance & qualité de la donnée • Définir des règles de gestion et de structuration de la donnée • Mettre en place des bonnes pratiques (référentiels, naming, contrôles) • Être garant de la cohérence entre usages métiers et modèle ERP Soft skills clés • Forte capacité à vulgariser des sujets data auprès de non-experts • Posture de business partner avec les équipes opérationnelles • Esprit critique (ne pas reproduire les Excel existants sans les challenger) • Autonomie, pragmatisme, sens du terrain • Capacité à embarquer et convaincre dans un contexte de changement Objectifs de la mission • Réduction significative de l’usage des fichiers Excel critiques • Mise en place de reportings fiables et automatisés • Adoption des outils ERP / BI par les métiers • Montée en autonomie des utilisateurs • Structuration d’une gouvernance data pérenne
Offre d'emploi
Ingénieur DevOps Azure (secteur luxe)
ASTRELYA
Publiée le
Azure
Azure Kubernetes Service (AKS)
CI/CD
Paris, France
Astrelya est un cabinet de conseil franco‑suisse en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Composé de 300 experts passionnés, le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, du cadrage à la mise en production, avec une expertise reconnue en Data/IA, Cloud, DevOps et méthodes agiles. Notre modèle repose sur la proximité, la confiance et une culture humaine forte, où les collaborateurs sont au cœur de la création de valeur. Votre mission Dans le cadre du développement de nos activités, nous recherchons un(e) DevOps Engineer expérimenté(e) pour intervenir chez l’un de nos clients, acteur majeur du secteur du luxe. Concrètement, vous allez : Concevoir, déployer et maintenir des infrastructures Cloud Azure Industrialiser les environnements via Terraform (Infrastructure as Code) Orchestrer et gérer des clusters Kubernetes (AKS) Mettre en place et améliorer les pipelines CI/CD Garantir la performance, la sécurité et la scalabilité des plateformes Collaborer étroitement avec les équipes de développement et d’architecture Votre futur environnement technique : Microsoft Azure Kubernetes (AKS) Terraform CI/CD (Azure DevOps, GitHub Actions…) Bonne culture DevOps & automatisation
Offre d'emploi
Data Ingenieur Python
CHARLI GROUP
Publiée le
Apache Kafka
ELK
Python
3 ans
Paris, France
Ingénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5015 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois