L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 179 résultats.
Mission freelance
Data Engineering Manager (Bordeaux)
Publiée le
AWS Cloud
6 mois
400-750 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Libourne près de Bordeaux, je suis à la recherche d'un Expert Data Engineering Manager. Contexte et mission : Le client accélère sa transformation en matière de données et d'IA et structure son organisation autour d'un modèle opérationnel à deux équipes : • Équipe Produits de données (orientée vers les activités, axée sur la valeur). • Équipe Ingénierie des données (fourniture, exploitation et mise en œuvre de la plateforme). Il recherche donc un responsable Ingénierie des données expérimenté pour diriger l'équipe Ingénierie des données pendant une phase de transition critique. La mission couvre trois objectifs parallèles : • Mettre en place la future plateforme de données cible, dont la pile est actuellement en cours de validation et devrait être basée sur Databricks ou Snowflake sur Microsoft Azure. • Migrer progressivement les piles de données existantes vers la nouvelle plateforme. • Réaliser les projets commerciaux et clients en cours, à la fois sur les piles existantes et sur la nouvelle plateforme, sans perturber les opérations Ce poste exige un leadership fort et une grande discipline d'exécution. Responsabilités principales : • Diriger et gérer l'équipe d'ingénierie des données (équipe interne et partenaires externes). • Être responsable de la livraison, de la capacité et des performances opérationnelles sur les plateformes existantes et cibles. • Garantir la fiabilité, les performances, l'évolutivité et l'optimisation des coûts • Structurer et piloter le démarrage de la plateforme de données cible. • Planifier et exécuter la migration progressive de la pile existante vers la pile cible. • Assurer la livraison des projets commerciaux et clients en cours sur les deux piles. • Définir et appliquer les normes et les méthodes de travail en matière d'ingénierie des données. • Servir d'interface principale avec les parties prenantes des produits de données, de l'architecture et de l'informatique. • Soutenir et habiliter les équipes locales client Data sur les piles technologiques de données.
Mission freelance
Data Manager / Data Quality Lead H/F
Publiée le
Data governance
6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Manager / Data Quality Lead H/F Description de la mission: Contexte & Mission L’entreprise renforce son organisation Data afin de délivrer des produits data fiables et de confiance à l’échelle du Groupe. Au sein de la Data Product Squad , l’entreprise recherche un(e) Data Manager / Data Quality Lead expérimenté(e) pour lancer et structurer le chantier Data Quality , identifié comme un point de douleur majeur et une priorité stratégique . L’objectif principal de cette mission est de construire, piloter et opérationnaliser la Data Quality , en étroite collaboration avec les Business Data Owners et la Data Engineering Squad . Objectifs clés La mission s’articule autour de quatre objectifs principaux : Identifier et structurer les Data Domains , et animer la communauté des Data Owners Définir et piloter la roadmap Data Quality , en priorisant les jeux de données et domaines à corriger en premier Mettre en place le pilotage et les outils de Data Quality , incluant les indicateurs de qualité et le reporting sur le data drift Coordonner les Data Owners et la Data Engineering Squad afin d’assurer des corrections de données efficaces et durables Responsabilités principales Identifier les Data Domains et formaliser les responsabilités (Data Owners, Data Custodians) Animer, fédérer et structurer la communauté des Data Owners Évaluer les problématiques actuelles de qualité des données et leurs impacts métiers Définir, maintenir et prioriser la roadmap Data Quality Définir les règles de Data Quality , KPI et indicateurs Déployer ou paramétrer les outils de Data Quality (monitoring, alertes, reporting, détection de dérive) Reporter l’état de la Data Quality , les risques et l’avancement auprès des parties prenantes Compétences & Expérience requises Expérience confirmée en tant que Data Manager / Data Quality Lead dans des organisations complexes Expérience de travail étroite avec des Data Owners métiers Expérience avec des outils de Data Quality (monitoring, contrôles, métriques, détection de dérive) Excellentes capacités de facilitation , de coordination et de communication Capacité à conduire le changement sans autorité hiérarchique Profil senior requis (autonome, structuré, pragmatique) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Offre d'emploi
Responsable Data
Publiée le
Big Data
Data governance
2 ans
66k-74k €
400-750 €
92200, Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Responsable Opérationnel·le Data Governance — Organisation Nationale du Secteur Culturel & Numérique Objectif de la mission Piloter et structurer la gouvernance des données au sein d’une organisation disposant d’un patrimoine data riche et sensible. Garantir la qualité, la cohérence et la conformité des référentiels et des flux utilisés par les métiers et la DSI. 🛠️ Missions principales1. Animation et structuration de la Gouvernance des Données Assurer le rôle de référent opérationnel sur l’ensemble des sujets Data Governance. Préparer et animer les instances liées à la gouvernance des données et à la qualité. Contribuer à la définition, au suivi et à l’actualisation de la feuille de route data. Harmoniser les pratiques et garantir la cohérence des actions entre équipes métiers, IT et rôles data. 2. Pilotage des responsabilités et rôles Data Maintenir la cartographie des rôles (Data Owners, Stewards, référents IT). Coordonner les différents acteurs pour assurer une gouvernance fluide et continue. 3. Gestion et valorisation du Catalogue de Données Superviser l’enrichissement, la mise à jour et la validation du catalogue de données. Garantir la cohérence des métadonnées et l’accessibilité de l’information pour les utilisateurs internes. 4. Qualité, conformité et contrôle des données Participer à la validation des tableaux de bord liés à la qualité. Identifier les écarts entre modèles logiques et implémentations physiques. Contribuer aux audits internes de conformité des référentiels et au suivi des plans de remédiation. Sensibiliser les équipes aux bonnes pratiques de qualité et de protection des données. 5. Contribution à l’architecture et à l’urbanisation Data Apporter une vision data lors des cadrages fonctionnels de projets. Contribuer à l’alignement des architectures applicatives/fonctionnelles avec les principes de gouvernance. Participer aux travaux de modélisation des flux et des objets métiers. Favoriser la simplification et la rationalisation du système d’information.
Offre d'emploi
Data Quality Analyst
Publiée le
Data governance
Data quality
1 an
40k-45k €
400-610 €
Paris, France
Télétravail partiel
Mission La mission du Data Office s'est fortement enrichie avec la promotion de l'utilisation de la DATA par l'ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de l'organisation et du Groupe. L'objectif est de développer l'activité commerciale, de diminuer les couts, d'améliorer l'efficacité opérationnelle et de répondre à la dimension règlementaire. La mission est au sein de l'équipe Data Office Data Quality. L'activité de cette équipe porte sur le développement, l'amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l'écosystème de l'organisation et sur l'accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion..)
Mission freelance
Senior Data Scientist Python / ML / LLM / Agentic AI
Publiée le
Large Language Model (LLM)
MLOps
Python
12 mois
400-550 €
Paris, France
Télétravail partiel
Contexte Développement de solutions IA avancées pour le projet du client Missions Concevoir, entraîner et optimiser des modèles ML et LLM Implémenter des architectures Agentic AI Industrialiser les modèles (MLOps, monitoring, performance) Collaborer avec les équipes produit et tech Garantir la robustesse et l’éthique des modèles en production Profil recherché 10+ ans d’expérience en data science Excellente maîtrise de Python et des frameworks ML Expérience réelle de LLM et Agentic AI en production Forte capacité d’abstraction et de vulgarisation Experience en IA / AI en production ANGLAIS ASAP
Offre d'emploi
Data Analyst Manager – Qualité des données
Publiée le
Data cleaning
Data quality
SQL
2 ans
40k-59k €
460-550 €
Île-de-France, France
Télétravail partiel
📌 Contexte Dans le cadre d’un programme structurant de transformation digitale , nous recherchons un Data Analyst Manager pour piloter la qualité des données tout au long des phases de conception, migration et mise en production des systèmes cibles. 🎯 Missions principales 1. Définition et structuration de la qualité des données Identifier et anticiper les critères de qualité au niveau des sources Définir les standards et règles de qualité par objet de données Rédiger les spécifications des scripts de contrôle qualité Garantir la cohérence des critères avec les domaines de données 2. Data profiling, remédiation et contrôle qualité Mettre en œuvre les actions de data remédiation avant, pendant et après migration Déployer et exploiter des outils de data profiling Réaliser les tests de qualité sur les données corrigées Suivre et maintenir les KPIs de qualité des données 3. Coordination et collaboration transverse Travailler avec les équipes métiers pour la définition des règles de qualité Collaborer avec les équipes techniques pour l’implémentation Assurer la passation et le suivi auprès des data managers Contribuer au mapping des objets et attributs source → cible
Mission freelance
Data Scientist Senior
Publiée le
Google Cloud Platform (GCP)
Python
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Mission freelance
Architecte Data Gouvernance
Publiée le
Architecture
Data governance
Data integrity
12 mois
550-650 €
Île-de-France, France
Télétravail partiel
Le ou la Responsable opérationnel(le) Data Gouvernance joue un rôle central dans l’animation, la mise en œuvre et le pilotage opérationnel de cette gouvernance, en lien étroit avec les métiers, la DSI et les acteurs data. Objectifs de la mission Assurer la mise en œuvre et le pilotage de la gouvernance des données au sein de l’organisation, en garantissant la qualité, la conformité réglementaire et la cohérence des référentiels et des flux de données. Missions principales1. Animation de la gouvernance des données Assurer le rôle de référent(e) opérationnel(le) en matière de gouvernance des données. Planifier, préparer et animer le Comité de Gouvernance Data. Contribuer à la construction, au pilotage et au suivi de la feuille de route Data. Organiser et animer les comités Qualité des Données (QDD) avec les entités concernées. Garantir l’alignement des actions entre les équipes métiers, les équipes IT et les différents rôles data. 2. Gestion des responsabilités et des rôles data Maintenir et faire évoluer la cartographie des responsabilités data (Data Owners, Data Stewards, référents IT). Coordonner les acteurs afin d’assurer la cohérence, la continuité et l’efficacité de la gouvernance des données. Accompagner la montée en maturité des rôles data au sein de l’organisation. 3. Gestion du Catalogue de Données Piloter la mise à jour, l’enrichissement et la validation du Catalogue de Données. Garantir l’accessibilité, la lisibilité et la cohérence des métadonnées. Promouvoir l’usage du catalogue auprès des équipes métiers et IT. 4. Qualité, conformité et audit des données Participer à la validation des tableaux de bord Qualité des Données (QDD). Identifier les écarts entre la modélisation logique et les implémentations physiques. Piloter les audits de conformité des référentiels de données. Contribuer à la définition, au suivi et à la priorisation des plans de remédiation. 5. Contribution à l’architecture d’entreprise Évaluer les impacts data, référentiels et flux lors des phases de cadrage fonctionnel des projets. Contribuer à la définition des architectures fonctionnelles et applicatives en cohérence avec les principes de gouvernance des données. Participer aux travaux de cartographie (domaines de données, objets métiers, dépendances entre systèmes). Modéliser ou contribuer à la modélisation des flux de données (fonctionnels, logiques et applicatifs). Appuyer les décisions d’urbanisation visant à simplifier, rationaliser et pérenniser le système d’information. Compétences requisesCompétences techniques et fonctionnelles Gouvernance des données (prioritaire) Expertise en data governance, data management et qualité des données. Maîtrise des référentiels de données, outils de catalogage, gestion des métadonnées et indicateurs QDD. Bonne connaissance des enjeux réglementaires et de conformité, notamment le RGPD. Architecture d’entreprise (complémentaire) Compréhension des principes d’architecture d’entreprise et d’urbanisation des SI (TOGAF ou équivalent apprécié). Capacité à analyser, challenger et formaliser des architectures fonctionnelles, applicatives et data. Compétences en modélisation des données, des processus métiers et des flux inter-applicatifs. Compétences comportementales Excellentes capacités de communication, avec un sens pédagogique affirmé. Aptitude à fédérer et coordonner des acteurs métiers et techniques aux enjeux variés. Rigueur, organisation, autonomie et sens du travail transverse. Capacité à vulgariser des sujets techniques auprès de publics non experts. Expérience Minimum 5 ans d’expérience en Data Governance, Data Management ou pilotage de projets data. Expérience en architecture fonctionnelle ou urbanisation du SI fortement appréciée. Expérience confirmée dans l’animation de comités et la coordination d’acteurs multiples. Rattachement et interactions Rattachement hiérarchique : SDG – Stratégie Digitale et Gouvernance. Interactions principales : équipes métiers, DSI, Data Stewards, Data Owners, architectes d’entreprise, équipes projets. Profil recherché Nous recherchons un(e) professionnel(le) senior de la data, reconnu(e) pour sa capacité à structurer, piloter et faire vivre une gouvernance des données à l’échelle d’une organisation complexe. Le ou la candidat(e) idéal(e) dispose d’une solide expertise en data governance et data management, complétée par une bonne compréhension des enjeux d’architecture d’entreprise et d’urbanisation du système d’information. Il ou elle sait évoluer dans des environnements transverses, multi-acteurs et réglementés, et jouer un rôle de facilitateur entre les métiers et l’IT. Doté(e) d’un excellent sens relationnel, le ou la Responsable opérationnel(le) Data Gouvernance est capable d’animer des instances de gouvernance, de structurer des décisions collectives et d’accompagner le changement avec pédagogie et pragmatisme. À l’aise aussi bien sur des sujets stratégiques que très opérationnels, il ou elle sait prioriser, structurer et sécuriser les enjeux data à fort impact business. Mots-clés Data Governance Gouvernance des données Data Management Qualité des données (Data Quality, QDD) Catalogue de données Métadonnées Référentiels de données RGPD / Conformité réglementaire Data Owners / Data Stewards Pilotage transverse Animation de comités Architecture d’entreprise Urbanisation du SI Modélisation des données Flux de données Architecture fonctionnelle et applicative Transformation data Environnement complexe Coordination métiers / IT
Mission freelance
Data Architect / Engineer Senior – Écosystème IoT & Sport
Publiée le
Architecture
Big Data
3 mois
400-550 €
Lille, Hauts-de-France
ANGLAIS COURANT OBLIGATOIRE Acteur majeur du secteur du sport et de l'innovation depuis plus de 40 ans, nous réinventons constamment le marché grâce à des produits accessibles et technologiques. Notre mission est de rendre les bienfaits du sport accessibles au plus grand nombre via un écosystème numérique complet : coaching virtuel, expériences connectées en magasin, services de location et produits intelligents. Vous rejoindrez une équipe technique de plus de 2 500 experts (ingénieurs, product managers, data experts) répartis entre Paris et Lille, dédiée à répondre aux besoins de 500 millions d'utilisateurs. Contexte de la mission Au sein de la division Connected Sports Platform (CSP) , nous accélérons notre transformation digitale via l'implémentation de solutions IoT. L'équipe Data est au cœur de ces enjeux : elle développe les briques nécessaires à l'ingestion, au stockage et à l'exposition des données échangées entre le cloud, les appareils connectés (vélos électriques, machines de fitness, etc.) et les applications mobiles. Objectifs : Optimiser l'exploitation des données pour la BI, la maintenance prédictive, la détection d'incidents et le design intelligent. Vos responsabilités En tant que Data Architect / Engineer (Freelance) , vous accompagnerez les projets dans leurs choix architecturaux et techniques avec les priorités suivantes : Architecture : Concevoir l'architecture d'ingestion et de stockage des données IoT (directes ou via mobile). Pipeline : Construire des pipelines de données structurées et non structurées scalables. Stratégie Tech : Définir la stratégie des stacks techniques et garantir le CI/CD. Optimisation : Maintenir et refondre les datasets existants pour de nouveaux cas d'usage. Qualité & Gouvernance : Assurer la fiabilité, l'accessibilité et la confidentialité des données (Data Privacy). Standardisation : Définir les standards d'architecture et assurer l'alignement entre la vision technique et les besoins utilisateurs. Profil recherché Expérience : +5 ans en tant que Senior Data Engineer dans un environnement microservices avec échanges de données en temps réel. Expertise Technique : Maîtrise de la modélisation de données, des systèmes distribués et de l'optimisation de requêtes. Stack : Maîtrise de Python (Scala ou Java sont un plus) et des technologies Kafka et Spark . Méthodologie : Culture Agile, GIT, Code Review et Peer Programming. Soft Skills : Excellente capacité de synthèse, communication fluide et esprit d'équipe. Langues : Français courant et anglais professionnel. Le "plus" pour cette mission : Expérience sur l'environnement AWS Big Data (Lambda, Redshift, S3). Expérience confirmée sur des produits IoT ou des appareils connectés. Modalités pratiques Durée : Mission longue durée. Lieu : Paris ou Lille (déplacements ponctuels à prévoir sur Lille si basé à Paris). Télétravail : Rythme hybride (environ 2 jours de télétravail par semaine). Matériel : Choix de l'environnement de travail (Mac, Windows). Compétences clés attendues (Récapitulatif) CompétenceNiveau attenduKafka / Spark Avancé AWS (Lambda, Redshift, S3) Confirmé Data Modeling Confirmé Écosystème IoT Confirmé Data Governance Confirmé
Offre d'emploi
Cloud Data Engineer
Publiée le
Big Data
Cloud
60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Mission freelance
Data Governance Officer
Publiée le
Collibra
Data governance
2 ans
400-620 €
Paris, France
Télétravail partiel
Le Data Office recherche un consultant expérimenté pour accompagner le Head Of Data Office dans l’animation et le déploiement de de cette gouvernance, en lien étroit avec les métiers et l’IT. Objectifs de la mission : • Déployer la gouvernance des données en mode fédéré par data domain. • Renforcer la qualité, la traçabilité et la valorisation des données. • Accompagner les métiers dans l’appropriation des rôles et outils de gouvernance. • Piloter les comités et animer la communauté data. Missions détaillées Connaissance des données : • Documenter les données dans l’outil de gouvernance (DataGo) en collaboration avec les métiers et l’IT. • Structurer le glossaire métier, les objets métiers, les attributs et le lignage fonctionnel et technique. Qualité des données : • Formaliser et documenter les exigences de qualité par domaine. • Définir les indicateurs de qualité, les contrôles et les plans de remédiation. • Accompagner les métiers dans la mise en œuvre et le suivi opérationnel. Usages & valorisation Recenser et documenter les cas d’usage métiers. Gérer le portefeuille des cas d’usage et suivre les gains associés. Contribuer à la priorisation des initiatives data. Acculturation & conduite du changement Animer la communauté data (Data Owners, Stewards, Domain Officers). Produire des supports pédagogiques (guides, newsletters, ateliers). Contribuer à la montée en compétence des métiers sur les enjeux data. Pilotage & gouvernance Organiser et animer le comité de gouvernance des données. Préparer les supports du Comité Stratégie Data. Assurer le suivi des décisions, des plans d’action et des indicateurs de maturité.
Mission freelance
Data Scientist Sénior
Publiée le
Data science
Python
Rédaction technique
18 mois
150-450 €
Paris, France
Télétravail partiel
Contexte : Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Scientist Spécialités technologiques : APIs, Simulation, Optimisation linéaire, Devops MISSIONS Dans le cadre du renforcement d’une équipe dédiée à la modélisation mathématique, le client recherche un Data Scientist Senior (>5 ans d’expérience) pour intervenir sur un ensemble de sujets variés : optimisation, simulation, analyse de performance, développement de modèles et d’outils applicatifs. La prestation s’inscrit dans un environnement comprenant plusieurs applications et modèles, et non un produit unique, nécessitant une forte capacité d’adaptation et une compréhension technique rapide. Le consultant interviendra en tant que référent senior, encadrant un Data Scientist junior et garantissant la qualité méthodologique et scientifique des travaux. Livrables attendus : - Validation des algorithmes d’optimisation. - Approbation des tableaux de bord et outils d’aide à la décision. - Revue critique des recommandations stratégiques. - Validation des rapports d’analyse et des indicateurs de performance. - Documentation des standards de qualité appliqués. Missions détaillées: 1. Encadrement & supervision méthodologique - Accompagnement d’un Data Scientist junior. - Définition des standards méthodologiques, bonnes pratiques et règles de modélisation. - Validation des approches algorithmiques et statistiques. - Orientation des travaux et identification des risques techniques. - Garantie de la cohérence globale des modèles par rapport aux objectifs du programme. 2. Développement & modélisation - Développement Python. - Création d’APIs. - Intégration de modèles. - Manipulation des équations et formalismes mathématiques. Utilisation de la librairie HiGHS (optimisation mathématique) pour : - Gestion des contraintes. - Calculs d’optimisations. - Résolution de modèles linéaires / mixtes. - Capacité à comprendre et implémenter les modèles algorithmiques, pas seulement à les consommer. 3. Contrôle qualité & validation scientifique - Revue de code, audit d’architecture et bonnes pratiques Python. - Vérification de la qualité et de la cohérence des données utilisées. - Validation de la robustesse des modèles prédictifs, d’optimisation ou de simulation. - Challenge technique des résultats, scénarios et hypothèses. - Approbation finale des livrables avant diffusion. 4. Expertise & conseil : - Intervention en tant qu’expert sur les sujets complexes de modélisation. - Recommandations méthodologiques et proposition d’améliorations. - Veille technologique et scientifique sur l’optimisation, les modèles mathématiques et les outils Python. - Capitalisation des bonnes pratiques pour l’équipe. 5. Communication & coordination : - Présentation des validations et recommandations aux parties prenantes. - Interface entre les équipes techniques et la direction projet. - Participation aux comités et instances de pilotage. - Documentation des critères de qualité et des processus de validation. - Contribution à la montée en compétences du Data Scientist junior. Compétences requises : - Expertise en Python : développement d’APIs, structuration de librairies, manipulation d’équations. - Maîtrise de HiGHS ou autre solveur d’optimisation linéaire/quadratique. - Solide bagage scientifique : mathématiques, physique, modélisation, statistiques. - Capacité à travailler sur plusieurs modèles simultanément. - Très bonne communication orale et écrite. - Autonomie forte et posture de référent. Compétences appréciées : - Expérience sur des modèles mathématiques à grande échelle. - Aisance en revue méthodologique et en cadrage scientifique. - Aucun besoin de connaissance fonctionnelle métier spécifique. Expertise souhaitée Data Scientist Senior (>5 ans d’expérience)
Mission freelance
Chef de projet - Carve-in, fusion-acquisition - M&A
Publiée le
Data governance
3 mois
400-650 €
Seine-Saint-Denis, France
Télétravail partiel
Bonjour à tous, Je recherche pour le compte d'un de mes clients, dans le secteur de la distribution B2B, un chef de projet qui va venir assurer une intégration complète des processus et outils de la société rachetée. Le profil doit nécessairement avoir DÉJÀ fait des carves-in, fusion acquisition, M&A Missions principales : 1. Pilotage global du projet d’intégration • Orchestrer et coordonner l’intégration de la société dans la chaîne de publication standard du Groupe. • Définir le plan de transformation (cadrage, étapes clés, roadmap, risques, budgets, dépendances). • Assurer la synchronisation des chantiers fonctionnels et techniques • Superviser la gouvernance de projet, le reporting et les arbitrages auprès des sponsors et directions métier/IT. 2. Cadrage fonctionnel et harmonisation des processus • Cartographier les processus actuels de publication et de gestion produit de la société en question • Identifier les écarts avec le modèle standard et des solutions • Définir les flux cibles, les modèles de données et les interfaces inter-systèmes. • Garantir la cohérence des processus métiers à travers les différents outils. 3. Coordination multi-acteurs et conduite du changement • Fédérer les équipes locales et les équipes centrales autour d’une vision commune. • Organiser et animer les comités, ateliers et points d’avancement (métier, IT, data, publication). • Accompagner les équipes dans la montée en compétence sur les outils et standards Groupe. • Anticiper et gérer les impacts humains, organisationnels et techniques liées à l’intégration. 4. Data & publication : cohérence end-to-end • Garantir la qualité, fiabilité et complétude des données produits tout au long du processus. • S’assurer de l’alignement entre les systèmes • Suivre les indicateurs de performance et d’adoption (KPI qualité data, flux, taux de publication, délais). • Travailler en synergie avec les équipes Data / BI
Mission freelance
Senior Data Scientist IA / LLM
Publiée le
LangChain
Large Language Model (LLM)
Python
12 mois
520-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Senior Data Scientist IA / LLM" pour un client dans le secteur bancaire Description 🚀 Le Contexte : L'ère des Agents Autonomes Dans le cadre du développement de nos solutions de nouvelle génération, nous recherchons un Data Scientist / AI Engineer capable de transformer des modèles de langage (LLM) en agents autonomes et décisionnels. Vous ne vous contenterez pas de faire des appels API simples ; vous concevrez des architectures d'agents complexes capables de raisonner, d'utiliser des outils et de gérer des workflows cycliques au sein d'un environnement Web robuste (Django). 🎯 Vos Missions : Orchestration et Architecture 1. Conception d'Agents avec LangGraph & LangChain : Développer des systèmes d'agents multi-acteurs utilisant LangGraph pour gérer des états complexes et des boucles de rétroaction (cycles). Implémenter des chaînes de traitement modulaires avec LangChain (RAG, mémoires, agents de planification). Optimiser le Prompt Engineering et la structuration des données en sortie (JSON mode, parsing). 2. Intégration et Backend (Django) : Développer les briques Backend sous Django pour exposer les capacités de l'IA via des APIs (REST / WebSockets pour le streaming). Gérer la persistance des états des agents et des sessions utilisateurs dans la base de données Django. Assurer la sécurité et l'authentification des accès aux outils LLM. 3. RAG & Knowledge Management : Mettre en œuvre des architectures de Retrieval Augmented Generation (RAG) performantes. Connecter les agents à des bases de données vectorielles (Qdrant, Pinecone, ou Pgvector) et des sources de données métiers. 4. Évaluation et Fiabilité (LLM Ops) : Mettre en place des protocoles d'évaluation pour mesurer la pertinence des agents (Frameworks type RAGAS ou DeepEval). Monitorer les coûts et les latences des appels aux modèles (OpenAI, Mistral, modèles Open Source).
Mission freelance
DEVIENS #AUTEUR DE VIDEO Hadoop - Stockage et traitement des données
Publiée le
Big Data
Hadoop
4 mois
100-300 €
Saint-Herblain, Pays de la Loire
Télétravail partiel
Nous sommes une maison d'édition spécialisée dans la publication de livres et vidéos autour de l'informatique et de la bureautique. Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre vidéo qui portera sur Hadoop. "Pourquoi pas moi ? Je suis développeur(euse), expert(e) Big Data, ou formateur(trice)... et Hadoop n'a aucun secret pour moi. J’ai envie de partager mon expertise au plus grand nombre ! Participer à la création d'une vidéo me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Vous bénéficierez d'un accompagnement éditorial (sommaire, essai, méthodologie, suivi, montage vidéo...) La rémunération est proposée sous forme de forfait.
Mission freelance
Expert Workday F/H
Publiée le
Big Data
Pilotage
Workday
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 7 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Expert Spécialités technologiques : Data Visualisation, Restitution, Satisfaction client, Sage Protocoles de communication • Projet d’implémentation Workday (ensemble du scope RH, hors payroll) pour la Vague MISSIONS Objectifs : • Sécuriser l’interface Workday – Payroll (Sage) • Supporter l’interface avec notre Active Directory • Pilotage du Build des intégrations qui sera réalisé par le Partner Workday / intégrateur HR Path • Tests • Définition du plan de bascule détaillé en partenariat avec les différentes parties prenantes (IT / Business / Partner, etc.) • Autres activités en lien avec la mise en place d’intégrations avec Workday Expertise souhaitée Profil : • 7 ans d’expérience minimum sur ce poste • Expertise confirmée Workday • Expérience d’intégration avec Workday (Payroll) • Anglophone (ou Germanophone) • Sait collaborer avec plusieurs entités différentes • Sait travailler sous pression (deadline courte) Soft-Skills : • Leadership et esprit d’initiative • Rigueur et sens de l’organisation • Orientation résultats et satisfaction client • Gestion des attentes et des résistances au changement • Capacité à travailler en transversal avec les métiers, la DSI, la sécurité, etc. • Excellente communication écrite et orale
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Création de site Wordpress : BIC ou BNC ?
- Calcul de l'indemnité de la rupture conventionnelle
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Quel logiciel de compta en ligne avez vous choisi et pourquoi ? Avec quel compte pro en ligne ?
- Passage sasu à eurl: transition mutuelle/prévoyance
- Meilleure banque pour compte pro
3179 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois