Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 431 résultats.
Freelance

Mission freelance
Data scientist Senior

CAT-AMANIA
Publiée le
CI/CD
Jenkins
Python

6 mois
Île-de-France, France
Dans le cadre d'un programme de transformation de l'efficacité opérationnelle (Programme HERA) pour un acteur majeur du secteur de l'Assurance, nous recherchons un profil technique capable d'assurer la mise en production et l'évolution de solutions d'intelligence artificielle. Le projet porte spécifiquement sur l'amélioration des processus financiers via un algorithme existant dédié à l'identification automatique des bénéficiaires au sein de clauses contractuelles libres. Vos responsabilités : Assurer la mise en production (industrialisation) des évolutions algorithmiques. Garantir la fiabilité du code via la mise en place de tests unitaires rigoureux. Optimiser et maintenir les pipelines de déploiement continu (CI/CD). Collaborer à l'amélioration de l'efficacité opérationnelle des flux financiers. Environnement technique : Langage : Python (Expertise requise) DevOps : CI/CD, Jenkins Qualité : Tests unitaires IA : Deep Learning, idéalement connaissances en Conditional Random Fields (CRF)
CDI

Offre d'emploi
Chef de Projet (H/F)

CITECH
Publiée le
Confluence
ITIL
JIRA

60k-70k €
Orléans, Centre-Val de Loire
🚀 CITECH recrute ! 👌 ✨ Vous souhaitez piloter un projet technologique de rupture au croisement de l’ IA Générative et de l’ AIOps ? Rejoignez une mission stratégique pour un grand acteur institutionnel , au cœur de sa feuille de route AIOps 2026 . 💡 Nous recherchons un(e) Chef de Projet IA (H/F) pour orchestrer le déploiement de solutions d’intelligence artificielle innovantes (Agents conversationnels, Analyse d'alertes), visant à transformer les processus de production IT de notre client 🙌🔽 Vos principales missions : 🔽🙌 Pilotage & Cadrage de Projet 🔸 Co-construire la note de cadrage, élaborer la roadmap détaillée et animer le kick-off de la mission. 🔸 Garantir le respect du planning contractuel et la qualité des livrables (obligation de résultat sur les délais). Gouvernance & Coordination 🔸 Organiser et animer les instances de pilotage : Comités de Projet (COPROJ) et Comités de Pilotage (COPIL). 🔸 Assurer l’interface entre les équipes de production, les experts Data/IA et les directions métiers (Sécurité, Juridique). Mise en œuvre des Cas d'Usage 🔸 Superviser le déploiement d'un agent de Support N1 et d'un agent d'analyse intelligente d'alertes. 🔸 Piloter la réalisation du Pilote technique : sélection du périmètre, mesure des performances et aide à la décision pour le passage à l'échelle. Accompagnement & Change Management 🔸 Identifier les risques et alerter sur les limites techniques ou fonctionnelles des solutions IA. 🔸 Piloter le plan de transfert de compétences pour garantir l’autonomie des équipes internes à l’issue de la mission.
Freelance

Mission freelance
consultant confirmé Google Workspace, Data & IA - 1303

ISUPPLIER
Publiée le

10 mois
350-435 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre de sa transformation digitale, notre client recherche un Expert Senior capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA. Le profil recherché est un consultant hybride à haute valeur ajoutée, capable d'administrer l'environnement collaboratif, d'analyser la donnée d'usage (BigQuery/Looker), de développer des solutions d'automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Objectifs et livrables Profil et Compétences Clés Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) : Conception et maintenance de modèles LookML complexes. Élaboration de dashboards de pilotage stratégique pour mesurer l'adoption des outils et la performance des processus métiers. Data Analysis (BigQuery) : Exploitation avancée des données (logs d'audit GWS, données métiers) via requêtage SQL optimisé. Structuration des tables et gestion des coûts de stockage/calcul. Pilotage RSE & Usages : Définition et mise en place d'indicateurs de suivi sur l'infobésité et l'hyperconnexion, en support de la politique de Qualité de Vie au Travail (QVT) et de Sobriété Numérique. Volet IA Générative (Gemini) & Innovation Centre d'Expertise IA : Contribution majeure à la structuration du Centre d'Expertise. Rôle de référent technique et fonctionnel sur la solution Gemini. Acculturation & Animation : Pilotage de la communauté d'ambassadeurs IA. Organisation de webinars, rédaction de guides de bonnes pratiques et identification de cas d'usage à forte valeur ajoutée. Intégration Métier : Déploiement opérationnel de solutions IA (assistance rédactionnelle, synthèse documentaire, assistants virtuels) adaptées aux besoins spécifiques des métiers. Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité : Administration avancée de la console Google Workspace. Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes Cyber. Automatisation des Processus : Développement d'applications métiers via AppSheet (Low-code) et Google Apps Script pour la digitalisation des tâches manuelles et le remplacement de fichiers Excel complexes. Transition Office vers Google : Accompagnement technique et méthodologique pour la migration des utilisateurs et de leurs outils (Excel/VBA) vers l'écosystème Google (Sheets/Apps Script/BigQuery). Posture AMOA/PO : Assistance au Product Owner dans la définition de la roadmap produit, la rédaction de User Stories et la conduite du changement. Profil et Compétences Clés Ce poste requiert une double compétence confirmée : une maîtrise technique avancée de l'écosystème Google et une vision fonctionnelle stratégique orientée métier. Compétences Techniques (Hard Skills) Google Workspace : Expertise éprouvée en Administration, Sécurité et Usages avancés. Data Stack : Maîtrise experte de Looker (développement LookML indispensable) et BigQuery (SQL avancé). Développement : Solides compétences en Google Apps Script et maîtrise de la plateforme AppSheet. IA Générative : Expertise technique sur Gemini (Prompt Engineering, configuration et intégration). Compétences Fonctionnelles & Soft Skills Analyse Métier : Capacité à traduire des besoins métiers complexes en solutions techniques performantes et pérennes. Pédagogie & Communication : Aptitude à vulgariser les concepts IA/Data auprès d'interlocuteurs non-techniques et à fédérer des communautés. Sensibilité RSE : Forte implication sur les sujets de responsabilité numérique (sobriété, droit à la déconnexion). Leadership Technique : Force de proposition pour challenger l'existant et impulser l'innovation. Livrables attendus Pilotage et Reporting : Dashboards Looker (Adoption, RSE, Performance o pérationnelle). Solutions Applicatives : Applications AppSheet et scripts d'automatisation déployés, documentés et maintenables. Dispositif IA : Supports de formation Gemini, référentiel de Prompts, roadmap d'animation du réseau ambassadeurs. Transformation Numérique : Stratégie et outils de migration des macros Excel critiques vers GWS. Documentation : Spécifications fonctionnelles, guides utilisateurs, procédures d'administration et d'exploitation.
Freelance

Mission freelance
Product Manager Referentiel et data

Freelance.com
Publiée le
Confluence
Gherkin
JIRA

1 an
580-600 €
Île-de-France, France
Dans le cadre d’un programme stratégique au sein d’un grand acteur du financement et de l’assurance, nous recherchons un Product Manager Data & Référentiel pour intervenir sur un environnement SI métier complexe et transverse . La mission s’inscrit dans un train SAFe dédié aux applications métiers , avec une forte interaction entre plusieurs équipes produits et data. Le Product Manager interviendra sur deux domaines structurants : Référentiel et composants transverses Data / Infocentres Ces équipes couvrent les besoins mutualisés de plusieurs produits métiers et participent à la transformation des plateformes data. Vous serez amené à piloter des initiatives transverses impliquant différentes équipes et trains agiles, notamment autour de projets de modernisation data et d’amélioration continue des solutions. Une attention particulière est portée à l’intégration de l’IA dans les pratiques produits et dans la chaîne de delivery , afin d’améliorer la performance collective des équipes. En tant que Product Manager , vous serez garant de la vision produit et de la valeur délivrée : Définir des solutions désirables, viables et réalisables répondant aux besoins métiers Construire et porter la vision produit et la roadmap Élaborer et maintenir : la Roadmap Solution (vision pluriannuelle) la Roadmap PI (planification des features sur les Program Increment) Identifier et initier les Features et Enablers dans le backlog Gérer la priorisation du backlog produit Collaborer étroitement avec les métiers et les équipes Agile Animer des ateliers de recueil de besoins Traduire les besoins métiers en solutions livrables par les équipes techniques Piloter des projets transverses impliquant plusieurs équipes Contribuer à l’amélioration continue des pratiques produit et data
Freelance
CDI

Offre d'emploi
un(e) Consultant(e) Senior DATA / IA // PO

OMICRONE
Publiée le
BI
Data analysis
IA

2 ans
40k-45k €
400-460 €
Nantes, Pays de la Loire
Nous recrutons un(e) Consultant(e) Senior DATA / IA – Pilotage de projets de bout en bout 📍 Contexte de la mission Dans le cadre du déploiement de notre roadmap DATA / IA, nous renforçons la Direction DATA/IA et recherchons un(e) consultant(e) expérimenté(e) pour piloter des projets de valorisation des données de bout en bout, en lien étroit avec les équipes métiers et IT. 🎯 Votre rôle Vous intervenez comme chef d’orchestre des projets DATA / IA, garant de la valeur métier, des délais, de la qualité des livrables et du respect des budgets. 🧩 Vos responsabilités Piloter des projets DATA / IA de bout en bout au sein de la Direction DATA/IA Assurer la synergie entre équipes métiers et équipes de développement Travailler avec les métiers pour définir la solution cible et la décliner en fonctionnalités Construire, maintenir et prioriser le Product Backlog (user stories) Créer et animer une équipe projet pluridisciplinaire (métiers & IT) Mettre en place et animer les rituels Agile (selon le framework interne) Élaborer et suivre le planning des itérations en lien avec les enjeux de Time to Market Suivre l’exécution, ajuster le backlog selon les contraintes techniques et délais Mettre en place des boucles de feedback utilisateurs à chaque itération Piloter le budget projet, suivre la consommation et ajuster le périmètre si nécessaire Animer les instances de gouvernance : cérémonies agiles, COPIL, interventions CODIR / COMEX si besoin Définir la stratégie de déploiement, l’ouverture du service et la conduite du changement auprès des utilisateurs finaux 🧠 Profil recherché Expérience confirmée en pilotage de projets DATA / BI / IA Forte capacité à travailler à l’interface métiers / IT Maîtrise des méthodes Agile (Scrum, Kanban, SAFe…) Excellentes compétences en communication et en animation d’équipes Solide culture produit, orientée valeur métier À l’aise avec le pilotage budgétaire et la gouvernance projet ⭐ Pourquoi nous rejoindre ? Des projets DATA / IA à fort impact métier Un rôle central et visible au sein de la Direction DATA/IA Un environnement stimulant, collaboratif et orienté innovation
Freelance

Mission freelance
Développeur Data & IA Python & Dataviz

QUALIS ESN
Publiée le
Confluence
Github
JIRA

6 mois
400 €
Lyon, Auvergne-Rhône-Alpes
Mission générale : Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz, au service des équipes de développement et DevSecOps. Le consultant contribue également à l’intégration d’usages IA dans les outils du développeur augmenté, ainsi qu’à l’accompagnement des équipes internes. Responsabilités principales 1. Développement & industrialisation Data / IA (activité dominante) Concevoir et développer des composants logiciels Python : scripts, services, APIs, traitements batch. Mettre en œuvre des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Développer et industrialiser des solutions Data et IA destinées aux équipes de développement Enedis. Contribuer à l’intégration des usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, analyse, observabilité). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations utiles au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation et qualité Structurer et maintenir la documentation technique. Contribuer aux référentiels de connaissances (Confluence). Participer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement et formation des équipes internes Appuyer les équipes dans la prise en main des solutions. Animer des sessions de formation ou démonstrations (ex : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité des équipes Enedis. 5. Pilotage et coordination opérationnelle Suivre le backlog, collaborer avec les équipes projets / produits / outillage. Produire un reporting régulier d’avancement et d’activité.
CDI

Offre d'emploi
Data Analyst (confirmé/sénior) F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Docker
Java

Montpellier, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Architecte Data/Snowflake/Cloud/GenAI

OBJECTWARE
Publiée le
Cloud
GenAI
Snowflake

3 ans
40k-71k €
400-550 €
Île-de-France, France
CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Langages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Freelance

Mission freelance
Data Engineer Nantes/pa

WorldWide People
Publiée le
Scripting

12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
Data Engineer Nantes /st

WorldWide People
Publiée le
Python

12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
Lead MLOps – Expert Python RAG Conversationnel Production (Azure Cloud – Full Microsoft)

5COM Consulting
Publiée le
Agent IA
Azure AI
IA Générative

1 an
650-700 €
Paris, France
Lead MLOps – Expert PythonRAG Conversationnel Production (Azure Cloud – Full Microsoft) Dans un contexte cabinet / finance / environnement régulé, nous recherchons un Lead MLOps senior , expert Python, ayant déjà mis en production un RAG conversationnel sur Azure . Il ne s’agit pas d’un rôle de Data Scientist ni d’un profil POC. Nous cherchons un Lead Engineering capable d’industrialiser, structurer et opérer un système GenAI en production , dans un environnement complexe et multi-acteurs. Mission Transformer un RAG conversationnel (POC ou existant) en système production-grade . Concevoir et structurer l’architecture technique sur Azure Cloud . Mettre en place les pipelines CI/CD et MLOps adaptés aux systèmes LLM/RAG. Déployer, monitorer et opérer la solution en production. Définir les standards de gouvernance IA, versioning, auditabilité et conformité. Interagir étroitement avec les architectes Azure et équipes Ops Cloud . Être force de proposition, cadrer, arbitrer et assumer les décisions techniques. Passer du POC à la PROD de manière structurée et mesurable . Expertise Azure (indispensable) Maîtrise concrète des environnements Azure : Azure OpenAI Azure AI Search / Vector Search Azure ML / Fabric / Databricks Azure DevOps / GitHub Actions AKS ou services managés Azure Monitoring Azure (logs, métriques, alerting) Capacité à dialoguer techniquement avec les architectes et équipes Ops Azure. RAG Conversationnel – Exigences Architecture modulaire (ingestion / retrieval / génération découplés) Gestion du contexte conversationnel Optimisation retrieval (chunking, reranking, hiérarchisation) Contrôle des hallucinations Monitoring qualité & performance Évaluation automatisée (LLM-as-a-Judge, métriques retrieval, A/B testing) MLOps – Cœur du rôle Pipelines CI/CD pour ML / GenAI Versioning code / data / modèles Tests unitaires & intégration Monitoring technique (latence, coûts, erreurs) Monitoring sémantique (qualité des réponses) Rollback & gestion des incidents Gouvernance IA & standards engineering Engineering Python expert (FastAPI, modularité, clean architecture) Structuration claire du code Gitflow maîtrisé Scalabilité & résilience Documentation et standards d’équipe Profil recherché 7–10+ ans d’expérience Lead MLOps / ML Engineering senior Expérience démontrée de mise en production RAG conversationnel sur Azure Habitué aux environnements cabinet / finance / régulés Leadership affirmé, capacité à s’imposer Capable de proposer des solutions pragmatiques et surtout de les exécuter Environnement de travail Localisation : Paris centre Télétravail partiel possible Environnement exigeant mais agile Culture d’équipe forte, esprit “team spirit” Mode de fonctionnement dynamique, proche d’un esprit startup Forte exposition aux enjeux stratégiques IA Ce que nous ne recherchons pas Profils orientés uniquement Data Science RAG prototype / non production-grade Expérience Azure superficielle Manque d’expérience MLOps réelle Profil incapable de structurer et gouverner
Freelance

Mission freelance
Product manager Référentiel & Data (5-10 ans)

ABSIS CONSEIL
Publiée le
Safe

3 ans
470-570 €
Maisons-Alfort, Île-de-France
Nous recherchons pour notre client en assurance un Product Manager intervenant sur deux périmètres clés : Référentiel Data / Infocentres Votre rôle s’inscrit dans un environnement SAFe , en interaction avec différentes équipes du train et potentiellement d’autres trains de la DSI. Vous contribuerez également à l’intégration de l’IA , notamment des IA agentiques , au service de la performance collective. Vos principales responsabilités Définir une vision produit claire, durable et alignée sur les besoins métier et utilisateurs. Construire et maintenir les roadmaps (Solution & PI). Gérer et prioriser le backlog produit (features, enablers). Collaborer avec les équipes métier, techniques et agiles pour garantir la cohérence des solutions . Piloter des projets transverses , tels que la migration DataStage. Recueillir et analyser les besoins clients pour guider les évolutions produits. Promouvoir et intégrer l’IA dans les pratiques opérationnelles. Compétences attenduesCompétences métier Maîtrise de la méthodologie SAFe (certification PM/PO souhaitée). Expérience en mise en œuvre de SI , conception fonctionnelle, animation d’ateliers, gestion de backlog. Connaissance de la modélisation des données . Pratique de l’ IA dans un contexte opérationnel. Compétences techniques Outils : Jira , Confluence , Suite Office. Bases de données & requêtage SQL . Tests : rédaction Gherkin , outils Selenium , Xray . Connaissance de l’environnement On Premise .
Freelance

Mission freelance
Data Architecte

Deodis
Publiée le
Kubernetes
Linux
Openshift

1 an
600-630 €
Île-de-France, France
Dans le cadre de l’administration et de l’évolution d’une plateforme IA, le Data Architecte intervient sur le maintien en condition opérationnelle (MCO) et l’optimisation continue des infrastructures Kubernetes supportant les workloads data et IA. La mission couvre la conception, le déploiement et l’exploitation de clusters on-premise, cloud ou hybrides, l’automatisation de l’infrastructure via IaC, ainsi que le renforcement de la supervision et de l’observabilité. L’objectif est de garantir la disponibilité, la performance, la sécurité et la résilience des services tout en accompagnant l’intégration de nouveaux modèles et l’optimisation des pipelines de data science.
CDI

Offre d'emploi
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le

50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
CDI

Offre d'emploi
Data Scientist - CDI F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Lumen
Python
SQL

Nice, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Architect Databricks Nantes/pa

WorldWide People
Publiée le
Databricks

12 mois
Nantes, Pays de la Loire
Data Architect Databricks Nantes Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…). Prestation de Data Architect •Il définit l’architecture Data pour son périmètre, en fonction des besoins métier, en tenant compte de l’architecture du SI, des règles de gouvernance Data et plus globalement des standards et des communs définis au niveau de son organisation. •Sur la partie Data, il définit les normes et standards en matière de disponibilité, d’intégrité, de confidentialité et de traçabilité dans l'objectif de maximiser la valeur que l’organisation tire de ces données. •C’est lui qui pilote la mise en oeuvre des principes d’architecture Data dans le SI et garantit sa conformité, sa performance, sa pérennité, son adéquation aux besoins métier ainsi que l’optimisation du cycle de vie de la donnée. •Le Data Architect préconise et valide les principes de modélisation des données pour qu’ils soient adaptés aux usages de façon durable. •Il organise la gestion des référentiels Data et facilite leur maintenance. Tâches : •Contribue à l’élaboration de la stratégie Data de la donnée alignée avec la stratégie business et en cohérence avec la roadmap de l’Architecte d’entreprise. •Contribue aux choix technologiques qui portent le cycle de vie de la donnée. •Assure une veille technologique active sur les solutions innovantes et particulièrement en matière de Data et d’IA. •Définit les règles, normes et standards en matière de stockage et de traitement de la donnée. •Coordonne les travaux d’architecture Data et en assure la gouvernance. •Assure la cohérence du modèle Data tout au long du cycle de vie des projets. •Répond aux exigences réglementaires liées à la Data. Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…).
431 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous