L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 575 résultats.
Mission freelance
Développeur Java orienté Data H/F
ODHCOM - FREELANCEREPUBLIK
Publiée le
Java
Python
SQL
6 mois
Neuilly-sur-Seine, Île-de-France
Descriptif de mission – Développeur Fullstack orienté Data Nous recherchons un développeur fullstack ayant une forte sensibilité à la data, pour intervenir sur une application interne stratégique dédiée à la gestion de données complexes et volumineuses. L’environnement technique s’appuie sur : des interfaces de consultation de données, un back-end en Java, une base de données SQL avec un modèle riche et structuré, des traitements batch automatisés (Java / SQL). Dans ce contexte, la qualité, la fiabilité et la structuration des données sont au cœur des enjeux. Vos responsabilités En vous appropriant les enjeux fonctionnels et la base de code existante, vous interviendrez sur l’ensemble du cycle de vie de l’application : Analyse & compréhension des données Manipuler et analyser des modèles de données complexes Garantir la cohérence, la qualité et l’intégrité des données Identifier des axes d’optimisation du data model Conception & développement Implémenter des fonctionnalités en lien avec les besoins métier Participer à la conception technique et à l’évolution de l’architecture Réaliser des prototypes et contribuer aux choix techniques Data & performance Écrire et optimiser des requêtes SQL complexes Participer à l’optimisation des traitements batch et des performances globales Qualité & tests Mettre en place et exécuter des tests (unitaires, intégration, end-to-end) Identifier, analyser et corriger les anomalies Maintenance & amélioration continue Assurer la maintenance corrective et évolutive Participer à la rétro-ingénierie du code existant Contribuer à la documentation et aux bonnes pratiques (versioning, code review…)
Offre d'emploi
Développeur Back-End Senior orienté IA (Python / Data / API) – H/F
SMARTPOINT
Publiée le
API REST
Machine Learning
MLOps
1 an
50k-60k €
400-500 €
Île-de-France, France
Dans le cadre du développement de solutions innovantes à forte valeur métier, nous recherchons un Développeur Back-End Senior orienté Intelligence Artificielle pour rejoindre une Dev Factory IA . Vous interviendrez sur la conception et le développement d’applications intégrant des composants data et intelligence artificielle , au sein d’équipes pluridisciplinaires composées de développeurs, data engineers, data scientists et experts métier . Votre mission consistera à concevoir, développer et industrialiser des services applicatifs et des briques d’intelligence artificielle , dans un environnement technique exigeant en matière de performance, scalabilité et fiabilité . Vos missions Développement Back-End et IA Concevoir et développer des API REST et/ou GraphQL robustes, sécurisées et performantes Implémenter des services d’exposition de modèles d’intelligence artificielle (inférence, scoring, prédictions) Développer des traitements data répondant aux besoins métiers Architecture applicative et data Participer à la définition des architectures applicatives et data/IA Concevoir des solutions scalables, modulaires et maintenables Appliquer les bonnes pratiques d’architecture logicielle (SOLID, séparation des responsabilités) Gestion des flux de données Traiter et exposer des données issues de différentes sources : bases de données relationnelles bases NoSQL APIs externes pipelines de données Garantir la qualité, la traçabilité et la performance des flux Intégration et mise en production des modèles IA Intégrer les modèles développés par les équipes data Mettre en production des services d’inférence Gérer les versions des modèles et suivre leurs performances Anticiper les problématiques de dérive des modèles Industrialisation et CI/CD Contribuer au dépôt GitLab Participer aux revues de code Mettre en place et maintenir des pipelines CI/CD Automatiser les processus de tests et de déploiement Qualité et tests Développer des tests unitaires, d’intégration et de performance Garantir la fiabilité et la stabilité des services applicatifs et des composants IA Sécurité applicative et data Mettre en œuvre les bonnes pratiques de sécurité : authentification autorisation chiffrement protection des données sensibles Collaboration agile Participer aux rituels Scrum Collaborer avec les équipes data, front-end, produit et DevOps Documentation et amélioration continue Documenter les architectures, APIs, pipelines data et processus de déploiement Contribuer à la veille technologique et à l’amélioration des pratiques de développement
Mission freelance
Business Analyst Technico-Fonctionnel Anacredit (F/H)
CELAD
Publiée le
AnaCredit
Business Analyst
Python
12 mois
450-510 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst technico-fonctionnel pour intervenir chez un de nos clients du secteur bancaire . 💻💼 🎯 Contexte de la mission Dans le cadre d’un projet réglementaire majeur lancé début 2026, notre client bancaire prépare la mise en œuvre de la future réglementation BCE IReF (Integrated Reporting Framework) . Ce programme vise à converger à horizon 2029 plusieurs reportings réglementaires (statistiques et prudentiels) afin d’améliorer la qualité des données, la conformité et l’optimisation des processus . Le cadrage étant finalisé, le projet entre en phase de réalisation. Vous interviendrez au sein de la DSI (pôle Finance) en appui direct du chef de projet. 🧩 Vos missions Dans un environnement projet exigeant et structuré, vous interviendrez sur l’ensemble du cycle de delivery : Rédaction des spécifications fonctionnelles et techniques Participation aux phases de tests (rédaction et exécution des cas de recette) Support aux équipes de développement Analyse de données et contribution à la modélisation Organisation et animation d’ateliers avec les parties prenantes (MOA, IT, développeurs…) Contribution à la définition des scénarios de test et à la recette MOA Participation à l’analyse de l’existant et à la définition des processus cibles Appui au pilotage projet et à l’accompagnement du changement
Mission freelance
Business Analyst senior (H/F)
FUZYO FRANCE
Publiée le
Business Analysis
JIRA
1 an
300-470 €
Seine-Saint-Denis, France
Contexte Dans le cadre du déploiement d’un outil de surveillance des communications électroniques (messages, messageries instantanées, voix), nous recherchons un Business Analyst senior pour structurer, formaliser et maintenir les exigences fonctionnelles à partir des besoins exprimés. Missions principales Analyse et formalisation des besoins Exploiter les tickets JIRA pour comprendre, clarifier et formaliser les besoins métiers Rédiger des spécifications fonctionnelles détaillées et des cahiers des charges Rédaction des User Stories Produire des User Stories complètes (Definition of Ready, critères d’acceptation, Definition of Done) Assurer la traçabilité des besoins jusqu’à la mise en production Gestion du backlog Maintenir un backlog clair, structuré et priorisé Garantir la qualité et la complétude des items pour les sprints Mise à jour documentaire Analyser les livrables existants en production (retro-specs) Mettre à jour la documentation fonctionnelle et corriger les écarts Coordination et validation Animer des revues fonctionnelles avec les équipes techniques et métiers Ajuster les spécifications selon les retours Amélioration continue Proposer des bonnes pratiques et modèles de rédaction Optimiser la qualité et la lisibilité des livrables fonctionnels
Offre d'emploi
Data Analyst Dataiku
VISIAN
Publiée le
Dataiku
Tableau software
1 an
40k-74k €
400-700 €
Rueil-Malmaison, Île-de-France
et Reporting dédié à la direction marketing d'ARVAL. Vous serez au cœur de la démarche de pilotage des activités marketing par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein d'ARVAL. Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité d’Arval (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : • Reprendre et finaliser la Refonte des projets data marketing DMK • Securiser et stabiliser le run • Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) • Construire des modèles prédictifs/scorings simples • Automatiser le production de reportings mensuels pour direction Marketing • Documentation
Mission freelance
Data engineer (H/F)
Insitoo Freelances
Publiée le
Microsoft Power BI
SQL
2 ans
400-430 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer (H/F) à Hauts-de-France, France. Les missions attendues par le Data engineer (H/F) : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Compétences : Expertise SQL, ETL CI/CD, github, Terraform, Kafka Power BI, Looker Google Cloud Platform (GCS, BigQuery)
Offre d'emploi
Data Scientist Senior IA, NLP, LLM
UMANTIC
Publiée le
60k-70k €
France
LE CONTEXTE DE LA MISSION Nous recrutons un(e) Data Scientist confirmé(e).Vous intégrerez la Cellule Innovation du client, en charge du déploiement de sa feuille de route IA 2026-2027. La mission combine exigence technique pointue (NLP, LLM, MLOps), posture d'innovation pragmatique (POC, MVP, test & learn), et compréhension du contexte institutionnel et réglementaire (AI Act, RGPD, gouvernance des données). VOS MISSIONS Vous interviendrez avec un haut niveau d'autonomie sur deux axes complémentaires : ? Développement opérationnel de solutions IA * Recueil et qualification des besoins métiers, animation d'ateliers de cadrage (design thinking, ateliers data). * Conception fonctionnelle et technique des solutions IA en lien avec la DSI, la sécurité et la conformité. * Développement (POC, MVP) et industrialisation : tableaux de bord avancés, modèles prédictifs, solutions NLP (analyse documentaire, résumé, extraction, LLM), outils d'automatisation et d'optimisation des processus métiers. * Mise en production, monitoring, maintenance évolutive et corrective, support N2 sur les solutions IA. * Intégration des exigences réglementaires (AI Act, RGPD) dès la conception des solutions, dans une approche by design. ? Acculturation et renforcement des capacités IA * Conception de parcours de formation différenciés : initiation/acculturation, utilisateurs avancés, profils techniques. * Animation de formations en français et en anglais, création de supports pédagogiques et démonstrateurs. * Organisation et animation d'événements internes : séminaires, ateliers métiers, hackathons, cafés innovation. * Veille technologique (état de l'art LLM, IA générative, MLOps) et réglementaire (AI Act, lignes directrices CNIL). * Contribution à la structuration d'une communauté IA interne durable.
Offre d'emploi
Data Analyst/Dataiku
OBJECTWARE
Publiée le
Dataiku
3 ans
40k-83k €
400-650 €
Île-de-France, France
Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein d'ARVAL. Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité d’Arval (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : • Reprendre et finaliser la Refonte des projets data marketing DMK • Securiser et stabiliser le run • Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) • Construire des modèles prédictifs/scorings simples • Automatiser le production de reportings mensuels pour direction Marketing • Documentation Vous travaillez au quotidien en anglais avec les collaborateurs de toutes les pays et directions du groupe Arval. Prestations demandées Réunions de cadrage avec les métiers afin de définir les règles de gestion : - Identification d'architecture et modélisation data - Construire des flows DATAIKU facilement maintenables (respect des normes de développement Arval) et documentés - Scénarisation des flows DATAIKU - Recettage des projets, correction de bugs - Mise en production - Analyses ad hocs - Maintenance du run - Analyses ad hocs - Sécuriser la cohérence des KPIs produits et la qualité des données exploitées - Communication auprès des métiers - Responsable de la relation Marketing avec l'IT
Offre d'emploi
AI Tech Lead – Data Architecture & Big Data (Python / Oracle / Angular)
Deodis
Publiée le
Agent IA
Angular
Big Data
1 an
40k-62k €
500-640 €
Île-de-France, France
En tant que Tech Lead IA & Data Architect , vous intervenez au sein de la DSI Groupe pour accompagner la mise en place de solutions innovantes autour de l’intelligence artificielle et de la data. Vous jouez un rôle central entre les équipes métiers et techniques, avec une double casquette : expertise technique et pilotage de projets . Dans un environnement international, vous contribuez à la conception, au développement et au déploiement de solutions data performantes, tout en garantissant leur qualité, leur sécurité et leur alignement avec les enjeux business. Analyser et comprendre les besoins métiers afin de proposer des solutions adaptées Concevoir et définir l’architecture technique des solutions Data & IA Piloter le développement et l’intégration des modèles d’intelligence artificielle Assurer la qualité, la performance et la sécurité des solutions mises en production Encadrer et accompagner les équipes techniques sur les sujets IA Gérer les priorités, les plannings et le suivi des livrables Assurer la communication et le reporting auprès des parties prenantes
Mission freelance
Architecte Data DevOps / FinOps (Expertise GCP)
Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD
6 mois
650 €
Paris, France
Contexte de la mission Au sein d'une grande entité du secteur de l'énergie, vous interviendrez en tant qu' Architecte Data transverse avec une double expertise DevOps et FinOps . Votre rôle sera stratégique : concevoir des architectures cloud robustes, définir les standards d'urbanisation (Data, IA, MLOps) et piloter l'optimisation des coûts dans un environnement hybride et multi-cloud, avec un focus majeur sur GCP . Missions principales 1. Architecture & Urbanisation Définir les standards d'architecture et les règles d'urbanisation pour les domaines Data, IA, DevOps et MLOps. Concevoir et mettre en œuvre des architectures de données cloud performantes. Rédiger, maintenir et diffuser les bonnes pratiques (Data, On-Premise, Cloud et DevOps). Assurer la gouvernance des modèles et encadrer l'usage des LLM tout en gérant les risques éthiques et réglementaires. 2. Expertise DevOps & MLOps Industrialiser les pipelines de données et de Machine Learning (ML Pipelines). Superviser l'orchestration et la conteneurisation des services. Garantir la mise en œuvre des principes CI/CD et GitOps dans des environnements complexes. 3. Stratégie FinOps & Performance Intégrer les principes FinOps dès la conception (Architecture by design). Optimiser spécifiquement les coûts liés au Cloud et aux ressources GPU (Plan FinOps dédié à l'IA). Définir des modèles de refacturation interne et préconiser les outils de suivi de performance pour superviser les pipelines. Expertise Technique Requise Cloud : Maîtrise avancée de Google Cloud Platform (BigQuery, Composer, Airflow, DataProc, DataFlow). Infrastructure as Code & CI/CD : Terraform, Ansible, Git, Jenkins, GitLab-CI, GitOps, Helm. Conteneurisation : Docker, Kubernetes. Observabilité : ELK, Grafana, Prometheus, Google Monitoring. Environnement : Expérience significative en environnements hybrides (On-premise / Cloud). Modalités pratiques Lieu : Paris – Présence sur site obligatoire 2 à 3 jours/semaine . Date de démarrage : 01/06/2026. Date de fin : 31/12/2026 (Visibilité long terme). Prix d’achat max : 650 € HT / jour.
Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Migration data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
IAM
3 mois
550-700 €
Paris, France
Expert Data Engineer GCP — Tilt Migration data Migration d'une dataplateforme legacy vers un socle full GCP pour un client. Vous portez spécifiquement la migration des pipelines, modèles et traitements data. Contexte plateforme data en binôme avec un autre expert GCP. Même niveau d'exigence, même capacité à tout couvrir, un partage des référents. Missions - Porter pipelines et modèles data legacy sur BigQuery / Dataplex, avec tests de parité et non-régression. - Arbitrer les politiques de partitioning, clustering, coûts BigQuery. - Écrire et compléter les modules Terraform du socle. - Contribuer aux DAG Composer et au cut-over sans double run. - Poser et transmettre les standards qualité data (fraîcheur, volumes, tests). Stack (maîtrise attendue sur l'ensemble) BigQuery, SQL avancé, Python, Terraform, GCS, IAM GCP, Airflow / Composer, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Mission freelance
DATA Analyst SAP BO
ARGANA CONSULTING CORP LLP
Publiée le
Business Object
IDT
Microsoft Power BI
12 mois
400-450 €
Île-de-France, France
Mission Le consultant BO interviendra sur : La modélisation et le développement d’univers SAP BO. La création et la maintenance de rapports Web Intelligence 4.3. La génération de rapports complexes multi-sources et multi-pages. Le support aux utilisateurs et aux métiers pour la formation et la montée en compétence sur BO. Livrables principaux : Univers BO Rapports BO Tableaux de bord et Data visualisations métiers Présentations d’indicateurs de performance Durée de mise en opération rapide : Capable d’être opérationnel sous 2 semaines. Compétences techniques requises SAP Business Objects 4.3 (Designer, IDT/UDT) – Confirmé – Impératif Modélisation d’univers – Confirmé – Impératif SQL – Confirmé – Souhaitable Web Intelligence 4.3 – Confirmé Connaissance CMC et Power BI – Plus Profil recherché Formation : Bac +5 Expérience : Minimum 5 ans sur SAP BO et modélisation d’univers Soft skills : Capacité à s’intégrer rapidement à une équipe BI et à devenir opérationnel rapidement. Positionnement : Auprès des Métiers, de la DSI ou dans un pôle Data transverse. Responsabilités : Identifier les données pertinentes à partir des exigences métiers Définir la logique de génération d’indicateurs Concevoir les tableaux de bord nécessaires à la restitution Assurer la production d’indicateurs et supports de décision
Offre d'emploi
Cloud GCP Data & IA Senior
bdevit
Publiée le
CI/CD
GenAI
Google Cloud Platform (GCP)
36 mois
Île-de-France, France
Contexte : Dans le cadre de l’accélération des usages IA générative au sein d’un grand groupe bancaire, une entité dédiée aux infrastructures IT renforce ses équipes Cloud afin de concevoir et industrialiser des plateformes Data, AI et GenAI sur GCP. Le consultant interviendra sur des cas d’usage autour des LLM et du RAG , avec des enjeux de scalabilité, sécurité, gouvernance des données et mise en production dans un environnement bancaire exigeant. Missions Principales : Concevoir et déployer des architectures Data, AI & GenAI sur GCP ; Mettre en œuvre des solutions basées sur des LLM (Vertex AI, modèles open source, APIs) ; Concevoir et industrialiser des pipelines RAG (Retrieval-Augmented Generation) : ingestion, vectorisation, recherche sémantique ; Implémenter des chaînes MLOps / LLMOps (CI/CD, évaluation, monitoring des modèles) ; Automatiser les infrastructures ( Terraform, IaC ) ; Assurer le run : performance, monitoring, optimisation des coûts (FinOps) ; Garantir la sécurité et la gouvernance des données sensibles (IAM, conformité, gestion des accès) ; Accompagner les équipes métiers et data dans l’industrialisation des cas d’usage GenAI.
Offre d'emploi
Builder Azure / DevSecOps Data
VISIAN
Publiée le
Azure
Azure DevOps
CI/CD
1 an
Paris, France
L’objectif de la mission est de concevoir, bâtir et sécuriser l’architecture cloud Azure d'un prototype Energy Management System (EMS), tout en préparant une industrialisation future sans dette d’architecture. Missions Concevoir et déployer l’architecture Azure du prototype EMS, incluant : Ingestion IoT & streaming temps réel (Azure IoT Hub, Event Hubs, Eventstream Microsoft Fabric RTI) Traitement temps réel & validation qualité (Eventstream processors, KQL Databases, Quality gate asynchrone < 10s) Stockage différencié (RAW, VALIDATED / CERTIFIED, OneLake & intégration Fabric) Observabilité, sécurité et traçabilité (Azure Monitor, Log Analytics, diagnostics, métriques temps réel, audit de bout en bout) Mettre en œuvre des patterns event-driven & streaming adaptés aux workloads IoT / EMS. Construire une plateforme data temps réel et sémantiquement gouvernée avec Microsoft Fabric, RTI & Fabric IQ : Conception des pipelines (ingestion, enrichissement, filtrage, routing, persistance temps réel) Exploitation des KQL Databases pour agrégations temps réel, détection d’anomalies, corrélation d’événements Mise en place d’actions automatiques via Activator (alertes, workflows) Contribution à la modélisation des entités métier, règles de qualité fonctionnelle et états opérationnels Préparation de l’intégration d’agents intelligents sur données temps réel Assurer la mise en œuvre DevSecOps & Infrastructure as Code : Infrastructure en IaC (Terraform ou Bicep) Pipelines CI/CD (GitHub Actions / Azure DevOps) Gestion des environnements (dev / acc / prod), secrets (Key Vault), identités managées, RBAC, policies Azure Intégration des garde-fous sécurité dès le prototype (least privilege, chiffrement, audit, gouvernance Fabric & Purview) Développer la plateforme data : APIs, streams, endpoints temps réel Microservices de traitement événementiel en Python et/ou Node.js / TypeScript Composants de normalisation et validation qualité, règles métier temps réel, intégration de modèles d’IA (Azure ML) Respect des contraintes fortes : latence end-to-end < 10 secondes, fiabilité, idempotence, gestion des erreurs & backpressure Produire un socle simple, robuste et consommable avec environnements reproductibles et documentés Réaliser des démonstrations régulières à destination des parties prenantes métier et techniques Outils & Environnement Cloud & Architecture : Azure IoT Hub, Azure Event Hubs, Microsoft Fabric RTI, Fabric IQ, OneLake Traitement & Stockage : Eventstream processors, KQL Databases (Eventhouse), Azure Functions, Azure Container Apps Observabilité & Sécurité : Azure Monitor, Log Analytics, Key Vault, RBAC, Managed Identity, policies Azure DevSecOps & IaC : Terraform (préféré) ou Bicep, GitHub Actions, Azure DevOps Développement : Python, Node.js, TypeScript Modélisation & Qualité métier : Fabric IQ, règles métier, qualité fonctionnelle et technique Automatisation : Activator (alertes, workflows) IA & Data Science : Azure Machine Learning (optionnel)
Mission freelance
IA Delivery Lead
ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la IA Delivery Lead pilote une équipe dédiée à la conception et à la livraison de solutions d’intelligence artificielle. Encadrement Management fonctionnel d’une équipe pluridisciplinaire : Product Owner Copilots & Agents IA Business Analyst / AMOA IA Spécialiste fonctionnel RAG / Prompt (optionnel) Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Lead est responsable du pilotage de bout en bout des cas d’usage en intelligence artificielle (copilots, agents, solutions RAG), depuis leur cadrage jusqu’à leur mise en production, leur adoption et la mesure de leur valeur. Il/elle garantit la structuration des projets, la coordination des parties prenantes et la qualité des livrables, tout en assurant un impact métier mesurable. Responsabilités principales 1. Cadrage et qualification Animer les ateliers de cadrage avec les métiers Évaluer la faisabilité fonctionnelle et l’effort de delivery Définir les critères de succès (valeur, adoption, qualité, risques) Intégrer les enjeux de données, de traçabilité et de conformité 2. Pilotage du delivery Construire et piloter les plans de delivery (jalons, sprints, capacité) Coordonner les parties prenantes internes et externes Gérer les risques, dépendances et arbitrages Garantir la qualité des livrables (backlog, spécifications, décisions) 3. Recette et validation Préparer et animer les comités de validation Définir les critères d’acceptation et organiser la recette fonctionnelle Coordonner les validations finales (go / no-go) 4. Déploiement et adoption Définir la stratégie de déploiement (pilote, passage à l’échelle) Accompagner l’adoption (formation, communication, support) Mettre en place les indicateurs d’usage (adoption, fréquence, satisfaction) Organiser les boucles de feedback 5. Mesure de la valeur Suivre les gains générés (temps, qualité, réduction des risques) Piloter l’amélioration continue des solutions 6. Qualité et fiabilité Définir les standards de qualité des solutions IA Mettre en place des contrôles fonctionnels Suivre et corriger les écarts 7. Industrialisation Capitaliser sur les retours d’expérience Standardiser les méthodes et outils (copilots, agents, RAG) Contribuer à l’industrialisation des pratiques IA
Mission freelance
Data Engineer industriel
MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel
6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Offre fictifs et offre non sérieuses
- Retour d'expérience démission-reconversion
- Vue CV
575 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois