L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 861 résultats.
Mission freelance
246239/100961/Product Owner DATA/IA Nantes
WorldWide People
Publiée le
Pilotage
6 mois
350-400 €
Nantes, Pays de la Loire
Product Owner Nous recherchons un profil Product Owner expérimenté. Product Owner en binôme/complémentarité avec un PO déjà en place sur la brique IA Gen (SG1) Activités principales attendues : Onboarding & adoption SG1, suivi satisfaction et améliorations orientées DX Cadrage & priorisation : formalisation des besoins, roadmap, arbitrages Quotas & gouvernance d’usage Déploiement/communication produit : guides, catalogue, notes de version, animation de la communauté Collaboration étroite avec le PO SG1 et les parties prenantes techniques/utilisateurs Objectifs et livrables Objectifs & enjeux de la mission : Product Owner en binôme/complémentarité avec un PO déjà en place sur la brique IA Gen (SG1) afin : Accroître la capacité de pilotage produit et accélérer l’adoption des services IA partagés au sein de la Plateforme DATA/IA Accompagner les équipes utilisatrices (prise en main, clarification des parcours d’usage, bonnes pratiques, support API) Définir/ajuster une gouvernance d’usage pragmatique, notamment les quotas par cas d’usage (volumétrie, criticité, performance) pour sécuriser la QoS et optimiser la consommation Préparer l’extension progressive de l’offre avec l’arrivée de nouveaux services partagés (OCR, Embedder, Speech2Text) : parcours, documentation, conditions d’accès, support, KPIs d’adoption. Compétences demandéesCompétences Niveau de compétence Pilotage Confirmé
Offre d'emploi
Architecte Technique Data et IA H/F
JEMS
Publiée le
75k-90k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : xo5vxd8d91
Mission freelance
Senior Data Platform Engineer – Databricks / Snowflake (H/F)
TEOLIA CONSULTING
Publiée le
Azure Data Factory
CI/CD
Databricks
6 mois
550-560 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Data Engineering / Data Platform au sein d’un environnement international exigeant, nous recherchons un Senior Data Platform Engineer expert Databricks / Snowflake. Vous interviendrez sur la structuration, l’optimisation et l’industrialisation d’une plateforme data cloud moderne, au cœur d’enjeux stratégiques liés à la qualité, la performance et la fiabilité des données. Vos missions principales : Conception et optimisation de pipelines data sous Azure Data Factory et Databricks Modélisation, optimisation et sécurisation d’environnements Snowflake Structuration de modèles de données complexes (multi-sources, multi-réglementations) Industrialisation des workflows via GitHub Enterprise Cloud (CI/CD) Mise en place de bonnes pratiques de qualité et monitoring des données Contribution aux choix d’architecture et à l’amélioration continue de la Data Platform Collaboration étroite avec les équipes techniques et métiers Vous évoluerez dans un environnement à fort niveau d’exigence technique et organisationnelle, où la robustesse, la performance et la rigueur sont essentielles.
Mission freelance
Référent Master Data Produit (SAP S/4HANA Cloud Public) (H/F)
PREREQUIS
Publiée le
SAP
1 an
Paris, France
Nous recherchons pour l'un de nos clients un Référent Master Data Produit (SAP S/4HANA Cloud Public) (H/F) Vos missions seront : Dans le cadre de son programme de transformation ERP Groupe, le client déploie un Core Model SAP S/4HANA Cloud Public visant à harmoniser ses processus et ses données à l’échelle internationale. Le groupe, en forte croissance par acquisitions, opère aujourd’hui avec plusieurs ERP hétérogènes, qui doivent être migrés vers un modèle unifié. Le programme est mené avec un intégrateur (demarrage du projet en Sept / Phase Realize en cours). Le poste est positionné côté client, avec un rôle clé sur la structuration et la gouvernance des données produit. Objectif du poste Prendre la responsabilité fonctionnelle et transverse de la Master Data Produit, afin de : Structurer et fiabiliser le modèle de données produit Garantir la qualité et la cohérence des données dans SAP Piloter le cycle de vie des produits dans le système Assurer la bonne intégration avec les outils amont (notamment PIM) Faire le lien entre les équipes métiers, data et techniques Responsabilités 1. Gouvernance de la Master Data Produit Définir et maintenir le modèle de données produit (data model) Structurer les référentiels (articles, variantes, attributs, hiérarchies…) Mettre en place les règles de gestion et de qualité des données Assurer la cohérence entre les différents systèmes 2. Gestion du cycle de vie produit Piloter le cycle de vie produit dans SAP (création, modification, obsolescence) Définir les workflows de gestion des données Assurer la traçabilité et la conformité des données produit 3. Intégration avec le PIM et les systèmes amont Gérer les flux entre le PIM (Product Information Management) et SAP Assurer la bonne transmission et transformation des données produit Garantir la synchronisation entre systèmes 4. Migration des données & outils SAP Participer aux activités de migration des données produit Utiliser et piloter les outils SAP : - Migration Cockpit - Outils d’intégration (CPI / SCPI + Boomi) - Contribuer aux phases de data cleansing et mapping 5. Collaboration avec l’intégrateur Challenger les propositions de l’intégrateur sur la data produit Traduire les besoins métiers en spécifications fonctionnelles Participer aux ateliers de conception (Build) Suivre les développements et intégrations 6. Coordination transverse Travailler avec les équipes : Métiers (marketing, supply, finance) IT / Data Équipes locales (international) Accompagner la montée en maturité sur la gestion des données
Mission freelance
Consultant décisionnel BI
Codezys
Publiée le
Git
Informatica
Java
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet iPilot offre aux utilisateurs des fonctionnalités de reporting et d’analyse de données, permettant de consolider et de restituer de manière fiable les données de CCMA. Il s’agit d’une équipe d’environ dix personnes composée d’un chef de projet Scrum Master, d’un Product Owner (Business Analyst), de développeurs BI, DevOps, et d’un Lead Technique. L’application iPilot existe depuis plus de six ans. Les deux dernières années ont été consacrées à des travaux de nature technique. Nous souhaitons effectuer une refonte de nos tableaux de bord afin d’améliorer l’application. Cette démarche consistera à partir de l’existant, à le challenger en collaboration avec les représentants des utilisateurs, et à proposer des évolutions pour mieux répondre à leurs besoins. Objectifs et livrables Le consultant décisionnel en Business Intelligence intervient principalement selon trois axes : Analyser les besoins fonctionnels et techniques afin de concevoir une architecture de données adaptée et performante. Modéliser et enrichir les datawarehouses et datamarts. Produire des rapports destinés aux métiers, en accompagnant ou formant les utilisateurs dans leur exploitation. Il peut, si nécessaire, s’appuyer sur des référents techniques pour les composants sortant d’un cadre BI classique—tels que les clusters Big Data, NoSQL, ou l’absence d’ETL pour l’intégration des données. Ses qualités personnelles essentielles incluent : Autonomie, rigueur et capacité à proposer des solutions. Adaptabilité et esprit d’équipe. Compétences analytiques et synthétiques. Spécialisé en datavisualisation, il sera chargé de créer ou d’améliorer des tableaux de bord, ainsi que d’interagir avec les utilisateurs pour affiner leurs besoins. Une expérience d’au moins 5 ans dans le domaine est requise. La maîtrise de Tableau constitue un atout supplémentaire. Activités principales : Analyser les besoins fonctionnels et techniques. Localiser les sources de données pertinentes pour répondre aux besoins. Développer les processus d’intégration de données. Modéliser et enrichir les datawarehouses et datamarts. Produire des rapports et tableaux de bord clairs, compréhensibles et adaptés aux exigences métier. Vérifier la qualité et la performance des livrables. Participer aux activités et cérémonies de l’équipe de développement en mode Agile. Activités secondaires : Mettre à jour la documentation applicative.
Mission freelance
Tech Lead Data — Snowflake (Libourne) H/F
LeHibou
Publiée le
Snowflake
9 mois
400-600 €
Libourne, Nouvelle-Aquitaine
Notre client dans le secteur Santé et pharma recherche un/une Tech Lead Data — Snowflake H/F Description de la mission: Offre de mission – Tech Lead Data — Snowflake Contexte de la mission Notre client, dans le cadre de sa transformation numérique, engage en 2026 un programme stratégique de refonte complète de sa Data Platform, avec Snowflake comme technologie cible retenue à l’issue d’un benchmark approfondi. Le planning communiqué est ferme et non négociable : • Q2 2026 : bootstrap de la Data Platform Snowflake et de l’usine logicielle Data • Q2 2026 : démarrage de la migration des stacks legacy • Fin 2026 : migration complète Le contexte est celui d’un groupe très décentralisé, avec une forte hétérogénéité des sources de données (plus de 50 instances ERP de type JD Edwards, stacks Oracle, GCP, Azure Databricks) et une ambition claire : générer de la valeur business plutôt que faire de la technique pour la technique. Périmètre de la mission 1. Bootstrap de la Data Platform Snowflake • Définir et implémenter l’architecture générale de la plateforme Data : ingestion, transformation, stockage, exposition • Structurer l’environnement Snowflake : databases, schemas, RBAC, sécurité et accès • Mettre en place des pipelines d’ingestion différentielle (CDC) depuis les sources legacy : Oracle, GCP, Azure Databricks, JD Edwards • Garantir la qualité des données dès l’ingestion, dans un contexte où les pipelines historiques sont en full load sans logique différentielle 2. Bootstrap de l’usine logicielle Data • Définir et imposer les standards de développement Data Engineering : homogénéité, reproductibilité, lisibilité • Mettre en place les bonnes pratiques : tests, CI/CD, versioning, documentation, naming conventions • Structurer la factory Data pour permettre la montée en autonomie des équipes internes • Accompagner les équipes dans l’adoption des pratiques 3. Pilotage de la migration • Coordonner la migration des usages legacy vers la nouvelle stack Snowflake • Arbitrer en continu entre développements sur le legacy et avancement sur la nouvelle stack • Être le référent technique principal vis-à-vis des parties prenantes IT et métier • Assurer le reporting auprès de la DSI Stack technique • Data Warehouse : Snowflake • Sources legacy : Oracle, GCP, Azure Databricks, JD Edwards (50+ instances) • Transformation : dbt ou équivalent • Orchestration : Apache Airflow ou équivalent • Langages : SQL avancé, Python • CI/CD et DevOps : à mettre en place • Data Quality : à définir et implémenter Compétences requises Indispensables • Snowflake : maîtrise avancée, incluant architecture, RBAC, Snowpipe, Snowpark, optimisation des coûts et des requêtes • Data Engineering : conception de pipelines différentiels, architecture Medallion (Bronze / Silver / Gold) • Migration de stacks Data : expérience avérée sur des projets de migration multi-sources vers un Data Warehouse cloud • Leadership technique : capacité à bootstrapper une plateforme from scratch, sans architecture existante • Bonnes pratiques : CI/CD, tests, documentation, standards de code • SQL avancé, Python Appréciées • Expérience sur un ERP multi-instances • Outils de Data Quality • Expérience en environnement industriel ou Life Sciences / Pharma • Connaissance de GCP et/ou Azure Databricks dans un contexte de migration Profil recherché • Expérience totale : 8 à 12 ans • Expérience Snowflake : 3 ans minimum avec projets significatifs • Expérience Tech Lead Data : 3 ans minimum • Expérience de migration de stack : indispensable • Anglais : professionnel courant • Localisation : région Nouvelle-Aquitaine ou mobilité
Offre d'emploi
Architecte Data GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Offre d'emploi
Chef de projet data groupe H/F
HAYS France
Publiée le
Tarare, Auvergne-Rhône-Alpes
Votre périmètre couvrira l'ensemble des directions métiers (Commerce, Finance, Supply Chain, Achats, RH, R&D…) ainsi que des filiales françaises et internationales. Vos responsabilités incluront : Piloter des projets data de bout en bout : cadrage, recueil des besoins, suivi, déploiement et mise en utilisation. Contribuer aux volets data des grands projets de transformation du groupe (ERP, CRM, WMS, outils métiers…). Assurer la coordination entre les équipes métiers, IT et data. Participer à la mise en place et à l'amélioration continue de la gouvernance de données (qualité, référentiels, catalogage). Participer à la définition, au suivi et à l'analyse des KPIs liés à la performance data. Challenger les besoins métiers et accompagner l'évolution des usages data. Les environnements techniques couvrent tout le cycle de vie de la donnée : Data Lake, Data Warehouse, Data Hub, MDM, PIM/DAM, Data Catalog, Data Quality, Data Visualisation, Data Export.
Mission freelance
Data Engineer
Signe +
Publiée le
Microsoft Power BI
6 mois
350-450 €
Vélizy-Villacoublay, Île-de-France
Contexte Dans le cadre des projets de transformation digitale, le consultant interviendra sur la conception, le développement et l’industrialisation de solutions data et reporting, en collaboration avec les équipes DevOps et les équipes métiers. Missions principales Participer aux différentes phases des projets Data Concevoir et maintenir Data Warehouses, Data Marts et Data Cubes Développer et maintenir des pipelines ETL (Delta / Full / Historisation) Développer et maintenir des jobs Azure Data Factory Optimiser les performances SQL, DAX, MDX Mettre en œuvre la sécurité des données (Row Level Security) Monitorer, maintenir et déboguer l’écosystème BI Mettre en place des pipelines CI/CD automatisés Rédiger la documentation technique et participer aux phases de cadrage Compétences techniques Azure Data Factory ADLS Gen2 Azure SQL DB Analysis Services Power BI GitLab / Azure DevOps SQL Server, T-SQL optimisation Data Modeling / Data Warehousing CI/CD data pipelines Profil recherché Formation supérieure informatique / data Bon relationnel et esprit analytique Capacité à travailler en environnement international
Offre d'emploi
Ingénieur DevOps – Plateforme Data H/F
DSI group
Publiée le
Azure Data Factory
Azure DevOps
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Missions principales: Déploiement et automatisation Concevoir, mettre en place et faire évoluer les outils de déploiement continu (CI/CD) pour les applications et traitements de données. Automatiser les processus d’intégration, de livraison et de déploiement des solutions analytiques. Maintenir les pipelines CI/CD et garantir leur fiabilité. Gestion de l’infrastructure Administrer et faire évoluer les infrastructures Linux supportant les plateformes analytiques. Maintenir les composants middleware, bases de données et outils techniques . Anticiper et gérer les problématiques liées à l’obsolescence, la sécurité et les évolutions fonctionnelles . Collaboration avec le SI Collaborer avec les différents acteurs du système d’information : Développeurs Architectes Équipes sécurité Équipes d’exploitation S’assurer de la conformité des solutions avec les standards et l’architecture de l’entreprise . Documentation et bonnes pratiques Rédiger et maintenir la documentation technique et opérationnelle . Formaliser les procédures liées aux déploiements et à l’exploitation. Travail d’équipe Participer aux cérémonies agiles et aux activités de l’équipe . Contribuer à l’amélioration continue des pratiques DevOps. Activités secondaires Étudier les évolutions de la plateforme data dans le cadre de la transformation du SI DATA (Cloud / On-Premise). Participer à la définition des solutions permettant d’assurer la continuité des activités analytiques dans un nouveau contexte DSI . Accompagner les équipes data dans l’adaptation aux nouveaux environnements technologiques.
Offre d'emploi
Business Analyst
OMICRONE
Publiée le
Business Analysis
Oracle SQL Developer
Rédaction des spécifications fonctionnelles
2 ans
40k-45k €
400-500 €
Île-de-France, France
ans le cadre d’un besoin client, nous recherchons un(e) Business Analyst (BA2) disposant d’une solide expérience en rédaction de spécifications fonctionnelles et techniques. 🔍 Profil recherché Expérience significative en tant que Business Analyst Expertise confirmée en : Rédaction de besoins utilisateurs Rédaction de spécifications fonctionnelles détaillées Excellente capacité d’analyse et de formalisation Très bonnes compétences en communication écrite et orale ⚠️ Important Les profils PM / PO ne seront pas retenus 🎓 Formation Diplômé(e) d’une école d’ingénieur française 💻 Compétences techniques Bonne maîtrise de SQL Expérience sur des bases de données Oracle et/ou PostgreSQL 🌍 Langues Français : courant (indispensable) Anglais : professionnel 🤝 Qualités attendues Rigueur et sens du détail Esprit de synthèse Autonomie et proactivité Excellente capacité de communication avec des interlocuteurs métiers et techniques 📩 Si vous êtes intéressé(e) ou connaissez des profils correspondants, n’hésitez pas à me contacter.
Mission freelance
Data Product Manager – Data & BI Platform
Comet
Publiée le
Microsoft Power BI
1 an
400-550 €
Île-de-France, France
Dans le cadre de la transformation Data de Saint-Gobain Mobility , nous recherchons un Data Product Manager senior pour piloter plusieurs initiatives stratégiques autour des plateformes Data & BI . Vous interviendrez au sein d’un environnement international, en collaboration étroite avec des architectes data, data engineers, équipes BI et métiers (Sales, Finance, Manufacturing, Supply Chain, Purchasing) . L’objectif : structurer et piloter un portefeuille de produits data alignés avec les besoins business et la stratégie Data du groupe. Vos missions Piloter l’étude et le cadrage de projets Data & BI Recueillir et formaliser les besoins métiers Animer des workshops avec les stakeholders Structurer l’architecture fonctionnelle et les flux data Concevoir les modèles de données et business layers Coordonner les équipes Data Engineers / Architectes / BI Évaluer la valeur business des solutions proposées Préparer les roadmaps, budgets et planning de delivery Formaliser les propositions de lancement projet Environnement & sujets clés Plusieurs initiatives structurantes sont en cours : Migration vers une Cloud Data Platform Migration MicroStrategy → Power BI Structuration des produits data dans une logique Data-as-a-Service Cas d’usage métiers : Sales Finance Manufacturing Supply Chain Purchasing
Mission freelance
Data Scientist Python, Tensorflow Nantes/st
WorldWide People
Publiée le
Python
12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Offre d'emploi
Prompt Engineer PAris
Cogniwave dynamics
Publiée le
Data science
Python
1 an
40k-43k €
290-310 €
Paris, France
Pour un poste en CDI , nous recherchons un prompt engineer (2/5 ans expérience) Salaire Fixe + différentes primes de performance La mission interviendra sur un projet d’IA mise au service de la force de vente. Les principaux cas d’usages de la mission seront la génération de Pre-meeting Reports pour les commerciaux et la génération de leads IA (AI-generated leads). Phase : passage à l’industrialisation (post‑POC / phase initiale). Tâches à réaliser : Concevoir des frameworks de prompts et d’agents (agentic + standard). Mettre en place des pipelines d’évaluation structurés (Promptfoo, LangSmith, QA custom). Garantir des sorties structurées et typées (Pydantic, JSON). Gérer le PromptOps complet : Git, versionning, meilleures pratiques. Optimiser les coûts tokens via RAG et context pruning. Concevoir des API / tool-calling schemas pour l’intégration aux systèmes. Utiliser Chain-of-Thought et Self-Reflection pour améliorer le raisonnement. Construire des systèmes IA autonomes robustes pour la production.
Mission freelance
Senior Data Scientist IA / Computer Vision / GenAI
Signe +
Publiée le
Agent IA
12 mois
500-700 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Dans le cadre du développement de solutions technologiques innovantes destinées aux acteurs de la mobilité et de la gestion de flottes, une équipe data souhaite se renforcer avec un Senior Data Scientist spécialisé en intelligence artificielle. L’objectif est de concevoir et industrialiser des modèles avancés permettant d’optimiser la performance opérationnelle, la sécurité et la durabilité des solutions proposées. Objectif de la mission Concevoir, développer et industrialiser des briques d’intelligence artificielle avancées (computer vision, modèles prédictifs, IA générative, systèmes agents) dans un environnement produit data innovant. Missions principales Conception et développement IA Concevoir des algorithmes d’IA pour des modèles prédictifs (risque, consommation, maintenance, performance) Analyser les performances des modèles et suivre les KPI Assurer la traçabilité des itérations et la non-régression Participer à l’industrialisation des modèles IA générative et systèmes agents Contribuer aux travaux autour des modèles de langage (LLM) Développer des solutions d’IA générative et de systèmes agents Participer à l’animation d’une communauté technique IA Innovation et vision Assurer une veille technologique active Proposer des orientations techniques innovantes Contribuer à des travaux de recherche et d’innovation Collaborer avec des partenaires externes (labos, start-ups, éditeurs) Coordination et communication Interagir avec les équipes techniques et métiers Comprendre les besoins opérationnels des utilisateurs Participer à la rédaction et validation des tickets techniques et releases Présenter les résultats et recommandations Livrables attendus Briques algorithmiques industrialisables Indicateurs de performance et analyses Documentation technique Contributions à la roadmap data / IA Recommandations techniques et stratégiques Compétences obligatoires Expertise en intelligence artificielle et machine learning avancé Expérience sur les modèles de langage (LLM) et systèmes agents Connaissances solides en computer vision Expérience en industrialisation de modèles data Capacité à piloter des projets data complexes Esprit analytique et critique Compétences appréciées Connaissance des environnements cloud / MLOps Expérience produit data ou solutions innovantes Interaction avec écosystèmes de recherche Participation à projets innovants ou brevets
Offre d'emploi
Data Scientist Senior Dataiku – Banque – GCP – GenAI
OGESSI
Publiée le
Dataiku
Google Cloud Platform (GCP)
IA Générative
1 an
40k-54k €
400-630 €
Fontenay-sous-Bois, Île-de-France
Contexte Dans le cadre du renforcement d’un département Data & IA au sein d’un grand groupe bancaire, nous recherchons un Data Scientist expérimenté pour intervenir sur des projets d’IA générative et prédictive construits autour de la plateforme Dataiku. Missions Développement de cas d’usage IA générative et machine learning Conception et industrialisation de workflows sous Dataiku Préparation de données, feature engineering, entraînement de modèles Déploiement et suivi de modèles en production Intégration avec l’environnement GCP (BigQuery, GCS, IAM) Collaboration avec data engineers, architectes et équipes métiers Participation à l’amélioration de la gouvernance data Compétences requises Expertise Dataiku (conception, déploiement, industrialisation) Python data science (pandas, numpy, scikit-learn, XGBoost) SQL avancé Environnement Google Cloud Platform (BigQuery idéalement) Expérience en machine learning en production Connaissance MLOps / monitoring modèles Compétences appréciées Expérience IA générative (LLM, RAG, intégration API) Contexte bancaire Zeenea, Power BI ou Alteryx Mission longue avec forte visibilité dans un environnement data structuré.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2861 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois