L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 110 résultats.
Offre d'emploi
Business Analyst IA Générative - RAG
Publiée le
IA Générative
50k-58k €
Paris, France
Télétravail partiel
Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
Offre d'emploi
Dev SecOps AWS H/F
Publiée le
DevOps
DevSecOps
12 mois
54k-58k €
500-560 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Principales missions : Administration & support : Administrer les composants Dataiku DSS, CloudBeaver et leurs environnements AWS Assurer le suivi, la supervision, les sauvegardes et les montées de version Accompagner les équipes Data (engineers, scientists, analysts) sur l'industrialisation et les bonnes pratiques Gérer les incidents et participer au RUN Evolution & architecture : Moderniser les composants legacy vers des architectures cloud-native (Paas/serverless) Participer à la mise en place de paterns d'acquisition et de traitement (micro-batch, streaming, event-driven) Intégrer les pratiques DevOps/FinOps : IaC, CI/CD, automatisation. Réaliser des PoC, audits techniques et analyses de performance.
Offre d'emploi
ML Engineer
Publiée le
Machine Learning
Python
1 an
40k-45k €
100-570 €
Montreuil, Île-de-France
Télétravail partiel
Descriptif du poste Dans le cadre de l'accélération de l'IA d'une grande banque commerciale en France, au sein de l'IA Factory, nous recherchons un ML Engineer pour permettre la mise en production des algorithmes élaborés par les Data Scientists. Objectifs de la Mission Contribuer à la mise en production d'algorithmes de Machine Learning Optimiser le déploiement et le cycle de vie des modèles IA Compétences et Qualités Attendues Compétences DevOps : GitLab Gitlab-CI Docker Pipeline CICD Services cloud Python Outils de code quality : Ruff Black MyPy Sonarqube
Offre d'emploi
MLOps/MLEngineering
Publiée le
Artifactory
CI/CD
Fortify
3 ans
40k-70k €
400-600 €
Nanterre, Île-de-France
u sein de la tribu Data & IA, la squad DataLab contribue de manière significative à l'ambition stratégique de notre clinet pour devenir une entreprise axée sur l’analytics. Le rôle de la squad Datalab est de piloter la plateforme Domino Datalab permettant aux data scientists des différentes filiales de Cardif en France et à l’internationale (30 pays, une centaine d’utilisateurs) de travailler sur toutes les étapes du cycle de vie d’un modèle d’IA (Design, Training, Evaluation, Deployment Monitoring) et de maintenir en condition opérationnelles tous les use cases IA publiés (environ 100 de modèles en dev, staging et production). Avec le renforcement des ambitions IA dans un cadre d’amélioration continue, la squad Datalab doit répondre aux nouveaux besoins des data scientists et nouveaux usecases IA, tout en renforçant l’automatisation, la sécurisation et l’intégration de notre plateforme au sein du SI. La prestation doit délivrer les expertises suivantes : • Expérience MLOPS • Machine Learning/Deep learning • Très bonne maitrise du langage Python • Expérience dans les méthodes agiles • Excellentes compétences en communication écrite et orale (clarté, synthèse, pédagogie) associées à un excellent esprit d'équipe • Compréhension des concepts informatiques (API, authentification, workflow, données) • Capacité à comprendre les besoins métier et à les traduire en exigences informatiques. • Connaisse de la solution Domino Datalab • Maitrise des outils : GitLab CI/CD, Artifactory, SonarQB, NexusIQ, Fortify • Intégration de composants techniques avec flux de données associés, notamment architecture à 3 niveaux, authentification SAML, services web et HTTPS. • Pipelines de données • Modélisation statistique
Mission freelance
AI / Analytics Software Engineer (h/f)
Publiée le
1 mois
570-600 €
75017, Paris, Île-de-France
Télétravail partiel
Résumé : Nous recherchons un « AI / Analytics Software Engineer » pour concevoir, développer et déployer des solutions logicielles autour de l’AI et de la GenAI. Le candidat idéal aura une solide expérience en développement logiciel avec le langage Python, en Machine Learning et en DevOps. Responsabilités : Concevoir, développer et maintenir des applications logicielles Python orientées machine Learning et IA. Industrialiser et mettre à l'échelle les solutions autour de l’IA. Rédiger un code propre, maintenable et efficace pour diverses applications logicielles. Mettre en œuvre les meilleures pratiques en matière de développement logiciel et de machine Learning. Développer des API et des services pour l'exposition des services autour de l’IA. Utiliser des technologies de conteneurisation telles que Docker pour le déploiement et la gestion des applications. Participer à la mise en œuvre des pratiques DevOps pour assurer la fiabilité, la scalabilité et la sécurité des systèmes. Travailler en étroite collaboration avec les « Data Scientists » lors de la conception et la réalisation des modèles. Compétences : Diplôme d’ingénieur ou master en informatique. Minimum 5 ans d’expérience. Forte expérience en développement logiciel avec Python. Expérience en DevOps. Expérience en Machine Learning. Forte maîtrise des Frameworks de développement web tels que Flask et FastAPI. Solides compétences en bases de données SQL et NoSQL. Connaissance des bases de données vectorielles. Anglais courant. Autres Détails : Localisation: Paris 17 - 2 jours TT/semaine
Mission freelance
Administrateur(trice) Dataiku DSS - LUXEMBOURG
Publiée le
Dataiku
Python
Scripting
6 mois
400-550 €
Luxembourg
Mission au Luxembourg. Il est impératif et obligatoire de résider proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée
Mission freelance
Scrum Master – Data/IA - (conformité)
Publiée le
Kanban
Scrum
1 an
400-550 €
Île-de-France, France
Télétravail partiel
🎯 Contexte & Objectifs Le pôle Data & IA recherche un Scrum Master bilingue et expérimenté pour accompagner une équipe internationale de 15 Data Scientists dans le cadre de projets de développement et de missions d’inspection. 🔑 Missions principales Faciliter et animer le fonctionnement de l’équipe (rituels agiles, backlog, rétrospectives). Garantir le respect des méthodes agiles (Scrum, Kanban, Scrumban). Suivre la vélocité, burndowns, obstacles et actions. Proposer et mettre en place des méthodes et outils favorisant efficacité, créativité et initiatives. Animer une équipe multi-nationale (anglais requis). Générer les KPI de suivi et rapports pour le PO et le management.
Mission freelance
Product Owner Indexation Documentaires / AI
Publiée le
Méthode Agile
6 mois
450-500 €
Les Ulis, Île-de-France
Télétravail partiel
Métiers et Fonctions : Pilotage de projet ou de programme Product owner Spécialités technologiques : Gestion des données Intelligence artificielle (AI) Type de facturation : Assistance Technique (taux journalier) Compétences : Méthodes / Normes : Agile Langues : Anglais Description de la prestation : Un Product Owner est recherché pour un projet d'indexation documentaire intégrant de l'IA dans un programme utilisant des solutions d’indexation avancée pour le système RAG (Retrieval-Augmented Generation). Le rôle clé du Product Owner inclut : Définir la stratégie produit : vision, opportunités d’innovation (NLP, RAG), prioriser les cas d’usage Gérer le backlog : organisation, priorisation, utilisation des méthodes de discovery Collaborer avec les équipes techniques (data scientists, ingénieurs IA, développeurs) et métier Suivre la performance avec des KPIs (pertinence, temps de réponse, couverture, coûts) et proposer des améliorations Gérer les données : collecte, traitement, stockage, qualité, sécurité et conformité Assurer la mise en production : documentation, formations, support et maintenance Livrables attendus : Roadmap opérationnelle Backlog détaillé et organisé Rapports de performance (KPIs) Documentation technique et fonctionnelle Procesus de déploiement et de support
Offre d'emploi
Expert migration SAS vers Dataiku
Publiée le
Dataiku
Méthode Agile
SAS
2 ans
40k-65k €
400-550 €
Tours, Centre-Val de Loire
Télétravail partiel
Notre client souhaite migrer ses solutions analytiques et ses processus de traitement de données de l’environnement SAS vers la plateforme Dataiku . Dans ce cadre, vous interviendrez en tant qu’expert pour accompagner cette transformation, en garantissant la continuité des processus métiers et l’optimisation des performances. Missions principales : Analyser les processus existants sous SAS (scripts, macros, workflows) et identifier les dépendances. Concevoir des solutions équivalentes ou optimisées sur Dataiku, en collaboration avec les équipes métiers et techniques. Développer et tester les nouveaux workflows Dataiku, en assurant la compatibilité avec les systèmes existants. Former les équipes internes à l’utilisation de Dataiku et documenter les bonnes pratiques. Accompagner le déploiement progressif des solutions et assurer le support post-migration. Optimiser les performances des nouveaux processus et proposer des améliorations continues. Compétences techniques : Expertise confirmée en développement SAS (Base SAS, SAS Macro, SAS SQL, SAS DI Studio, etc.). Maîtrise avancée de Dataiku (création de workflows, utilisation des recettes, intégration avec d’autres outils, etc.). Connaissance des bonnes pratiques en migration de données et en gestion de projets data. Expérience avec les bases de données (SQL, Oracle, PostgreSQL, etc.) et les environnements Big Data . Familiarité avec les outils de versioning (Git) et les méthodologies Agile/DevOps . Compétences transverses : Capacité à travailler en équipe pluridisciplinaire (métiers, IT, data scientists). Pédagogie pour former et accompagner les utilisateurs finaux. Autonomie , rigueur et sens de l’organisation pour gérer des projets complexes. Excellente communication écrite et orale pour documenter et présenter les avancées.
Mission freelance
Data Engineer | DevOps AWS (H/F)
Publiée le
AWS Cloud
CI/CD
Data analysis
9 mois
400-450 €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Mission freelance
Data Platform Architect
Publiée le
AWS Cloud
Big Data
Data analysis
6 mois
450-620 €
Paris, France
Télétravail partiel
Fournir un accompagnement fonctionnel et technique solide pour garantir la conception adéquate de la plateforme de données et d'analyse, en visant des solutions techniques et d'intégration de pointe. Concevoir, coordonner et exécuter des projets pilotes, des prototypes ou des preuves de concept pour valider des scénarios spécifiques. Diriger et coordonner les activités opérationnelles liées à la plateforme de données et d'analyse. Assurer la responsabilité de la documentation technique des plateformes impliquées dans la plateforme. Collaborer avec les architectes d'entreprise pour aligner les conceptions de la plateforme de données et d'analyse sur l'architecture globale et contribuer à cette architecture. Superviser et améliorer continuellement l'architecture et l'écosystème de la plateforme de données et d'analyse. Maintenir une connaissance approfondie des outils et plateformes utilisés dans la plateforme de données et d'analyse, ainsi que de leur écosystème et de leur feuille de route. Répondre aux besoins organisationnels des différents utilisateurs de la plateforme de données et d'analyse, notamment les data scientists, les data engineers et les développeurs Qlik. Mener la transition continue du système sur site vers le cloud public. Coaching de l'équipe de développement dans les domaines pertinents.
Mission freelance
DEVELOPPEUR RUBY - CONFIRME
Publiée le
Linux
PostgreSQL
Ruby
3 mois
Boulogne-Billancourt, Île-de-France
Contexte de la mission Au sein de l’équipe technique, vous travaillerez dans un environnement de développement logiciel agile, en collaboration avec des développeurs, des data scientists, des product owners et scrum masters expérimentés Objectifs et livrables Vous évoluerez dans un environnement utilisant les dernières technologies en termes de développement, Big Data et Infra : Rails 7, Vue.js, Python, Kubernetes, Terraform, Google Cloud Platform, Dataiku, PostgreSQL et vos missions consisteront à : Développer les nouvelles fonctionnalités des différents produits Maintenir et améliorer l’architecture logicielle durant les cycles de développements avec prise en compte des contraintes systèmes et business Garantir la performance, la sécurité et la mise à jour des applications Définir et maintenir la supervision des applications (monitoring, metrics, alerting…) Issu(e) d’une école d’ingénieur avec au moins +5 années d’expériences en développement en ruby, vous vous définissez comme un développeur ouvert, avec des connaissances pointues en développement ruby mais aussi en modélisation de base de données PostgreSQL. Vous justifiez également d'une forte appétence aux principes DevOps. Bon niveau d’anglais (écrit & parlé), communication, documentation et rituels de l'équipe se font en anglais Autonomie, rigueur, curiosité, relationnel L’environnement de travail: Backend : Ruby (Rails), NodeJS Frontend : HTML, CSS, JS Base de données : PostgreSQL, Redis Intégration continue (Circle CI, GitHub) Architectures microservices et Containerisation (Docker, Kubernetes) Plateformes Cloud : Google Cloud Platform Méthodologie Agile (Scrum/Kanban, Jira/Confluence) Outils de monitoring & alerting (Stackdriver, Jaeger) Tests automatiques (unitaires, intégration, fonctionnels) Documentation
Mission freelance
Développeur Go / Backend Kubernetes
Publiée le
API
Go (langage)
Kubernetes
12 mois
550-600 €
Paris, France
Un grand acteur du secteur bancaire développe et opère en interne une plateforme data et IA destinée à accompagner les équipes de data scientists et d’analystes dans tout le cycle de vie de leurs projets : du développement à l’industrialisation en production. Cette plateforme s’appuie sur un cloud privé on-premise et sur une stack technologique moderne et open source , fortement orientée Kubernetes . L’objectif est d’offrir un environnement performant, automatisé et scalable , permettant la mise à disposition d’environnements de développement, le déploiement de modèles et leur supervision en production. Dans ce cadre, l’équipe recherche un Développeur Go expérimenté , passionné par les architectures backend distribuées et la scalabilité, pour renforcer le cœur technique de la solution. 🎯 Missions principales En tant que Développeur Go / Backend Kubernetes , vous interviendrez au cœur d’un environnement technique exigeant et contribuerez à la conception, au développement et à l’optimisation de composants backend critiques. Conception & développement Concevoir et développer des microservices backend performants et sécurisés en Go. Participer à la conception d’architectures distribuées et Cloud native. Implémenter de nouvelles fonctionnalités et contribuer à l’évolution technique de la plateforme. Garantir la qualité, la maintenabilité et la performance du code. Intégration & déploiement Intégrer vos développements dans un environnement Kubernetes on-premise. Participer à la mise en place et à l’amélioration des pipelines CI/CD (ArgoCD, Argo Workflows). Collaborer avec les équipes SRE et Infrastructure pour assurer la résilience et la fiabilité des services. Performance & observabilité Optimiser les performances backend (latence, allocation de ressources, parallélisation). Contribuer à la mise en place d’outils de monitoring et d’observabilité (Prometheus, Kibana). Participer aux actions d’amélioration continue (tests de charge, tuning, automatisation). Collaboration Travailler en proximité avec les autres développeurs et les équipes Data / MLOps. Être force de proposition sur les choix techniques et les bonnes pratiques de développement. Profil recherché Compétences techniques Excellente maîtrise du langage Go (expérience significative en backend distribué). Très bonne connaissance de Kubernetes (orchestration, scheduling, services, déploiements). Maîtrise des architectures microservices et des APIs REST/gRPC. Connaissances des outils d’automatisation : Terraform , ArgoCD , Argo Workflows . Expérience avec le stockage S3 / MinIO et les volumes persistants ( Portworx ). Connaissances en bases de données ( PostgreSQL , MongoDB ). Bonne compréhension des environnements cloud privés et CI/CD . Pratique de Python appréciée pour l’automatisation ou l’intégration de services. Soft skills Esprit analytique et rigoureux, sens du détail technique. Orientation qualité, fiabilité et performance. Capacité à collaborer avec des équipes pluridisciplinaires (Dev, Infra, Data). Curiosité, autonomie et goût pour les environnements techniques de haut niveau. Environnement technique Langages : Go, Python, Terraform Infra & Cloud : Kubernetes on-prem, S3 / MinIO, Portworx CI/CD : Argo, ArgoCD, Argo Workflows Monitoring : Prometheus, Kibana Bases de données : PostgreSQL, MongoDB Outils : Git, Artifactory, Model Registry
Mission freelance
Data Architect - (h/f)
Publiée le
6 mois
500-570 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Data Architect qui fera partie de l'équipe stable BI & Analytics. Rôle : En tant que Data Architect, il/elle garantira que les produits livrés par l'équipe stable sont alignés avec l'architecture cible globale. Pour soutenir ce poste, nous recherchons un Data Architect Azure avec une bonne compréhension globale des services disponibles dans la pile Azure Analytics. Cette personne travaillera avec le DPO, Data Analyst, Data Engineer et Data Scientist de l'équipe stable, mais aussi avec la communauté des Architectes pour définir l'architecture avec la bonne qualité, la valeur commerciale pertinente et la maintenabilité à long terme. De plus, il/elle doit également avoir des compétences en leadership pour prendre la responsabilité technique dans les discussions avec les parties prenantes commerciales et l'architecture d'entreprise. Tâches : Fournir un leadership technique, participer aux efforts de développement et représenter l'ensemble des capacités internes et externes de la plateforme. Être un membre actif de la guilde des architectes pour superviser les processus de gestion des données et fournir des conseils et une direction aux équipes de développement. Être responsable de la conception et de la documentation de la solution dans son domaine. Avoir de l'expérience avec Databricks, le stockage ADLS, SQL DB, ADF et Power BI. Définir et posséder une architecture de données évolutive de bout en bout en tenant compte de l'architecture d'entreprise et des normes de l'industrie. Développer, documenter et maintenir des modèles de données logiques et physiques. Créer un tableau de bord client 360 basé sur les données CRM et les sources externes pour soutenir le processus marketing. Mettre en place un Produit Data pour soutenir l'approche CAST (produit réutilisable partagé) en ligne avec la stratégie du Groupe. Faire partie de l'équipe de maintenance pour garantir la continuité des processus commerciaux. Compétences : Architecture de données minimum 4 ans Rédaction de SQL et modélisation des données Conception de l'architecture de données Power BI Composants Azure comme ADFv2, Databricks, Delta lake Technologies et cadres d'analytique avancés Azure Langage de programmation lié à l'analytique avancée : Python, Pyspark Modèle de livraison basé sur le cloud Microsoft Gestion des données, gouvernance des données et qualité des données Déploiement d'API ou de microservices DevSecOps Agile Expérience de travail dans un environnement mondial Excellentes compétences en communication en français et en anglais (niveau C1) Autres détails : Sur site à Lyon 3 jours par semaine
Offre d'emploi
Data Analyst
Publiée le
Pandas
PySpark
1 an
Île-de-France, France
Mission ne convient pas à un data scientist Compétences OBLIGATOIRES : Guru en PySpark Très bonne maitrise de Tableau et de Panda. Capacité d'analyse, bon niveau statistique. Démarrage : ASAP Experience : 4/5ans min Dans le cadre de ce besoin : En tant que consultant data au sein de la Cellule du Qualité de Fixe (CQF) de Bouygues Telecom, vous serez en charge de produire des analyses à partir de dataset que vous aurez constitués sur des données de nos plateformes Big Data, Vous aurez également la responsabilité de rendre disponible des données, une fois celles-ci nettoyées, préparées et formatées sous forme de dataset ou de table à disposition des datascientists de l'équipe. Vous aurez à développer des tableaux de bord de suivi de KP.. Vous serez en charge de : -L'exploitation de la plateforme Big Data de monitoring Wifi des Box : A ce titre vous aurez la charge : -Du monitoring des principaux KPI du système et la misé en œuvre des nouveaux KPI -Des investigations lors d'incident : Vous déclencherez et piloterez le fournisseur et / ou les autres entités de Bytel contribuant à son bon fonctionnement. -Vous serez le garant de mise à disposition des données issues du cluster HDFS. Vous aurez des scripts Scala / Spark à développer pour toute évolution à la demande de l'équipe Datascience ou en fonction des évolutions du système. -Vous assurez la mise en œuvre des politiques de sécurités et de sauvegarde, et appliquer tout patch ou correctif nécessaire à cette intégrité. -Du pilotage des fournisseurs externes et internes pour les évolutions de la plateforme, que ces évolutions portent sur le hardware, les applicatifs, ou l'architecture réseau. La data ingénierie et l'exploitation de la plateforme Data en architecture de type microservices, basée sur Kubernetes et OpenShift. Vos tâches seront de : -Assurer la supervision et débogage du système via Openshift -S’assurer du bon fonctionnement des applicatifs (Spark, MinIo, Jhub, MySQL, Airflow) -Contrôler les volumes et consommations Hardware de la plateforme -Débugger les pods en cas d’erreur -Assurer l’écriture des graphes Helm pour les déploiements applicatifs -Ecriture de charts Helm pour le déploiement de nouveaux applicatifs -Tester les nouveaux graphes sur la plateforme de test -Déployer et patcher les applicatifs déjà existants avec Helm -Assurer la pérennité de la plateforme en gérant efficacement les images et graphes via GitLab -Assurer la gestion des utilisateurs et des règles de gestion du Datalake -Gestion des buckets et utilisateurs -Création de points de stockage et destis règles de gestion associées -Création de scripts pour le stockage de Parquets -Assurer le fonctionnement du déploiement continu avec GitLab -Administration des images de production Gitlab et DockerHub En résumé : Guru en PySpark et très bonne maitrise de Tableau et de Panda. Avec une capacité d'analyse, bon niveau statistique. Amené à faire du développement descriptif de requête pour diffuser des KPI sous forme de dashboard Tableau.
Mission freelance
Ingénieur(e) IA / ML Ops senior
Publiée le
.NET Framework
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 6 ans et plus Métiers Fonctions : Etudes & Développement, Ingénieur Spécialités technologiques : Versionning, Gestion de configuration ML, Monitoring, RGPD, Automatisation des test Compétences Technologies et Outils GitHub CI/CD GIT MISSIONS En tant qu’ingénieur(e) IA / ML Ops senior, vos principales missions sont de : - Gérer le portefeuille de cas d’usage d’IA (ML/deeplearning, IA Gen, agentique) pour un ou plusieurs départements. - Être le référent IA auprès de vos différents interlocuteurs : chef de projets, développeurs, architectes, métiers, partenaires internes et externes. - Accompagner les directions dans le cadrage de leurs cas d’usage et traduire les besoins métiers en spécifications techniques. - Contribuer à la modélisation de votre portefeuille de cas d’usage : - S’assurer que les modèles développés respectent les standards de performance, robustesse, explicabilité et conformité. Garantir que les modèles / cas d’usage développés soient parfaitement industrialisables. - Mettre en place les bonnes pratiques, méthodes de Feature Engineering et de validation des données. - Challenger les approches proposées par les Data Scientists. - Piloter l’industrialisation et le déploiement des modèles IA - Définir et appliquer le cadre ML Ops du groupe : reproductibilité, versioning, automatisation des tests, gouvernance des modèles - Concevoir des architectures IA modulaires, en évaluant en amont ce qui a déjà été développé et en favorisant la mutualisation plutôt que le redéveloppement systématique. Travailler en collaboration étroite avec les autres directions IA pour harmoniser les choix technologiques et accélérer l’industrialisation. - Construire et implémenter les pipelines, CI/CD, monitoring. - S’assurer de la conformité avec les normes internes techniques et réglementaires (cadre normatif / IA act / RGPD). - Garantir la qualité et la conformité - Structurer et diffuser les bonnes pratiques : organisation du code / worflow Git, qualité et tests, ML Ops et reproductibilité (tracking, versioning, CI/CD, orchestration, infra as code, …), sécurité, gouvernance et réutilisabilité, « definition of done », règles d’usage de GitHub Copilot - Auditer et valider les modèles / cas d’usage développés. - Garantir la qualité et la conformité des livrables avant mise en production. - Etablir la traçabilité : documentation, métadonnées, suivi des performances. - Être le point de contact technique privilégié pour les instances de validation. - Encadrer et accompagner les juniors et les collaborateurs dans le domaine de l’IA. - Organiser la montée en compétence progressive et objectivée des juniors. - Jouer un rôle de pédagogue vis-à-vis des métiers pour vulgariser les concepts, les choix technologiques et assurer leur adhésion. - Assurer une veille technologique active sur les outils, frameworks, et paradigmes IA. Proposer de nouvelles solutions / architectures adaptées aux besoins métiers. - Usage Interne / Internal Use - Anticiper les évolutions des réglementations et intégrer les enjeux de responsabilité de l’IA.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Auto-entrepreneur et LMNP au réel
- Quitter l'IT
- Le marché du freelancing et de l’IT en 2026 : à quoi s’attendre ?
- SASU est ce que le pv d'ag existe ou seulement décision de l'associ unique?
- Déclaration de Malt et rectification abusive de l'URSSAF
- Pourcentage total de détention du capital à l'INPI= nue-propriété
110 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois