L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 45 résultats.
Offre d'emploi
ML Engineer
Publiée le
Machine Learning
MLOps
Natural Language Processing (NLP)
1 an
40k-45k €
220-580 €
Paris, France
Télétravail partiel
Missions principales Participer au développement, au déploiement et au suivi des services d'IA, impliquant l'utilisation de modèles NLP et leur intégration dans les applications de gestion des risques : Réalisation des POC IA Mise en place d'une pipeline MLOps Industrialisation des Use Cases en production (avec intégration complète aux processus métier et applications existantes) Garantir la qualité et la performance des solutions délivrées en production, en respectant les normes et bonnes pratiques en matière d'IA Maintenir une veille technologique sur les solutions d'IA dans le périmètre défini Participer au maintien et aux évolutions des solutions IA déployées : monitoring et calibrage des modèles en production
Mission freelance
Expert et Architecte technique IA/ GenAI - Vorstone - Paris
Publiée le
AI
Architecture
Bash
1 an
600-800 €
Paris, France
Télétravail partiel
Vorstone cherche un Expert/Architecte technique IA/ GenAI pour un client basé à Paris Contexte de la mission Dans le cadre de son accélération sur l’Intelligence Artificielle et l’IA Générative, un groupe industriel international de premier plan recherche un Staff Engineer /Expert technique IA/ GenAI (H/F) pour renforcer ses équipes AI Activation. La mission consiste à accompagner plusieurs projets IA stratégiques (Data, Machine Learning, LLM, RAG…) tout en contribuant à la mise en place d’un cadre technique commun pour assurer la cohérence, la sécurité et la scalabilité des initiatives IA du groupe. Le Staff Engineer/ Expert technique / Architecte technique IA/ GenAI agira comme référent technique transverse, garant des bonnes pratiques d’ingénierie et de la qualité des solutions déployées dans l’écosystème IA. Objectifs et livrables Accompagner et encadrer techniquement plusieurs projets IA / GenAI, de la conception à la mise en production. Définir et promouvoir les bonnes pratiques techniques (MLOps, LLMOps, DevSecOps, cloud architecture). Concevoir des architectures de référence pour les solutions IA, en veillant à leur sécurité, leur scalabilité et leur maintenabilité. Industrialiser les approches IA : création de pipelines, intégration CI/CD, automatisation et monitoring. Assurer la cohérence technique entre les différents projets IA du groupe. Participer à la construction du socle commun (“AI Platform”) sur lequel s’appuient les équipes projet. Encadrer et accompagner les ingénieurs data, ML et software dans la montée en compétence. Effectuer une veille active sur les outils et technologies IA émergentes (LLM, RAG, orchestrateurs, vector DB, etc.).
Mission freelance
Product Owner Data
Publiée le
Data science
MLOps
Product management
12 mois
500 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Product Owner Data" pour un client dans le secteur de l'assurance Description Contexte de la mission Au sein du groupe, la Direction des Systèmes d’Information Métier assure la maintenance et l’évolution du système d’information assurance vie et finance. Dans le cadre de la stratégie de transformation Data 2025–2026 , le groupe renforce son équipe de développement Data et recherche un Product Owner Data expérimenté . Rattaché(e) au Centre de Data Management , vous serez un acteur clé du déploiement des cas d’usage Data et de la valorisation de la donnée. Votre rôle consistera à identifier, prioriser et piloter les produits Data (RPA, IA, Data Science, MLOps, DataViz) en lien avec les directions métiers (actuaires, conseillers, gestionnaires, etc.) et les équipes techniques. Vous interviendrez sur l’ensemble du cycle de vie des produits, de la détection des besoins métiers jusqu’à la mise en production, dans une approche orientée valeur et amélioration continue. Objectifs et livrables Placer la valeur au centre des usages Data : challenger les directions métiers sur leurs besoins quotidiens et leurs priorités. Animer les comités Data et les ateliers de cadrage autour des sujets Data Science, IA, RPA et MLOps. Identifier les besoins techniques et fonctionnels en lien avec les domaines Data (RPA | IA | Data Science | MLOps | DataViz). Définir les éléments de valeur (quantitatif, qualitatif, expérience collaborateur) et produire les supports de cadrage associés. Accompagner la rédaction et la priorisation des solutions Data et IA. Définir, suivre et piloter les indicateurs de performance (KPIs) des produits livrés. Contribuer à la construction d’une culture Data IT forte au sein du groupe. Être force de proposition sur les orientations techniques, fonctionnelles et méthodologiques.
Offre d'emploi
Data Scientist - IA Generative
Publiée le
Dash
Deep Learning
IA Générative
1 an
40k-58k €
380-570 €
Paris, France
Télétravail partiel
Le consultant interviendra en tant que Data Scientist pour accompagner les travaux de consolidation et d'industrialisation de nouveaux services pour les directions métier. Le terrain de jeux sera les technologies IA Gen, les RAG et les chaines d'ingestions de corpus documentaires hétérogènes. Le DS sera en responsabilité de la conception (en collaboration avec les interlocuteurs métiers, Data et DSI) et le développement de solutions répondant aux besoins métier. Il réalisera les études de faisabilité, de risque et de performance nécessaire pour la maturation du Use Case à travers le cycle de vie (incubation, industrialisation, run). Livrables : Pipeline d'acquisition, préparation et traitement de données (structurées et non structurées) Pipeline d'entrainement, test et validation, Composants d'inférence Automatisation de pipeline et workflow Mécanismes et process de monitoring de la performance API Prototypes et démonstrateurs Plan d'experiences et de tests Documentation technique et fonctionnelle Rapport de veille technologique et technique
Offre d'emploi
Ingénieur DataOps IA
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
IA Générative
France
Télétravail partiel
Au sein de l’équipe Data & IA, vous participerez activement à la mise en production et à la fiabilisation des plateformes de données et des modèles IA. Vous interviendrez sur les volets suivants : Développement et automatisation de pipelines Data/ML (ETL, CI/CD, orchestration). Industrialisation et monitoring des modèles de Machine Learning. Déploiement d’infrastructures Cloud sur GCP (Vertex AI, BigQuery, Dataflow, Cloud Run) et AWS (S3, Lambda, SageMaker). Implémentation d’une approche Infrastructure as Code (Terraform, CloudFormation). Optimisation de la performance, la sécurité et la résilience des environnements. Collaboration étroite avec les Data Scientists pour fiabiliser les déploiements de modèles IA.
Mission freelance
Senior Data Scientist
Publiée le
ADFS
Analyse financière
Azure
6 mois
550-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre du remplacement d’un consultant senior sortant, tu rejoindras l’équipe Pricing & Revenue Management afin d’assurer la continuité, l’évolution et la fiabilisation des modèles algorithmiques stratégiques. Ton rôle sera clé pour concevoir, développer et optimiser des modèles avancés de pricing et de revenue management, permettant de prévoir, indexer et optimiser les contrats clients dans un contexte business à forts enjeux. 🧠 Missions principales 1. Développement & optimisation de modèles Concevoir et développer des modèles avancés de pricing (indexation, forecasting, optimisation des revenus). Améliorer la performance des algorithmes existants (précision, vitesse, robustesse, explicabilité). Construire de nouveaux modèles data-driven liés au revenue management (élasticité, stratégie tarifaire, scénarios). 2. Engineering & Data Pipeline Développer, maintenir et optimiser des pipelines dans Azure Data Factory & Azure Databricks . Manipuler, transformer et structurer des données dans un environnement big data. Intégrer et orchestrer les données via Azure Lakehouse / ADLS . (Bonus) Utiliser PySpark pour gérer des volumes de données importants. 3. Collaboration & Interaction Business Travailler en étroite collaboration avec les équipes Pricing, Finance et Opérations. Comprendre les besoins business et les traduire en modèles statistiques exploitables. Documenter, présenter et vulgariser les résultats auprès des équipes métier. Garantir une forte réactivité et la fiabilité des livrables compte tenu des enjeux stratégiques. 🛠️ Stack technique Python : indispensable (modélisation, data processing, industrialisation). Azure Cloud : Databricks, ADF, ADLS / Lakehouse. PySpark : apprécié. Méthodes & domain expertise : Pricing algorithmique Revenue management Forecasting (séries temporelles, modèles ML) Optimisation (linéaire, stochastique, contraintes)
Mission freelance
[FBO] Architecte IA Full Remote - Bretagne - 1149
Publiée le
6 mois
400-600 €
Bretagne, Centre-Val de Loire
Télétravail 100%
Contexte de la mission Architecte IA Mission principale Concevoir et maintenir une architecture IA robuste, scalable et sécurisée exclusivement sur site. Responsabilités clés Définir l'architecture IA (clusters GPU, VLLM, pipelines MLOpS). Mettre en place l'infrastructure de développement (JupyterHub/Lab, CI/CD interne) Assurer la sécurité et la conformité (gestion des accès, supervision). Intégrer les solutions IA dans le SI existant. Compétences techniques DevOps / MLOps (Kubernetes, Docker, CI/CD). Gestion des environnements on-premise (Linux, virtualisation). Langages : Python, Bash. Bases Vectorielles : Qdrant et équivalent Frameworks IA : PyTorch, TensorFlow, haystack-ai, langchain/langgraph Sécurité et RGPD. Soft skills attendus Leadership technique, vulgarisation des concepts, et gestion agile de projets. Prestation adressable en full remote + déplacement ponctuel
Mission freelance
Expert IA / CP Cybersécurité (Sénior)
Publiée le
Cybersécurité
Data governance
Data Lake
12 mois
550-650 €
Île-de-France, France
Télétravail partiel
Contexte du poste Dans un contexte d’accélération des usages de l’IA et d’exigences croissantes en cybersécurité et conformité réglementaire (NIS2, RGPD, AI Act, bonnes pratiques ISO/IEC 42001, 27001/27005…), l’organisation souhaite structurer et formaliser sa politique de cybersécurité appliquée à l’IA. Le Chef de projet IA / Cybersécurité jouera un rôle clé dans la définition du cadre, sa mise en œuvre opérationnelle, et l’accompagnement des équipes techniques et métiers. Missions principales 1. Élaboration de la politique de cybersécurité appliquée à l’IA Construire une politique cybersécurité dédiée aux projets IA (purs ou intégrant des briques IA). Définir les exigences de sécurité adaptées aux différents types d’IA (ML, LLM, modèles embarqués, services cloud, etc.). Intégrer les enjeux liés aux données (qualité, confidentialité, gouvernance, gestion des jeux d’entraînement). 2. Définition du processus de prise en compte de la cybersécurité dans le cycle de vie des projets IA Conception d’un processus de sécurité couvrant tout le cycle : idéation, cadrage, conception, entraînement, validation, déploiement, exploitation. Coordination avec les métiers, les équipes d’ingénierie, les architectes, le juridique, la data gouvernance et le RSSI. Intégration du processus dans la gouvernance projet et dans les instances existantes. 3. Rédaction du livrable de référence : “Politique de prise en compte de la cybersécurité dans les projets et produits IA” Le livrable inclura notamment : L’organisation cible et les rôles/responsabilités (Métiers, Data, RSSI, Architectes, Juridique, Achats…). Les jalons de validation et exigences à contrôler à chaque étape. Les points de contrôle cyber spécifiques aux projets IA (robustesse des modèles, attaques adversariales, données sensibles, dérives de modèle, dépendances cloud…). Les grilles d’évaluation et matrices de risques cyber appliquées à l’IA (risques modèles, risques données, risques d’exploitation). Les clauses contractuelles types pour appels d’offres et contrats incluant de l’IA : obligations de sécurité, exigences de gestion et protection des données, auditabilité et monitoring, obligations de conformité (AI Act, RGPD…), obligations en matière de gestion de vulnérabilités IA. 4. Préparation de la phase opérationnelle Préparer le passage de la politique à l’opérationnel. Former et sensibiliser les équipes (ingénierie, métiers, achats, juridique). Participer à la structuration du dispositif opérationnel et soutenir l’Expert IA / Cybersécurité. Contribuer à la mise en place des outils de suivi, audit, monitoring sécurité des modèles.
Mission freelance
Product Owner Technique
Publiée le
Amazon S3
API
AWS Cloud
12 mois
430-550 €
Paris, France
Télétravail partiel
Nous recherchons un Product Owner Technique Senior pour rejoindre une équipe spécialisée dans le Platform Engineering , en charge des services et outils orientés résilience, infrastructure et FinOps . Vous piloterez des produits essentiels à la robustesse, la performance et la maîtrise des coûts d’une infrastructure Cloud AWS. Vous travaillerez avec une équipe pluridisciplinaire (Tech, SRE, Ops) et serez le garant de la qualité, de la fiabilité et de l’évolution continue des services proposés aux utilisateurs internes (équipes de développement). Vous intégrerez également une communauté de pratique Product Management , permettant échanges et montée en compétences collectives. Missions principales1. Pilotage des produits orientés résilience / FinOps Identifier les besoins prioritaires et organiser le backlog selon la valeur apportée (User Stories techniques, Epics). Suivre la construction des services de la plateforme via les rituels d’équipe (Daily Stand-up, backlog refinement, etc.). Assurer la qualité et la fiabilité des livrables techniques. 2. Suivi des performances et indicateurs Être l’interlocuteur privilégié des équipes de développement. Suivre les anomalies et incidents pour garantir des corrections rapides post-déploiement. Co-construire et suivre les indicateurs SLO/SLI, KPI FinOps, métriques DORA et DevEx, OKRs. Proposer des améliorations basées sur les données collectées (SRE, FinOps). 3. Partage de la vision et coordination Participer aux points de suivi avec les parties prenantes (Lead Devs, Architectes, Staff Engineers, Management). Recueillir les besoins des stakeholders pour faire évoluer la plateforme. 4. Contribution à la roadmap stratégique Définir les orientations produit en lien avec la fiabilité, la scalabilité et la maîtrise des coûts. Contribuer à la proposition de valeur et aux critères de succès de la plateforme. 5. Amélioration des pratiques internes Promouvoir l’amélioration continue des pratiques (REX, benchmark des outils SRE/Cloud). Livrables Roadmap produit hiérarchisée et partagée régulièrement. Backlog d’Epics et User Stories techniques prêt à être implémenté. Tableaux de bord KPI / OKRs (SLO/SLI, coûts AWS, métriques DORA et DevEx). Documentation produit (notes de release, guides d’adoption des outils). Animation des rituels Agile avec l’Agile Master.
Mission freelance
AI Engineer
Publiée le
AI
AWS Cloud
Azure
12 mois
500-800 €
75017, Paris, Île-de-France
Télétravail partiel
La mission s’inscrit dans le cadre du projet « Artificial Intelligence Engineering », au sein de la division GDAI du Groupe. Ce projet vise à accompagner les entités dans leur montée en compétence, en définissant et en appliquant les meilleures pratiques en matière d’ingénierie ML / LLM. Nous déployons un parcours de formation en ML/LLM Engineering à l’échelle mondiale du Groupe, et nous recherchons une personne pour soutenir cette initiative. Améliorer le référentiel de formation MLOps / ML Engineering utilisé à l’échelle mondiale au sein du groupe Faire évoluer le parcours vers des pipelines ML sur AWS et Databricks (actuellement sur Azure)
Offre d'emploi
Data Engineer – Data Analyste spécialiste DATAIKU
Publiée le
CI/CD
Cloudera
Git
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
La mission proposée sera d’accompagner les métiers dans la cadre du projet de sortie du progiciel SAS vers le progiciel DATAIKU. Dans ce cadre, les activités principales sont : • Accompagner les utilisateurs dans la prise en main de Dataiku et le déploiement des solutions pour leurs cas d’usage. Cela passe par la compréhension de leurs besoins et contraintes opérationnelles, l’étude des solutions potentielles basées sur le progiciel, et l’aide et support à la réalisation. • Appliquer et diffuser les bonnes pratiques Dataiku ainsi que du processus MLOPS. • Assurer le Support et RUN post déploiement : surveillance, maintenance et optimisation des traitements DATAIKU. Dans le cadre de cette mission, il y a de fortes exigences sur : • Le sens de service. • La pédagogie pour accompagner efficacement les utilisateurs SAS. • L’échange et la communication avec le reste de l’équipe SOD/IA Factory ainsi que les différents interlocuteurs sur ce sujet. A savoir, l’architecte SOD/SAS, l’architecte technique SOD, les architectes DATA ainsi que les interlocuteurs CAGIP. Le critère d’expérience doit s’appliquer à tous ces éléments pour garantir l’adéquation du profil à la demande. Expertise DATAIKU DSS avec certifications : • Core Designer • Advanced Designer • ML Practitioner • MLOps Practitioner • Developer • Generative AI Practitioner
Offre d'emploi
Architecte / Tech Lead IA
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
40k-65k €
Paris, France
Télétravail partiel
Redlab cherche un Leader technique de l’Usine IA de son client Il définit l’architecture des solutions IA/ML/LLM, organise les équipes techniques, garantit sécurité, performance et conformité (RGPD, AI Act). Missions clés Piloter les équipes techniques IA (développeurs, data scientists, ingénieurs). Concevoir des architectures scalables (microservices, event-driven). Encadrer l’industrialisation IA/ML/LLM (MLOps, GPU, cloud). Optimiser les processus métiers (AS-IS / TO-BE, BPMN). Coordonner les parties prenantes (métier, DSI, RSSI).
Offre d'emploi
Administrateur(trice) Dataiku DSS - LUXEMBOURG
Publiée le
Dataiku
Python
Scripting
6 mois
40k-60k €
400-600 €
Luxembourg
Mission au Luxembourg. Il est impératif et obligatoire de résider ou être proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passage sasu à eurl: transition mutuelle/prévoyance
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Facturation électronique 01 : Rappel du calendrier !
- Résultat négatif veut dire CCA débiteur donc illégal ?
- Création de site Wordpress : BIC ou BNC ?
45 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois