L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 104 résultats.
Mission freelance
[FBO] Ingénieur LLM - Agents autonomes / LangGraph Sénior
Publiée le
LangGraph
MLOps
Python
3 ans
400-680 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la contribution à la mise en place de fonctionnalités data science. Les missions sont: 1- Conception et développement d’agents autonomes avec LangGraph : - Architecturer des agents conversationnels ou décisionnels (ex: agents multi-outils, boucles de rétroaction, mémoire contextuelle). -Intégrer des modèles de langage (LLMs) via LangGraph pour des tâches complexes (ex: raisonnement multi-étapes, orchestration de workflows). -Optimiser les stratégies de prompt engineering et les mécanismes de contrôle (ex: function calling, tool use, plan-and-execute). 2- Intégration avec des pipelines ML/MLOps existants : -Connecter les agents LangGraph à des modèles custom (ex: fine-tuned LLMs, modèles de séries temporelles) via APIs ou pipelines. -Automatiser le versioning des agents et leur déploiement. 3- Ingénierie des données et features pour les agents : -Construire des pipelines de données pour alimenter les agents -Développer des mécanismes de mémoire (ex: bases de connaissances dynamiques). -Optimiser les coûts et la scalabilité (ex: caching des réponses, model distillation pour les edge cases). 4- Tests et robustesse : -Mettre en place des tests automatisés pour les agents (ex: simulations de dialogues, injection de fautes). -Surveiller les dérives comportementales (ex: hallucinations, boucles infinies) avec LangSmith. -Documenter les limites et cas d’usage (ex: matrice de risques pour les décisions critiques). Compétences souhaitées: Expérience avancée avec LangGraph : -Maîtrise des composants clés : StateGraph, prebuilt tools, human-in-the-loop, et intégration avec des LLMs. -Expérience en déploiement d’agents en production. Python et écosystème IA : -Bibliothèques : langgraph, langchain, llama-index, pydantic. -Frameworks ML : PyTorch/TensorFlow (pour customiser des modèles si besoin).
Offre d'emploi
QA Automaticien
Publiée le
AI
API
Dynatrace
3 ans
45k €
330-350 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Expertise sur la phase de tests d’API Expertise en tests fonctionnels end to end, tests de non régression, rédaction de scénarios de tests et cahiers de recette Maitrise en automatisation de tests Connaissances techniques (non exhaustives) sur Swagger/Postman, Bruno ou Karate, Jira/Xray, Grafana (monitoring) et Dynatrace, Gitlab Connaissance des plateformes Cloud Connaissance des concepts de ML, Generative AI, RAG, Corpus, LLM, d’agent, d’assistant, de prompt, d’hallucination et d’AI model Savoir formuler des requêtes efficaces pour interagir avec les IA génératives et obtenir les résultats souhaités Connaissance et usage critique de l’IA en prenant en compte ses limites et ses biais Connaissance des exigences RGPD et des aspects éthiques en lien avec l’IA Maitrise de la méthodologie Agile et certification SAFe Maitrise de l’anglais écrit/oral
Offre d'emploi
Data Engineer Expert Elastic Stack - F/H
Publiée le
Guyancourt, Île-de-France
Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Data Engineer Expert Elastic Stack au sein de nos équipes pour l'un de nos clients. Le contexte ? La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l'essor de nos infrastructures et l'évolution des technologies associées, ou encore l'automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l'organisation de la société et de ses Clients (équipes applicatives et socles multiples et dispersées). Au sein de la société, dans un contexte multi domaines/Clients (banque de détail, assurances, banque de marchés, asset management, etc.), vous êtes rattaché à l'équipe « Data4Ops », au sein du Domaine d'Expertise « Automatisation et Observabilité » Cette équipe a la charge de structurer les données dites « opérationnelles » à savoir les données utiles à l'ensemble des métiers et équipes opérationnelles, en adéquation avec la stratégie Data de l'entreprise (basée sur les principes/concepts Data Mesh) et en relation avec le PM (Product Manager) Observabilité Vos missions ? - Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d'automatiser les pipelines d'ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, ...) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l'entreprise (flux : collecte, traitement, stockage et leur cycle de vie) -Rédiger les documents fonctionnels et techniques, d'exploitation, en veillant au respect des normes existantes - Mettre en oeuvre en mode DevOps (CI/CD) - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles de l'entreprise pour prise en compte des flux de données - Développer les cas d'usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs Stack Elastic OpenSource
Mission freelance
Data Scientist – Projet Contracts AI
Publiée le
Docker
FastAPI
Machine Learning
3 mois
400-550 €
Paris, France
Télétravail partiel
En tant que Data Scientist, vous intégrerez l’équipe projet IA d'un de nos client et participerez aux activités suivantes : Mettre en œuvre la numérisation et la structuration du portefeuille de traités (traités et polices). Développer des analyses de wording et des analyses de tendances à partir des données contractuelles. Créer des jumeaux numériques alignés avec le modèle de données établi. Mettre en place des contrôles qualité et validation pour assurer l’intégrité des données. Produire une documentation technique complète pour l’intégration des données dans les modèles analytiques. Travailler en mode agile, avec des livrables versionnés sous GitLab (gitflow / mlflow).
Offre d'emploi
Tech Lead Cloud AWS - H/F
Publiée le
Cloud
50k-55k €
31000, Toulouse, Occitanie
Télétravail partiel
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Tech Lead Cloud AWS pour l'un de nos clients du secteur aéronautique. Vous interviendrez sur le site client situé à Toulouse (31). À ce titre, vos missions quotidiennes seront les suivantes : - Analyser le contexte technique, les besoins utilisateurs et les contraintes des équipes IA, Data et RPA ; - Définir le modèle cible de la plateforme Boost IT (architecture, sécurité, outillage, CI/CD, environnements, interfaces SEP IT) ; - Concevoir les architectures Cloud AWS en conformité avec les standards industriels et les référentiels SEP IT ; - Implémenter un MVP opérationnel de la plateforme, incluant les premiers environnements Cloud ; - Mettre en place des chaînes CI/CD automatisées basées sur GitLab CI, Jenkins et des pratiques DevOps avancées ; - Déployer des projets pilotes représentatifs (use cases IA, Data, ML Ops, RPA) pour valider la plateforme ; - Documenter l'architecture cible, la roadmap de déploiement, les procédures de RUN et les processus d'onboarding ; - Industrialiser les environnements Cloud via Infrastructure as Code (Terraform, CloudFormation) et outils d'automatisation ; - Accompagner la montée en compétences des équipes internes via ateliers, formations et partage de bonnes pratiques ; - Garantir la conformité, la sécurité et la pérennité de la plateforme dans un contexte industriel exigeant. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Offre d'emploi
Data Scientist LCB-FT
Publiée le
Data science
3 ans
40k-80k €
400-650 €
Île-de-France, France
Télétravail partiel
Contexte : La mission interviendra en appui d’une équipe projet pluridisciplinaire (métier conformité, gestion de projets, informatique, data science) en charge de mener à bien le développement interne d’une nouvelle solution informatique performante et innovante, intégrant notamment des fonctionnalités de machine Learning et d’intelligence artificielle en ligne avec les attentes du régulateur et les standards de place les plus performants. Prestations attendues : - Elaboration de nouveaux modèles de données adaptés à la Conformité, et notamment la révision de l’approche en matière de scoring, de segmentation de la clientèle, et des seuils de déclenchement des alertes sur opérations atypiques. - Réduction des alertes non pertinentes et l’optimisation des analyses et investigations - Sélection et la validation de variables pertinentes (features engineering) pour améliorer la performance des modèles de détection - Utilisation combinée de modèles de machine learning supervisés et non supervisés pour optimiser la détection des comportements suspects et réduire les faux positifs - Choix techniques et stratégiques adaptés aux enjeux et au contexte opérationnel du groupe BRED (typologie clients, offre produits et services, entités multiples…) - Accompagnement des différentes étapes des projets informatiques de la Conformité (études & cadrage, recette, suivi comités) dans le respect des échéances imposées - Contribution à la rédaction des livrables projets (expression de besoin métier, cahiers des charges, procédures) Expérience exigée dans la Lutte Contre le Blanchiment d'argent et le Financement du Terrorisme (LCB-FT)
Offre d'emploi
Data Scientist
Publiée le
Azure
Data science
Paris, France
Télétravail partiel
Vous êtes passionné·e par la donnée, l’intelligence artificielle et l’impact business ? Rejoignez une équipe innovante qui met la data au cœur des décisions stratégiques et participez à la conception de modèles prédictifs et de solutions à fort impact pour des projets internationaux. 🚀 Vos missions En tant que Data Scientist , vous serez au cœur de la transformation data. Vos principales responsabilités : Concevoir, développer et industrialiser des modèles de machine learning et d’ IA répondant à des problématiques concrètes (prévision de la demande, optimisation marketing, performance industrielle, etc.) Collaborer avec les équipes Data Engineering et les métiers pour traduire les besoins business en solutions data performantes Analyser, structurer et valoriser de grands volumes de données issues de sources multiples Garantir la qualité, la robustesse et l’interprétabilité des modèles déployés Participer activement à la diffusion d’une culture data-driven au sein de l’entreprise
Offre d'emploi
Expertise Fonctionnel Cyber Sécurité & Protection des Données
Publiée le
Agile Scrum
AWS Cloud
Azure
1 an
67k-76k €
660-670 €
Île-de-France, France
Télétravail partiel
Vous interviendrez au sein d’une entité spécialisée dans la cybersécurité des données liées au Cloud, IA, Big Data et Blockchain. Votre rôle sera d’apporter une expertise avancée en sécurité pour accompagner les projets Gen-AI et garantir la conformité des usages des technologies Microsoft et des standards internationaux. Missions principales : Assurer l’assistance sécurité des projets et centres de compétences sur les sujets Gen-AI . Définir et mettre en œuvre des architectures sécurisées pour les technologies Microsoft (Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML). Produire des dossiers de sécurité : analyses de risques, recommandations, blueprints, normes et standards. Réaliser des revues de code et audits sécurité des composants logiciels. Participer à la définition des KPI de gouvernance , tableaux de bord et roadmap de sécurité AI. Contribuer à la rédaction des politiques d’usage des LLM et guidelines de sécurité. Assurer le reporting et la consolidation des exigences sécurité pour les projets France et International.
Offre d'emploi
Azure Cloud Administrator & Architect H/F
Publiée le
Azure
3 ans
Île-de-France, France
Le département informatique travaille actuellement avec l'équipe Digital & Data Solution sur des initiatives liées à l'IA, au machine learning et aux données. Nous recherchons un expert Azure Cloud pour : - Administrer le tenant Azure existant du groupe - Contribuer à la mise en œuvre de cas d'utilisation de l'IA et du machine learning - Contribuer au projet Data Platform en participant activement au MVP avec la solution Snowflake - Mettre en place les meilleures pratiques Azure (automatisation, sécurité) avec différentes parties prenantes - Transférer ses compétences à l'équipe existante Vous collaborerez étroitement avec différentes équipes informatiques (cybersécurité, opérations informatiques, développement informatique, informatique métier), ainsi qu'avec l'équipe Digital & Data Solution. » Les équipes informatiques du Groupe comptent plus de 600 collaborateurs répartis entre Paris, Tunis, Francfort et Düsseldorf. Nous recherchons un expert Azure ayant une expérience significative (plus de 5 ans) dans l'administration et la conception de projets informatiques cloud. Connaissances en cloud (administration, support, IaC, automatisation, sécurité cloud) Très bonne expertise des services Azure, Terraform, scripting Administrer, surveiller et mettre en œuvre les services Azure Contribuer à la mise en œuvre de projets liés à l'IA et à la plateforme de données Promouvoir les meilleures pratiques DevSecOps Être une référence technique en matière d'IA et d'apprentissage automatique Travailler en étroite collaboration avec les architectes du groupe, les équipes de sécurité et DEX Solides compétences techniques dans Azure, IaC (terraform), Solide expérience dans les cas d'utilisation de l'IA et du machine learning dans Azure. La connaissance des scripts Azure PowerShell serait appréciée. Maîtrise de l'anglais. Expertise dans le cloud Azure.
Offre d'emploi
Directeur de projet & manager F/H
Publiée le
50k-70k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Afin de renforcer son pôle data pipeline et analytics (collecte & analyse des données, en particulier des données non structurées), notre entité Search & Sémantique recherche un directeur de projet F/H. L'équipe Search & Sémantique c'est?: - Une entité de 75 personnes et une expertise de 15 ans de développement, - Des projets dans des secteurs fonctionnels variés (santé, culture, énergie, etc.), - Une expertise dans la valorisation de l'information non structurée?: moteurs de recherche, applications innovantes de Traitement du Langage Naturel, Machine Learning, IA. Vous souhaitez participer au développement d'une entité aux projets variés et en plein développement?? CE QUE L'ON VOUS PROPOSE Opérationnellement vous superviserez des projets réalisés en mode forfaitaire, dans nos locaux, visant à collecter, normaliser, enrichir et analyser de la donnée, avec une spécialité dans le traitement de la donnée non structurée (donnée textuelle issue de documents). L'objectif est d'extraire les informations présentes dans les contenus documentaires et de les analyser comme les données structurées, élargissant le périmètre d'analyse puisqu'une large majorité de la donnée existe sous format non structuré. A ce titre, vos missions sont les suivantes?: - Assurer la réussite des projets sous votre responsabilité - Assurer la relation client - Piloter et manager les équipes - Organiser le partage de connaissances - Développer l'activité
Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)
Publiée le
Architecture
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Offre d'emploi
Architecte data engineering - Industrie H/F
Publiée le
35k-45k €
Saint-Égrève, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA). Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données). Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités). Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data. Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques. Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
Offre d'emploi
Architecte data engineering - Industrie H/F
Publiée le
40k-50k €
France
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : * Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA) ; * Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données) ; * Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités) ; * Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data ; * Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques ; * Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
Offre d'emploi
DATA SCIENTIST
Publiée le
Natural Language Processing (NLP)
6 mois
40k-45k €
400-550 €
Paris, France
Contexte : Dans le cadre du développement de nos projets IA, nous recherchons un Data Scientist expérimenté maîtrisant Vertex AI et les technologies modernes de modélisation et d’industrialisation. Missions : Développement et entraînement de modèles ML/IA (supervisé, non supervisé, deep learning). Utilisation avancée de Vertex AI (training, pipelines, model registry, monitoring). Participation à la construction de solutions génératives ou prédictives (LLM, NLP, time series, recommendation…). Préparation, exploration et structuration de datasets à grande échelle. Déploiement, optimisation et suivi des modèles en production. Compétences recherchées : Très bonne maîtrise de Python , Scikit-Learn, TensorFlow ou PyTorch. Expertise Vertex AI (training, notebooks, pipelines, endpoints). Connaissance des environnements GCP (BigQuery, Storage, Pub/Sub). Solides compétences en statistiques, math appliquée et optimisation. Expérience avec LangChain / LangGraph / LLM (souhaitée). Profil attendu : 3 à 8 ans d’expérience en Data Science ou ML Engineering. Capacité à vulgariser et à proposer des solutions adaptées au besoin métier. Forte autonomie et sens du delivery.
Offre d'emploi
DATA SCIENTIST
Publiée le
Azure
Databricks
Python
3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client nous recherchons un Data Scientist 👽. Contexte Notre client a misé sur une plateforme Big Data sur Microsoft Azure pour centraliser ses flux data, stocker des pétaoctets de données dans des Data Lakes et industrialiser des cas d’usage IA stratégiques. La Data Science joue un rôle clé, notamment dans les projets de maintenance prédictive, d’information voyageurs et d’optimisation opérationnelle. Missions principales Développer des modèles de Machine Learning et d’IA sur des volumes massifs de données stockées sur Azure (Data Lake, Data Factory, Databricks). Construire des features temporelles , utiliser des séries temporelles ou des méthodes statistiques avancées pour modéliser des phénomènes (ex : retards, maintenance). Analyser les données météorologiques, de trafic, IoT, capteurs ou autres sources pour créer des prédictions (ex : retards, pannes) ou des systèmes d’alerte. Industrialiser les pipelines d’entrainement et d’inférence sur Azure (notamment via Azure Databricks, Azure ML, etc.). Monitorer les performances des modèles, mettre en place des métriques qualité, des alertes, des feedback loops. Collaborer avec les équipes infrastructure / Data Engineering pour garantir la scalabilité et la gouvernance des flux data. Accompagner les équipes métier (opération, maintenance, transport, marketing) dans l’exploitation des modèles prédictifs. Documenter les modèles, écrire des rapports, créer des visualisations et restituer les résultats de manière pédagogique. Cloud Azure : Data Lake, Data Factory, Databricks. Big Data : Spark (Scala ou Python) pour traitement distribué. Langages : Python (pandas, scikit-learn, ML frameworks), SQL / T-SQL. Machine Learning / IA : régression, classification, séries temporelles, modèles statistiques, ou algorithmes supervisés / non supervisés. Data Engineering / Pipeline : connaissance des pipelines ETL/ELT, ingestion de données, feature engineering. MLOps : pipelines de déploiement, scoring, orchestration, monitoring, versioning des modèles. Gouvernance des données : qualité, sécurité, catalogage. Architecture des données : conception de schémas, datalakes, modélisation. Compétences transverses Esprit analytique et méthodique . Capacité à vulgariser des concepts complexes auprès des équipes métier. Autonomie, rigueur, curiosité et force de proposition. Aisance relationnelle et collaboration interdisciplinaire (Data, produit, exploitation). Capacité à prioriser et structurer le travail sur des sujets long terme. Profil recherché Formation : Bac+5 (informatique, data, maths, statistique, IA…). Expérience : minimum 3 à 6 ans en data science / machine learning, idéalement sur des environnements cloud / Big Data. Langues : bon niveau d’anglais technique. Atout : expérience antérieure dans le transport, l’IoT, la maintenance, ou de lourdes infrastructures data.
Mission freelance
AI Engineer
Publiée le
AI
AWS Cloud
Azure
12 mois
500-800 €
75017, Paris, Île-de-France
Télétravail partiel
La mission s’inscrit dans le cadre du projet « Artificial Intelligence Engineering », au sein de la division GDAI du Groupe. Ce projet vise à accompagner les entités dans leur montée en compétence, en définissant et en appliquant les meilleures pratiques en matière d’ingénierie ML / LLM. Nous déployons un parcours de formation en ML/LLM Engineering à l’échelle mondiale du Groupe, et nous recherchons une personne pour soutenir cette initiative. Améliorer le référentiel de formation MLOps / ML Engineering utilisé à l’échelle mondiale au sein du groupe Faire évoluer le parcours vers des pipelines ML sur AWS et Databricks (actuellement sur Azure)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
104 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois