Trouvez votre prochaine offre d’emploi ou de mission freelance MLOps

Votre recherche renvoie 63 résultats.
Freelance
CDI

Offre d'emploi
Machine Learning Engineer – GenAI / RAG – GCP

xITed
Publiée le
BigQuery
Google Cloud Platform (GCP)
Large Language Model (LLM)

12 mois
38k-60k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet autour de l’industrialisation de solutions d’intelligence artificielle, nous recherchons un Machine Learning Engineer capable de concevoir et déployer des solutions basées sur des LLM et architectures RAG dans un environnement Google Cloud Platform . Le consultant interviendra sur la conception, le développement et la mise en production de solutions d’IA intégrées dans des applications métiers. Missions : Conception et développement de solutions basées sur LLM et RAG Développement et optimisation de modèles de Machine Learning Mise en place de pipelines MLOps Mise en production de modèles ML et GenAI Déploiement de services ML dans un environnement GCP Développement d’API d’inférence et intégration dans des applications métiers Collaboration avec les équipes data, cloud et engineering Compétences techniques Machine Learning / GenAI Python TensorFlow / PyTorch ou équivalent LLM RAG LangChain ou frameworks similaires Cloud & Infrastructure Google Cloud Platform Vertex AI BigQuery Cloud Run ou GKE MLOps Docker Kubernetes CI/CD
Freelance
CDI

Offre d'emploi
DevOps Engineer IA

TS-CONSULT
Publiée le
Azure
Terraform

1 an
Île-de-France, France
Bonjour a tous , actuellement je suis a la recherche d'un profil Compétences requises DevOps Engineer IA Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Hard Skills : • 5 ans d'expérience minimum en DevOps/SRE • Expérience démontrée en vibe coding avec utilisation d'outils IA pour générer scripts, configs et diagnostiquer incidents • Expertise en MLOps et déploiement de modèles IA en production • Maîtrise des plateformes Cloud (AWS, Azure, GCP) et services IA Cloud • Expertise en Infrastructure as Code (Terraform, CloudFormation, ARM Templates) • Maîtrise de la conteneurisation et orchestration (Docker, Kubernetes, Helm) • Expertise CI/CD (GitLab CI, GitHub Actions, Jenkins, Azure DevOps) • Connaissance des outils MLOps (MLflow, Kubeflow, Weights & Biases, SageMaker Pipelines) • Maîtrise du scripting (Bash, Python) et automatisation • Expérience en monitoring et observabilité (Prometheus, Grafana, ELK, DataDog) • Connaissance des pratiques de sécurité DevSecOps • Gestion des secrets et configuration (Vault, AWS Secrets Manager) • Un plus : Expérience avec GPUs et optimisation des ressources IA Soft Skills : • Capacité à utiliser l'IA pour diagnostiquer et résoudre rapidement les incidents • Pragmatisme : équilibre entre automatisation et délais de livraison • Rigueur dans la conception et la sécurisation des infrastructures • Esprit d'innovation et veille technologique continue • Autonomie et proactivité dans l'identification des problèmes • Excellent sens du service et support aux équipes de développement • Esprit collaboratif et pédagogue • Réactivité face aux incidents de production Résultats attendus (Livrables) • Conception et mise en place d'architectures Cloud pour solutions IA (scalables, sécurisées, optimisées) • Déploiement et gestion d'infrastructures as Code (Terraform, CloudFormation) • Mise en place de pipelines CI/CD pour applications et modèles IA • Utilisation experte du vibe coding pour générer scripts, configs et automatisations • Automatisation des déploiements et rollbacks (blue/green, canary) • Configuration du monitoring, alerting et observabilité des modèles IA en production • Gestion des environnements (dev, staging, production) et des accès • Optimisation des coûts Cloud et des performances (GPU, compute, stockage) • Support aux développeurs sur l'outillage et les best practices DevOps • Documentation technique des infrastructures et procédures • Mise en place de pratiques DevSecOps et conformité sécurité • Partage des best practices MLOps et vibe coding avec l'équipe Anglais courant
Freelance

Mission freelance
246359/Devops IA Bordeaux

WorldWide People
Publiée le
IA

3 mois
350 €
Bordeaux, Nouvelle-Aquitaine
Devops IA Bordeaux Minimum 5 ans d'expérience requis sur ce poste Compétences techniques requises : - Maîtrise DevOps avancée : Expertise confirmée sur Kubernetes, Docker, Helm et la gestion de pipelines complexes. - Infrastructure as Code : Très bonne connaissance d'outils comme Terraform. - Software Engineering : Solides bases en développement (designs patterns, bonnes pratiques de dev, archi logicel, tests...) en Python prioritairement. - Systèmes et Cloud : Bonne maîtrise des environnements Linux et des services Cloud (Azure) liés au calcul et au stockage. - BONUS : Connaissance MLOps et services Cloud (Azure prioritairement) Au sein de l'équipe, vous mettrez vos compétences au service de l'IA. Objectifs et livrables Vous serez notamment charge de : - Conception et gestion de la plateforme IA: Administrer et optimiser les clusters (Kubernetes) et les ressources de calcul (GPU/CPU). - Industrialiser le déploiement des environnements hors prod et prod via de l'infrastructure as code. - Mise en place de CI/CD pour les applicatifs de l'IA. - Monitoring et Observabilité: Déployer des outils de supervision avancés pour garantir la haute disponibilité des services IA et le suivi des performances système. - Optimisation et FinOps: Piloter la consommation des ressources cloud/on-premise pour rationaliser les coûts liés à IA. - Expertise technique: Accompagner les MLOps de l'équipe dans l'adoption des meilleures pratiques DevOps et assurer une veille technologique. Minimum 5 ans d'expérience requis sur ce poste Le profil recherché est un expert de l'infrastructure possédant une forte culture logicielle pour dialoguer avec les équipes data et datascience, et un intérêt pour le domaine de l'intelligence artificielle. Compétences techniques requises : - Maîtrise DevOps avancée : Expertise confirmée sur Kubernetes, Docker, Helm et la gestion de pipelines complexes. - Infrastructure as Code : Très bonne connaissance d'outils comme Terraform. - Software Engineering : Solides bases en développement (designs patterns, bonnes pratiques de dev, archi logicel, tests...) en Python prioritairement. - Systèmes et Cloud : Bonne maîtrise des environnements Linux et des services Cloud (Azure) liés au calcul et au stockage. - BONUS : Connaissance MLOps et services Cloud (Azure prioritairement) Compétences demandées Compétences Niveau de compétence MLOps Élémentaire Python Confirmé Kubernetes Confirmé IA Avancé Docker Confirmé
Freelance

Mission freelance
ML Platform Engineer Data - Azure(Niort)

Cherry Pick
Publiée le
Azure AI
Azure Data Factory
Azure Synapse

12 mois
550-600 €
Niort, Nouvelle-Aquitaine
La plateforme vise à industrialiser les usages Data et Machine Learning et à accompagner les directions métiers dans leurs expérimentations et produits data science. Le Platform Engineer intervient sur deux axes majeurs : le déploiement de l’infrastructure as code sur le cloud Azure le développement et l’industrialisation de pipelines CI/CD pour les usages Data Science Missions de l’équipe plateforme Assurer le maintien en condition opérationnelle , l’ évolutivité et la maîtrise technique de la plateforme Azure. Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et produits industriels Fournir un support fonctionnel et technique aux équipes métiers
CDI
Freelance

Offre d'emploi
Product Owner IA (H/F)

STORM GROUP
Publiée le
Confluence
IA
JIRA

3 ans
56k-60k €
500-550 €
Île-de-France, France
• Management de Produit & Agilité : Expérience confirmée en tant que Product Owner (ou poste équivalent) dans un contexte agile. Vous savez définir une vision produit, gérer un backlog, rédiger des user stories et animer une équipe agile multidisciplinaire. Une certification Product Owner ou Scrum Master serait un plus • Culture Data Science & IA : Solide culture des technologies Data et IA. Sans être Data Scientist vous-même, vous comprenez les concepts clés du Machine Learning (modèles prédictifs supervisés, scoring, etc.) ainsi que les approches d’IA Générative (LLMs, agents conversationnels…). Vous êtes capable d’échanger de manière fluide avec des Data Scientists sur des sujets comme la performance d’un modèle ou le fine-tuning d’un LLM. Vous vous tenez informé(e) des avancées du domaine (ex : nouvelles offres d’OpenAI/HuggingFace, frameworks comme LangChain) et percevez comment les appliquer concrètement à des cas d’usage métiers • Coordination Technique & MLOps : Bonne compréhension de l’écosystème Data Engineering/MLOps. Vous n’hésiterez pas à participer aux discussions techniques sur l’architecture des solutions IA. Idéalement, vous êtes familier avec le cycle de vie d’un modèle ML : du prototypage à la mise en production Cloud (Azure, conteneurisation Docker/Kubernetes, pipelines automatisés), en incluant le monitoring (data drift, performance, feedback utilisateurs). Vous savez ainsi challenger et soutenir techniquement l’équipe dans les choix de solution, et comprendre les contraintes d’échelle et de sécurité propres au secteur bancaire
CDI

Offre d'emploi
Data Engineer GCP (H/F)

CELAD
Publiée le

42k-48k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Freelance
CDI

Offre d'emploi
DevOps Engineer IA

TS-CONSULT
Publiée le
Azure
Nosql
Tensorflow

1 an
Île-de-France, France
Bonjour a tous je suis a la recherche d'un profil DevOps Engineer IA pour l'un de mes clients, Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe
Freelance

Mission freelance
Data Engineer GCP (H/F)

CELAD
Publiée le

1 an
400-440 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Freelance
CDI

Offre d'emploi
PRODUCTION OWNER TECHNIQUE GEC

VISIAN
Publiée le
Docker
Kubernetes

1 an
40k-80k €
400-700 €
Paris, France
Le bénéficiaire souhaite une prestation d’accompagnement dans l’objectif d’assurer une mission d'ownership technique du produit "RAG as a Service" Contexte: - Equipe de 20 experts repartis sur 5 poles d'activite (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). - 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists - Plusieurs infrastructures, plateformes et services d'IA Generative en production a l'attention de tous les métiers du Groupe. - Un GRID de GPU on premise utilise pourle training et l'inference. - Pratiques DevSecOps / GitOps / MLOps / LLMOps - Automatisation autour des APIs des infrastructures, des plateformes (kubernetes/openshift) et des produits. Les missions principales : - Participation à l’élaboration technique et fonctionnelle du produit IA qui sera attribué en lien étroit avec les équipes Solutions Engineering (veille technologique IA) et DevSecOps (industrialisation). - Garantie du respect des contraintes de sécurité, de conformité et de confidentialité applicables aux standards de production IT du groupe (eg. observabilité, auditabilité, traçabilité, contrôle des accès). - Définition et implémentation des mécanismes techniques permettant aux métiers ou à leur IT d’opérer leur propre gouvernance de votre produit. - Établissement, maintient et agrémentation de la feuille de route technique du produit afin d’apporter de la valeur de manière continue à celui-ci en lien avec les besoins de vos clients métiers. - Accompagnement au quotidien des utilisateurs et décideurs métiers et IT du groupe BNP Paribas qui utilisent votre produit et s’assurer avec eux de la mise en application des bonnes pratiques d’usage de celui-ci au sein de leurs équipes. - Supervision des opérations critiques (changement, déploiement, mise à jour) avec une vision de bout en bout des impacts sur les différents services gérés par l’équipe. - Organisation et documentation de la gestion des incidents?: analyse de root-causes, coordination inter-équipes. - Capacité à être moteur dans l’amélioration des processus internes et l’alignement avec les autres équipes du domaine IA & Données. - Capacité à être le représentant de la relation technique avec les fournisseurs qui contribuent à l’élaboration de votre produit (éditeurs logiciels, équipes d’industrialisation, équipes d’infrastructures).
CDI

Offre d'emploi
Développeur IA / AI Engineer - Paris H/F

Webnet
Publiée le
Cloud
Docker
Intelligence artificielle

45k-55k €
Paris, France
Dans ce cadre de projets chez nos clients grands compte, nous recherchons un Développeur IA pour concevoir, intégrer et industrialiser des modèles d’intelligence artificielle. Vous participez au développement des solutions intégrant des technologies d’intelligence artificielle pour automatiser des processus métier et créer de nouveaux produits numériques. Vous interviendrez sur l’ensemble du cycle de vie des solutions IA : conception, développement, intégration et optimisation. Vous aurez pour missions : Concevoir et développer des solutions basées sur l’intelligence artificielle Intégrer des modèles de machine learning et LLM dans des applications Développer des API et services backend pour exposer les fonctionnalités IA Participer à la mise en production et à l’industrialisation des modèles Optimiser les performances des pipelines data et des modèles Collaborer avec les data scientists, product owners et équipes produit Mettre en place des bonnes pratiques de MLOps et monitoring
CDI

Offre d'emploi
Data Engineer Banque(F/H)

CELAD
Publiée le

45k-50k €
Paris, France
Contexte Dans le cadre du développement d’une Squad Usages Data Avancés & IA , nous recherchons un(e) Data Engineer confirmé(e) pour contribuer à la conception, l’industrialisation et l’amélioration continue de solutions data à forte valeur ajoutée. Vous évoluerez dans un environnement orienté DataOps , MLOps et industrialisation de solutions analytiques, au sein d’une équipe pluridisciplinaire (Data Scientists, DevOps, Product Owner…). La squad intervient sur : La conception et la maintenance d’applications data L’amélioration continue des produits existants La construction de nouveaux usages Data & IA Vos missions Conception & Architecture Participer à la définition des solutions applicatives data Contribuer aux choix d’architecture (batch, streaming, microservices data) Concevoir des pipelines robustes, scalables et performants Développement & Intégration Construire et maintenir des pipelines ETL / ELT (données structurées et non structurées) Développer des traitements en Python (PySpark, FastAPI) et SQL Intégrer des flux temps réel via Kafka / Spark Réaliser les phases d’intégration et de recette technique Industrialisation – DataOps / MLOps Mettre en œuvre des chaînes CI/CD et de déploiement (Docker, Kubernetes, GitHub/GitLab Actions) Industrialiser des modèles statistiques ou de Machine Learning Versionner données, modèles et code Monitorer la performance, la qualité et les coûts des traitements Assurer l’observabilité des solutions (ELK, Prometheus/Grafana, MLflow) Qualité & Amélioration Continue Mettre en place des tests automatisés (Pytest) Maintenir un haut niveau de qualité de code (SonarQube) Améliorer l’efficacité des processus Maintenir une documentation claire et à jour Collaboration Travailler en étroite collaboration avec les membres de la squad Préparer des datasets pour l’exploration et l’analyse Accompagner les utilisateurs dans la prise en main des solutions Docker Kubernetes GitHub Actions ou GitLab CI Compétences techniques requises Langages & Frameworks: Python (PySpark, FastAPI), SQL Big Data & Streaming: Apache Spark, Apache Kafka Bases de données: PostgreSQL, Teradata, MySQL MLOps / CI-CD / Conteneurisation: Docker, Kubernetes, GitHub Actions ou GitLab CI Qualité & Observabilité: Pytest, SonarQube, Stack ELK, Prometheus / Grafana, MLflow
Freelance

Mission freelance
Data Scientist Senior

NEOLYNK
Publiée le
Python
SQL

3 mois
400-500 €
Lille, Hauts-de-France
Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques.
Freelance

Mission freelance
DATA ENGINEER DDL ( profil habilitable)

Signe +
Publiée le
Python

12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
Freelance
CDI

Offre d'emploi
Data Scientist Computer Vision sur Alsace

EterniTech
Publiée le
Computer vision
Data science
Vertex AI

3 mois
Grand Est, France
Je recherche pour un de mes clients un Data Scientist Computer Vision sur Alsace Vos missions Développer des modèles de Computer Vision pour identifier les fonctions et contenus des objets dans des images Accompagner les équipes commerciales dans l’exploitation des outils de classification et d’analyse visuelle Déployer et maintenir des solutions de traitement d’images en production sur GCP (Vertex AI) Concevoir des pipelines et algorithmes permettant la visualisation en temps réel de scènes d’ameublement Collaborer avec les équipes métier pour traduire les enjeux business en solutions techniques et aider au déploiement en production. Assurer une veille technologique pour intégrer les dernières avancées en vision par ordinateur Profil recherché Compétences techniques : Maîtrise des technologies Computer Vision (détection, segmentation, classification d’images) Expérience avec Vertex AI et déploiement sur GCP Solides connaissances en machine learning et deep learning Maîtrise de Python et frameworks associés (TensorFlow, PyTorch…) Connaissance des pipelines de production et des bonnes pratiques MLOps Profil : Diplôme Bac+5 (Data Science, IA, Informatique ou équivalent) Expérience significative en Computer Vision de 2 ans minimum dans des contextes similaires Capacité à comprendre les enjeux business et à collaborer avec les équipes commerciales Autonomie, rigueur et curiosité technologique Projets innovants à forte valeur business Impact direct sur les ventes et l’expérience client Environnement technologique moderne et dynamique Télétravail flexible et équipe collaborative
CDI
Freelance

Offre d'emploi
Développeur IA Python (AI-Native Developer)

TS-CONSULT
Publiée le
Azure
Pytorch
Tensorflow

1 an
Île-de-France, France
Bonjour, Actuellement je suis a la recherche d'un profil , Développeur IA Python (AI-Native Developer) Profil recherché : Développeur Python expérimenté, expert en IA/ML et maîtrisant le vibe coding, capable de développer rapidement des solutions innovantes avec assistance IA tout en garantissant la qualité et la maintenabilité du code. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe Un anglais courant!

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

63 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous