Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 430 résultats.
Freelance
CDI
CDD

Offre d'emploi
Développeur Python – IA / DevOps (H/F)

NSI France
Publiée le
Python

1 an
50k-55k €
500-600 €
Île-de-France, France
Nous recherchons un Développeur Python confirmé , doté d’une forte expertise technique, d’une appétence pour l’IA et d’une réelle sensibilité DevOps. Ce poste ne vise pas un profil Data Scientist ou Data Engineer : il s’agit d’un rôle de développeur Python haut niveau , capable d’intégrer, d’opérer, d’industrialiser et de fiabiliser des services IA. Responsabilité de la mission Intégrer et maintenir les services d’IA au sein d’une plateforme IA interne . Déployer et maintenir les composants de l’IA générative : LLMs, modèles d’embeddings, bases vectorielles, agents, orchestrations. Accompagner l’identification et le déploiement de cas d’usage IA pertinents au sein du groupe (contexte international). Maintenir les plateformes permettant la publication des services IA et les frameworks associés. Maintenir la plateforme de R&D mise à disposition des data scientists et leur apporter un support technique. Participer activement à la réduction de la dette technologique, notamment via la containerisation et l’industrialisation des composants.
Freelance

Mission freelance
Data Analyst (H/F) - 92 + Remote

Mindquest
Publiée le
AI
CRM
ETL (Extract-transform-load)

3 mois
250-450 €
Neuilly-sur-Seine, Île-de-France
Contexte Au sein de la fonction IT Commercial Excellence, le poste s’inscrit dans la mise en œuvre de la stratégie et de la feuille de route Digital Front-End, en étroite collaboration avec les parties prenantes métiers. Le rôle contribue également à l’innovation sur les processus, les outils et les technologies afin de soutenir la performance commerciale et la transformation digitale Mission principale La mission prioritaire consiste à piloter de bout en bout les activités de reporting et d’analytics pour un projet stratégique Route to Market en France, de la phase de définition jusqu’à la mise en œuvre opérationnelle. Le poste vise à fournir des solutions analytiques, stables, scalables et orientées métier, en s’appuyant sur les meilleures technologies du marché Responsabilités principales Piloter les activités de reporting et d’analytics de bout en bout sur des projets stratégiques Mettre en œuvre des solutions analytiques et technologiques en approche Agile Développer les capacités analytics et enrichir le portefeuille applicatif Concevoir des solutions adaptées aux besoins métiers, avec une forte orientation utilisateur Intégrer les technologies avancées de Data & AI dans les plateformes et processus Garantir la qualité, l’exploitabilité et l’organisation des données Définir les processus cibles et accompagner leur adoption par les métiers Identifier les tendances du marché, les meilleures pratiques et proposer des axes d’amélioration Évaluer les solutions aussi bien d’un point de vue conceptuel qu’opérationnel Soutenir les projets commerciaux clés au niveau local et européen Gérer les priorités locales et porter une vision régionale sur les processus et leur adoption Faire le lien entre la conception des processus et la capacité de delivery des solutions Interactions clés En interne : Parties prenantes Digital Front-End des différentes BU et BPO Équipes régionales centrales, solutions et digitales Responsables IT locaux et membres de l’équipe de direction IT Centre d’excellence Commercial Excellence Responsable IT Commercial Excellence Analyste IT Commercial Excellence En externe : Fournisseurs tiers AMS Parties prenantes Enjeux du poste Assurer un delivery agile et rapide de solutions adaptées aux besoins Stimuler l’innovation sur la donnée, les outils et les modes de fonctionnement Tirer parti des capacités digitales et analytiques internes et externes Concevoir une expérience utilisateur de qualité Mettre la donnée au cœur des dispositifs de pilotage et de transformation Intégrer l’analytics avancée et l’IA dans les usages métiers
Freelance
CDI

Offre d'emploi
Data scientist Senior

VISIAN
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
Python

1 an
Paris, France
Contexte Dans le cadre des projets IT Innovation, vous intégrerez l'équipe AI Factory/Innovation en tant que Data Scientist Senior avec une double mission stratégique : veille technologique et développement de modèles IA. Vous serez le référent technique sur les nouvelles approches IA/ML (LLMs, nouvelles architectures, techniques émergentes). Vous évaluerez la faisabilité technique des use cases métiers, benchmarkerez les solutions du marché (vendors, open-source) et réaliserez des quick POCs (2-3 jours) pour valider des hypothèses avant investissement. Vous concevrez et développerez les modèles ML/DL pour les use cases retenus, du choix des algorithmes à l'optimisation finale. Vous réaliserez des prototypes rapides (POC en 2-4 semaines) et accompagnerez un Data Scientist junior dans sa montée en compétences. Expert en vibe coding, vous utilisez les outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer l'exploration de données, le prototypage de modèles, la génération de code d'analyse et la documentation, tout en gardant un esprit critique sur les résultats. Vous travaillerez en mode agile en proximité avec les équipes métier Products & Innovation, les développeurs IA, les architectes et les autres Data Scientists. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.
Freelance
CDI

Offre d'emploi
Offre de mission Developpeur Fullstack Sénior equipe MOS sur Maison ALFORT

EterniTech
Publiée le
Angular
Apache Kafka
Copilot

3 mois
Maisons-Alfort, Île-de-France
Je cherche pour un de mes clients un Developpeur Fullstack Sénior equipe MOS sur Maison Alfort Contexte : L’objet de cette consultation est une prestation d’assistance technique pour un développeur Confirmé intervenant sur un périmètre du service de Gestion Assurance Export (GAE) au sein de la Direction des Services Informatiques du client qui mène à bien les projets informatiques. La mission se déroulera au sein des équipes Agiles en charge des applications du SI . Cette prestation d’assistance technique JAVA sera supervisée par le Scrum Master de l’équipe et le responsable du train SAFe TransSquadExpress. La mission s’exercera au sein de l’équipe de projets dédiée à l'Assurance-crédit mais pourra être amenée à évoluer au sein d’autres équipes du même groupe de projets ou sur des sujets complémentaires. Missions : Ci-dessous les principales activités à mener dans le cadre de la mission : • S'assurer que les besoins sont bien couverts dans les engagements du train • S'assurer que les livrables sont dans la cible technique du client • S'assurer de développer dans le cadre du DevSecOps • Promouvoir les pratiques DevSecOps au sein de l'équipe • Prendre en charge les correctifs nécessaires • Assurer la réalisation des tests unitaires et automatisés, des tests End To End • Participer au bon niveau des indicateurs sur l'Excellence opérationnelle de l'application et du périmètre de l'équipe • Participer aux revues des User Stories (US) et aux chiffrages • Corrections des anomalies et suivi de production • S'assurer que les pipelines de déploiement continu sont bien en place et conformes • Automatisation des tests dans le processus de déploiement • Création/correction de pipeline DEVSECOPS, Jenkins file • Utilisation d'outil de supervision d'applications • Participer aux cérémonies du train SAFe • Mettre en pratique l'usage de l'IA générative Compétences métier souhaitables : • La pratique de l'agilité dans une ou plusieurs missions précédentes est obligatoire. • Une formation ou mieux une certification SAFE favorisera la candidature. Liste des technologies : • Langages/Framework: Java v17+ / J2EE / SQL / Spring Boot 3+/ Spring Batch /Spring Data / Angular v14+ • Pratique de Github Copilot est un réel plus • Méthodologie : Agile (Scrum), SAFE • Webservices Rest • Intégration continue : Jenkins, Maven • Déploiement continu : Pipelines CI/CD, DevSecOps • Maîtrise des outils : JIRA (Structure, Big Picture, XRay), Power AMC • Mapping des données : JPA • Base de données : Oracle, PostgreSQL • Concepts à maitriser : Docker / Kubernetes / Kafka • Outils de tests: JUnit, Cucumber, Selenium, Gherkin • Gestion des anomalies et des assistances, Ticketing : ITSM • Gestion de configuration : Git • Pratiques : TDD/BDD • Gestion des appels API
Freelance
CDI

Offre d'emploi
Développeur Python IA

VISIAN
Publiée le
Agent IA
Natural Language Processing (NLP)
Python

1 an
Paris, France
Vous serez en charge du développement, de l'intégration et de l'optimisation des modèles d'intelligence artificielle pour les différents use cases métiers. Vous travaillerez en mode agile en proximité avec les Data Scientists, les architectes solutions, les équipes métier et IT des autres filiales de la banque. Vous aurez un rôle clé dans l'industrialisation et le déploiement des solutions IA en production. Expert en vibe coding, vous maîtrisez parfaitement les outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer le développement tout en maintenant des standards de qualité élevés. Vous êtes capable de décomposer des problèmes complexes en instructions claires pour l'IA et de valider/optimiser le code généré. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.
Freelance
CDI

Offre d'emploi
Développeur Python / IA (RAG & Multi-Agents) – H/F

LINKWAY
Publiée le
AI
Azure
Python

12 mois
40k-45k €
400-450 €
Paris, France
Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Développeur Python spécialisé en IA , avec une expertise sur les architectures RAG (Retrieval-Augmented Generation) et les systèmes multi-agents . Vos missions Concevoir et développer des solutions IA basées sur Python Mettre en place des architectures RAG (intégration de données, vectorisation, retrieval, LLM) Développer et orchestrer des systèmes multi-agents Intégrer des modèles de langage (LLM) dans des applications métiers Optimiser les performances et la qualité des réponses générées Participer à la veille technologique sur les sujets IA / GenAI Collaborer avec les équipes data, produit et métier
Freelance

Mission freelance
Product Owner / Business Analyst Google Workspace et Messagerie

SMH PARTICIPATION
Publiée le
Agile Scrum
AWS Cloud
Cloud

1 an
100-490 €
Niort, Nouvelle-Aquitaine
Dans le cadre de l’évolution de son environnement de travail numérique, nous recherchons un(e) Product Owner / Business Analyst pour intervenir sur le périmètre Google Workspace et Messagerie . Vous serez au cœur de la transformation digitale, en charge de : Porter la vision produit et définir la roadmap en alignement avec la stratégie globale Piloter et prioriser le backlog produit (recueil des besoins, rédaction des User Stories, critères d’acceptation) Assurer la coordination de l’équipe technique et animer les rituels Agile Faire le lien entre les équipes métiers et IT Vos principales responsabilités : 🔹 Pilotage produit (PO) Définition et gestion de la roadmap Priorisation des besoins et gestion du backlog Suivi de la performance produit (KPIs, vélocité…) 🔹 Analyse métier (BA) Cadrage des besoins et analyse des processus métiers Proposition de solutions innovantes (automatisation, outils collaboratifs, data) Intégration des enjeux de sécurité et conformité 🔹 Conduite du changement Accompagnement des utilisateurs dans l’adoption des nouveaux outils Animation d’ateliers, formations et communautés utilisateurs Mise en place de stratégies de déploiement et d’adoption Sensibilisation aux bonnes pratiques (RSE, sobriété numérique, usage responsable) Livrables attendus Roadmap produit et backlog priorisé User Stories et spécifications fonctionnelles Tableaux de bord de suivi (KPIs, adoption, performance) Plans de conduite du changement et supports utilisateurs
CDI

Offre d'emploi
CTO / DSI Groupe F/H - Direction informatique (H/F)

█ █ █ █ █ █ █
Publiée le

Rennes, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
CTO / DSI Groupe F/H - Direction informatique (H/F)

█ █ █ █ █ █ █
Publiée le

Laval, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Scientist (parlant Japonais ou Coréen)

OBJECTWARE
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
RAG

3 ans
40k-86k €
380-610 €
Île-de-France, France
Mission Concevoir et optimiser des systèmes de recherche intelligente basés sur l’IA générative (RAG) pour un SaaS métier, afin d’améliorer l’accès à l’information et la fiabilité des réponses. 🚀 Responsabilités Développer des pipelines RAG (embeddings, vector search, ranking) Optimiser la pertinence des résultats (precision, recall, MRR) Réduire les hallucinations des LLM Concevoir des architectures multi-agents via Semantic Kernel Industrialiser les modèles (API, intégration backend) 🧰 Stack IA : LLM, NLP, RAG, embeddings Cloud : Azure OpenAI Service Data : Azure Cosmos DB Backend : .NET 8, SignalR Front : React 5+ ans en Data Science / ML Expertise NLP / recherche sémantique Expérience en IA générative (RAG, LLM)
Freelance

Mission freelance
DATA SCIENTIST

Codezys
Publiée le
Azure
Azure AI Foundry
Azure DevOps Services

12 mois
450-500 €
Nanterre, Île-de-France
Description détaillée : VOTRE MISSION Concevoir et industrialiser des solutions d’intelligence artificielle générative (modèles de langage de grande taille, agents intelligents, RAG) en réponse aux besoins identifiés par la cellule AI Catalysts, priorisés par le Product Owner (PO). Intégrer ces composants GenAI au sein de l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de gestion des coûts. Définir et mettre en œuvre les architectures techniques appropriées : sélection des modèles, orchestration des agents, conception des systèmes RAG, gestion des sessions utilisateur. Développer et maintenir le code, principalement en Python, ainsi que les composants réutilisables tels que les librairies de prompts et d’agents. Industrialiser le déploiement des solutions via la conteneurisation (Docker), l’orchestration Kubernetes, les pipelines CI/CD, l’Infrastructure as Code (Terraform), et assurer le suivi opérationnel (monitoring). Appliquer les bonnes pratiques MLOps : suivi des expérimentations, versioning des modèles, tests de régression, validations en environnement pré-production. S’assurer de la qualité, de la performance et de l’observabilité des solutions : mise en place de métriques, tests adversariaux, surveillance des dégradations en production. Collaborer étroitement avec le Product Owner, les ingénieurs logiciels, les AI Catalysts et la DSI afin d’assurer la sécurité et l’adoption des solutions proposées. Participer à la documentation, à la création de templates, ainsi qu’à la formation des équipes internes. Profil recherché : Data Scientist Responsable du développement d’algorithmes en Machine Learning et Intelligence Artificielle, visant à générer de la valeur métier à partir de données (structures, non structurées, vidéos, images, etc.). Capable de comprendre et d’interroger les demandes de l’entreprise pour fournir des solutions optimales. Apporte un support stratégique à la décision, notamment en proposant des innovations, en améliorant les performances et en optimisant le service client. Participe à l’industrialisation des projets de Data Science en collaboration avec les Data Engineers. Assure la maintenance et la documentation des algorithmes industrialisés, conformément aux rôles et responsabilités définis par le projet. Localisation : Paris – Niveau avancé (minimum 9 ans d’expérience dans le domaine) Ce descriptif ne doit pas dépasser 3000 caractères, intégrant l’ensemble des éléments en HTML pour garantir une mise en forme claire et professionnelle.
Freelance

Mission freelance
Tech Lead Data GCP Expert F/H

SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker

12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Freelance

Mission freelance
Data Scientist / GenAI /LLM

Pickmeup
Publiée le
Machine Learning
Python
Pytorch

2 ans
650-750 €
France
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Freelance
CDI

Offre d'emploi
TECH LEAD DATA GCP

UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python

6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
Freelance

Mission freelance
Développeur Plateforme IA Agentique (H/F) x 3

Freelance.com
Publiée le
Agent IA
Angular
Apache Kafka

1 an
520-580 €
Île-de-France, France
Dans le cadre du développement d’une plateforme stratégique dédiée à l’intelligence artificielle, nous recherchons un développeur expérimenté pour intervenir sur la conception, l’évolution et l’industrialisation d’une plateforme agentique. Cette plateforme constitue un socle central permettant de concevoir, orchestrer et sécuriser des agents IA à destination des métiers. Elle intègre des composants tels qu’un registre d’agents, des mécanismes d’orchestration, des standards de gouvernance ainsi que des outils de conformité et de sécurité. Au sein d’un train plateforme, vous interviendrez sur : La conception et le développement de solutions autour des agents IA (frameworks agentiques, workflows, orchestration) L’intégration de modèles de GenAI (LLM, RAG, prompt engineering) La structuration et l’industrialisation des pipelines techniques (CI/CD, automatisation, infrastructure as code) La cohérence technique entre plusieurs équipes (data, IA, plateforme) L’évolution de l’architecture produit en lien avec les enjeux métiers et technologiques Vous jouerez un rôle clé dans la construction d’une plateforme robuste, scalable et sécurisée, en lien étroit avec les équipes d’ingénierie et les parties prenantes.
CDI
Freelance

Offre d'emploi
Développeur IA Python (AI-Native Developer)

TS-CONSULT
Publiée le
Azure
Pytorch
Tensorflow

1 an
Île-de-France, France
Bonjour, Actuellement je suis a la recherche d'un profil , Développeur IA Python (AI-Native Developer) Profil recherché : Développeur Python expérimenté, expert en IA/ML et maîtrisant le vibe coding, capable de développer rapidement des solutions innovantes avec assistance IA tout en garantissant la qualité et la maintenabilité du code. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe Un anglais courant!

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

430 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous