L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 214 résultats.
Offre d'emploi
Architecte / Tech Lead IA
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
40k-65k €
Paris, France
Télétravail partiel
Redlab cherche un Leader technique de l’Usine IA de son client Il définit l’architecture des solutions IA/ML/LLM, organise les équipes techniques, garantit sécurité, performance et conformité (RGPD, AI Act). Missions clés Piloter les équipes techniques IA (développeurs, data scientists, ingénieurs). Concevoir des architectures scalables (microservices, event-driven). Encadrer l’industrialisation IA/ML/LLM (MLOps, GPU, cloud). Optimiser les processus métiers (AS-IS / TO-BE, BPMN). Coordonner les parties prenantes (métier, DSI, RSSI).
Mission freelance
Développeur·se Backend Python / Java – Agents IA & GCP – Anglais requis (F/H)
Publiée le
API REST
Design pattern
GenAI
12 mois
440-540 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Développeur·se Backend Python / Java – Agents IA & Google Cloud Platform pour intervenir chez l’un de nos clients grand compte du secteur automobile. Voici un aperçu détaillé de vos missions 🎯 : - Développer des services backend pour des agents intelligents dans le cadre du programme Augmented - Intégrer et faire évoluer des services d’agents RAG (Retrieval-Augmented Generation) dans l’architecture micro-services existante - Améliorer et optimiser les composants d’ingestion de données non structurées - Développer des cas d’usage IA innovants et généralisables - Évaluer et tester des outils de développement basés sur l’IA et proposer des guidelines d’intégration aux autres équipes GenAI - Explorer rapidement de nouvelles technologies et monter en compétence sur des sujets innovants - Participer à la rédaction de la documentation technique, aux tests unitaires, d’intégration et fonctionnels bout-en-bout - Contribuer aux bonnes pratiques de développement et à l’industrialisation des composants backend
Mission freelance
Architecte Sécurité
Publiée le
Cybersécurité
3 mois
400-670 €
Île-de-France, France
Contexte de la mission L'équipe Cybersécurité assure la protection et la sécurisation de l’ensemble du groupe : elle pilote la stratégie de gouvernance et les processus de gestion du risque, s’assure de la conformité de nos systèmes d’information, définit les moyens techniques nécessaires à la détection et à la réponse aux incidents, ainsi que les moyens de contrôle associés. Nous cherchons à renforcer notre équipe Security Advice Office d’un Cybersecurity Architect . Nous accompagnons au quotidien les équipes Digital dans l’intégration de la cybersécurité dans leurs projets, qu’il s’agisse de la sécurisation de la data, de l'IA, de l’infrastructure, des plateformes ou encore des applications du groupe. Pour réussir cette mission, l’équipe Advice : Fournit des conseils applicables et contextualisés aux équipes Digital ;1 Réalise la revue de l’intégration de la cybersécurité dans les architectures existantes ;2 Délivre des guidelines permettant de mettre en applicat3ion les bonnes pratiques Cyber ; Réalise des études d’exploration sur certains sujets novateurs et différenciateurs pour la Cybersécurité. Objectifs et livrables Le Cybersecurity Architect recherché aura pour mission : D’accompagner les équipes Digital en les aidant à intégrer la cybersécurité dès les phases de choix de solution et de design ; De créer des guidelines de sécurité permettant aux équipes de mettre en application les bonnes pratiques sur leur périmètre ; De prendre part à des revues d’architecture cybersécurité des infrastructures, plateformes et applications du groupe ; De partager ses connaissances en matière de cybersécurité auprès de son équipe et, plus largement, auprès des équipes Digital. Périmètre technique Cloud Public (AWS / GCP) ; Infrastructure As Code ; Instances, Containers, Kubernetes, Serverless ; API Management ; CI/CD, GitOps ; Protocoles d'authentification et d'autorisation (SAML, Oauth2.0, OIDC, …) ; Aiven, Data Platform (Datalake, ETL, …), Data flows management (Kafka, …) ; Solutions IoT (hardware, application mobile, Cloud Public) ; Network : Interconnexion, VPN, PAM, WAF, Proxy et Load Balancing. Profil recherché Formation supérieure en informatique et solide expérience en cybersécurité (infrastructure, plateforme, applications) ; Maîtrise du Cloud Public et d'au moins un langage (Python, Java, JavaScript) ; Excellente communication (écrite, orale, anglais obligatoire car équipe internationale), capable d'adapter son discours aux différents interlocuteurs (produit, business, tech) ; Esprit d'équipe , force de proposition, orienté solution/client, et rigueur dans la production de livrables documentaires qualitatifs ; Passionné par la tech , capable d'innover et d'évoluer dans un contexte international ; Approche orientée par les risques et tempérament de "problem solver". Des certifications sécurité sont appréciables (AWS, GCP, SANS, Offsec, etc.). Compétences demandées CompétencesNiveau de compétence Frameworks CybersécuritéConfirméDocumentationConfirmé CYBERSÉCURITÉExpertArchitecture CyberExpert Risques CyberConfirmé LanguesNiveau de langueAnglaisCourant
Mission freelance
Tech Lead GenAI - Azure
Publiée le
Azure AI Foundry
IA Générative
3 ans
550 €
Paris, France
Télétravail partiel
Besoin urgent, nous pouvons confirmer votre intégration ce mois-ci. Objectifs principaux : Répondre aux besoins des clients internes en matière de solutions GenAI. Couvrir un large panel de métiers industriels (techniciens, ouvriers, ingénieurs mécaniques, etc.). Développer et maintenir des solutions IA scalables, industrialisables et alignées avec les enjeux business. Contribuer à l’intégration de l’IA dans les processus d’ingénierie (Engineering + AI Engineering). Rôle et responsabilités Tech Lead IA : rôle fédérateur, garant des bonnes pratiques, de l’architecture et de la vision technique. Conception d’architectures logicielles IA robustes, sécurisées et adaptées à un contexte industriel. Construction de pipelines de données et modèles IA exploitables à grande échelle. Participation active à l’intégration des solutions dans les environnements existants (IT/OT). Accompagnement des équipes techniques sur la compréhension, l’usage et les limites de la GenAI. Relation client interne & compréhension métier Identifier et analyser les besoins des clients finaux (techniciens, ingénieurs, opérateurs, etc.). Traduire les problématiques terrain en cas d’usage IA concrets et pertinents. Assurer un suivi régulier avec les parties prenantes pour affiner les besoins et proposer les bonnes solutions. Adapter les solutions aux réalités du domaine industriel et ferroviaire (sécurité, robustesse, contraintes opérationnelles). Collaboration & intégration dans l’équipe S’intégrer efficacement dans une équipe pluridisciplinaire (ingénierie, IT, data, production). Maintenir une communication fluide, transparente et pédagogique avec les équipes. Être reconnu comme un référent technique, accessible et proche des équipes. Travailler avec des collègues basés aux US, en Espagne ou dans d’autres pays (collaboration internationale).
Mission freelance
Lead MLOps Python - Spécialiste IA/RAG
Publiée le
IA
MLOps
Python
3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Offre d'emploi
Développeur Frontend Node.js / Express – GenAI & Google Cloud Platform – Anglais requis (F/H)
Publiée le
API REST
Copilot
Github
12 mois
44k-55k €
440-540 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Développeur Frontend Node.js / Express – GenAI & Google Cloud Platform – Anglais requis (F/H) Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Développeur·se Frontend Node.js / Express – GenAI & Google Cloud Platform pour intervenir chez l’un de nos clients grand compte du secteur automobile. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Développer des briques Front innovantes permettant d’utiliser la GenAI à l’échelle de l’entreprise - Intégrer de nouveaux écrans de personnalisation d’agents dans l’architecture existante - Évaluer et tester des outils de développement basés sur l’IA - Concevoir des cas d’usage IA innovants et généralisables - Explorer rapidement de nouvelles technologies et monter en compétence - Participer à la rédaction de guidelines et documentation techniques pour l’intégration des solutions GenAI - Contribuer à la qualité du code, tests unitaires et fonctionnels, et bonnes pratiques Front - Collaborer avec les équipes Agile / SAFe et dans un environnement international
Mission freelance
236191/Architecte IA
Publiée le
MLOps
3 mois
Bretagne, France
Télétravail 100%
Architecte IA Compétences techniques DevOps / MLOps (Kubernetes, Docker, CI/CD). Gestion des environnements on-premise (Linux, virtualisation). Langages : Python, Bash. Bases Vectorielles : Qdrant et équivalent Frameworks IA : PyTorch, TensorFlow, haystack-ai, langchain/langgraph Sécurité et RGPD. Mission principale Concevoir et maintenir une architecture IA robuste, scalable et sécurisée exclusivement sur site. Responsabilités clés Définir l'architecture IA (clusters GPU, VLLM, pipelines MLOpS). Mettre en place l'infrastructure de développement (JupyterHub/Lab, CI/CD interne) Assurer la sécurité et la conformité (gestion des accès, supervision). Intégrer les solutions IA dans le SI existant. Compétences techniques DevOps / MLOps (Kubernetes, Docker, CI/CD). Gestion des environnements on-premise (Linux, virtualisation). Langages : Python, Bash. Bases Vectorielles : Qdrant et équivalent Frameworks IA : PyTorch, TensorFlow, haystack-ai, langchain/langgraph Sécurité et RGPD. Soft skills attendus Leadership technique, vulgarisation des concepts, et gestion agile de projets. Prestation adressable en full remote + déplacement ponctuel
Mission freelance
INGENIEUR MLOps
Publiée le
Ansible
Apache Airflow
Cloud
3 ans
Lille, Hauts-de-France
Télétravail partiel
Objectif de la mission Mettre en place et maintenir une chaîne d’intégration et de déploiement des modèles de Machine Learning en production, garantissant robustesse, scalabilité et monitoring. Contexte Vous interviendrez au sein d’une équipe Data & IA pour industrialiser des modèles ML liés à la qualité, la classification et l’enrichissement des données produits. Collaboration étroite avec Data Scientists et Data Engineers pour transformer des prototypes en solutions fiables. Responsabilités Conception & Déploiement Développer et maintenir des pipelines MLOps automatisés (CI/CD). Mettre en place l’infrastructure cloud via IaC. Assurer le versioning des modèles, données et pipelines (ZenML, MLflow). Monitoring & Maintenance Implémenter l’observabilité (drift, latence, qualité prédictions). Configurer alertes pour anomalies et dégradations. Optimiser les ressources de calcul. Collaboration & Qualité Accompagner les Data Scientists sur les bonnes pratiques MLOps. Intégrer des Data Quality Gates dans les pipelines. Contribuer à l’architecture Data Mesh (modèles = Data Products).
Offre d'emploi
Ingénieur DevOps IA
Publiée le
Linux
Python
1 an
40k-45k €
330-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Au cœur du AI Innovation Lab d'un groupe bancaire international multi‑entités, vous aurez pour mission de concevoir, déployer et expérimenter des Proof‑of‑Concept (POC) innovants autour des agents autonomes et des modèles de langage (LLM) appliqués aux jeux de données d'infrastructures IT. L'objectif : fournir des aides intelligentes à la production, faciliter la supervision, l'automatisation et la résolution proactive d'incidents. Le poste s'inscrit dans une démarche agile, collaborative et orientée industrialisation à terme. Missions principales Concevoir et gérer des environnements d'expérimentation Kubernetes/Docker avec intégration CI/CD (Jenkins, GitLab CI/CD, ArgoCD). Automatiser la collecte, la pré‑traitance et l'exploitation des datasets d'infrastructure (logs, CMDB, monitoring) pour entraîner et alimenter des agents basés sur LLM. Développer et intégrer les pipelines de déploiement d'agents IA en collaboration avec les data‑scientists et ingénieurs IA (utilisation de LangChain, AutoGen ou équivalents). Implémenter des scripts et outils en Python, Bash, Go pour l'automatisation des tâches infra, l'orchestration et le monitoring. Garantir la sécurité du développement et des déploiements dans un environnement réglementé : DevSecOps, outils SAST/DAST, gestion des accès, conformité RGPD. Produire la documentation technique des POC, rédiger les spécifications d'industrialisation pour les équipes produit. Assurer une veille technologique continue sur les évolutions des architectures agentiques, LLM et de l'automatisation infra. Compétences techniques clés - Systèmes d'exploitation : maîtrise avancée de Linux/Unix et des concepts réseaux (TCP/IP, HTTP, DNS, VPN). Cloud & IaC : AWS, Azure, GCP – Terraform, Pulumi, CloudFormation. Conteneurisation & orchestration : Docker, Kubernetes, Helm. CI/CD : Jenkins, GitLab CI, ArgoCD. Automation configuration : Ansible, Puppet, Chef. Langages : Python (expert), Bash, Go (appréciés). Monitoring & logging : Prometheus, Grafana, ELK Stack.
Offre d'emploi
Développeur Python Flask Fast API - IA - Celery - Pydantic
Publiée le
Docker
FastAPI
Flask
3 ans
40k-70k €
100-600 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Fiche de poste – Développeur IA (H/F) Localisation : Issy-les-Moulineaux Secteur : Assurance Type de mission : CDI / Freelance Contexte : Multi-projets – organisation agile et adaptative Contexte de la mission Dans un environnement assurance en forte transformation digitale, le Développeur IA intervient au sein d’équipes pluridisciplinaires sur plusieurs projets à forte valeur ajoutée autour de l’ Intelligence Artificielle et de la data . L’organisation est adaptative et orientée priorités business Le consultant évolue dans un cadre multi-projets , avec une forte interaction entre les équipes IT, Data, Produit et Métiers. Environnement technique / Stack Langage : Python Frameworks API : Flask, FastAPI Traitement asynchrone : Celery Validation & modélisation des données : Pydantic CI/CD : GitLab CI Conteneurisation : Docker Orchestration : Kubernetes Architecture : Micro-services, API REST Méthodologies : Adaptative / Agile / Cycle en V / En fonction des priorités Profil recherché Formation Bac+5 (école d’ingénieur ou université) Expérience confirmée en développement Python Bonne compréhension des enjeux d’industrialisation IA À l’aise dans des environnements multi-projets et évolutifs Sens des priorités et forte capacité d’adaptation Bon relationnel et esprit collaboratif
Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform
Publiée le
AWS Cloud
DevOps
Linux
12 mois
600-650 €
Paris, France
Télétravail partiel
Mission L’équipe Platform Engineering du client est au cœur de la livraison de nos produits en fournissant une plateforme cloud fiable, sécurisée et scalable. En tant qu’Ingénieur DevOps (AWS/Terraform), votre mission est de concevoir, industrialiser et opérer la plateforme et les outils qui permettent aux équipes de construire, déployer et faire évoluer leurs applications rapidement et en toute sécurité sur AWS. Tâches principales Dans cette mission d’Ingénieur Plateforme Cloud Data, vous aurez les responsabilités suivantes : Concevoir et développer des modules Terraform avancés et réutilisables (réseau, sécurité, calcul, data, edge) alignés avec des standards d’architecture robustes et les bonnes pratiques AWS. Faire évoluer une architecture multi-comptes (AWS Organizations, Control Tower/SCPs, gouvernance, identités) afin de fournir un cadre de déploiement sécurisé et scalable. Définir des blueprints d’infrastructure et d’applications (« golden paths ») pour des workloads conteneurisés (EKS/ECS/Fargate), serverless (Lambda) et traditionnels (EC2/ASG), incluant le réseau, l’observabilité et la sécurité. Construire et maintenir des pipelines CI/CD pour l’infrastructure et les applications (Jenkins/GitLab CI), incluant les tests, le policy-as-code (OPA/Conftest), la sécurité (tfsec/Checkov) et l’automatisation des plans/apply (Atlantis/Spacelift/Terraform Cloud). Exploiter et renforcer la plateforme : supervision/alerting/logging/tracing (CloudWatch, OpenTelemetry, Prometheus/Grafana, OpenSearch, Datadog), définition des SLI/SLO, gestion de la capacité, sauvegardes et reprise après sinistre. Sécuriser l’environnement : IAM à privilèges minimaux, KMS, Secrets Manager, patching, gestion des secrets (SOPS), scan des IaC et des images. Gérer Terraform à grande échelle : state distant (S3 + verrouillage DynamoDB), stratégie de versioning, cycle de vie des modules, patterns multi-environnements, détection et remédiation du drift. Accompagner les équipes du client dans la migration des workloads on-premise vers AWS : évaluations, sélection des patterns, adoption de templates, outillage et coaching pour l’auto-service. Identifier et automatiser les tâches répétitives (outillage Bash/Python, automatisation Terraform ou copilotes IA) afin d’accélérer les déploiements et les migrations. Contribuer au support N2/N3, à la gestion des incidents et aux post-mortems ; produire une documentation claire et assurer le transfert de connaissances. Qualifications / Compétences requises Minimum 3 ans d’expérience en DevOps/SRE/Platform Engineering et au moins 2 ans d’expérience en production sur AWS. Diplôme Bachelor ou Master en Informatique/Ingénierie (ou équivalent). Excellente maîtrise de Terraform : conception de modules, providers, gestion du state, structuration et bonnes pratiques, tests et releases. Expertise approfondie AWS : VPC/Transit Gateway, IAM, EC2/ASG, EKS/ECS/Fargate, RDS, DynamoDB, S3, ALB/NLB, Route 53, Lambda, CloudWatch, Systems Manager, KMS, Organizations/Control Tower. Solides compétences Linux, réseaux (TCP/IP, DNS, TLS) et scripting (Bash) ; Python pour l’outillage et les intégrations. Fortes pratiques DevOps et expérience CI/CD ; Git, MR/revue de code. Conteneurs et orchestration (Docker, Kubernetes/EKS), packaging (Helm), registry et sécurité de la supply chain. Excellentes capacités de collaboration ; aptitude à traduire les besoins produit en solutions techniques simples, robustes et sécurisées. Bonus Expérience des méthodes agiles (Scrum/Kanban) et culture produit (roadmaps, discovery, boucles de feedback). Certifications appréciées : AWS Solutions Architect/DevOps Professional, HashiCorp Terraform Associate, CKA/CKAD. Familiarité avec des outils tels que Terragrunt, Atlantis/Spacelift/Terraform Cloud, Argo CD/Flux (GitOps), Packer. Forte sensibilité sécurité et conformité en environnement cloud.
Mission freelance
[FBO] Architecte IA Full Remote - Bretagne - 1149
Publiée le
6 mois
400-600 €
Bretagne, Centre-Val de Loire
Télétravail 100%
Contexte de la mission Architecte IA Mission principale Concevoir et maintenir une architecture IA robuste, scalable et sécurisée exclusivement sur site. Responsabilités clés Définir l'architecture IA (clusters GPU, VLLM, pipelines MLOpS). Mettre en place l'infrastructure de développement (JupyterHub/Lab, CI/CD interne) Assurer la sécurité et la conformité (gestion des accès, supervision). Intégrer les solutions IA dans le SI existant. Compétences techniques DevOps / MLOps (Kubernetes, Docker, CI/CD). Gestion des environnements on-premise (Linux, virtualisation). Langages : Python, Bash. Bases Vectorielles : Qdrant et équivalent Frameworks IA : PyTorch, TensorFlow, haystack-ai, langchain/langgraph Sécurité et RGPD. Soft skills attendus Leadership technique, vulgarisation des concepts, et gestion agile de projets. Prestation adressable en full remote + déplacement ponctuel
Mission freelance
Lead Tech – Expert SharePoint SE & Architectures Modernes
Publiée le
API
SharePoint
3 ans
Lyon, États-Unis d'Amérique
« Gestion et Partage de l’Information » (GPI), responsable des espaces documentaires et des solutions collaboratives : Intranet, Extranet, Annuaire et espaces de travail des collaborateurs, reposant sur le socle applicatif SharePoint. Ce projet stratégique vise à moderniser la gestion des connaissances en s’appuyant sur SharePoint SE, tout en développant une interface front-end indépendante et des services API pour garantir une interopérabilité optimale et une forte évolutivité. Concevoir une interface front-end découplée connectée à SharePoint SE via API EasyService. Superviser l’intégration des API et la communication entre front et SharePoint SE. Mettre en place les mécanismes pour la consommation des assurer la qualité des livrables. > Architecture validée et documentée. > Front-end opérationnel connecté à SharePoint SE via API. > Plan d’intégration IA pour la consommation documentaire. > Documentation technique
Mission freelance
Data Scientist - Industry 4.0 - Belgique
Publiée le
Data science
1 an
400-600 €
Belgique
Télétravail partiel
Contexte Des usines spécialisées dans la production d’éléments de moteurs aéronautiques en titane réalisent des opérations d’usinage et de forge avec une précision extrême (jusqu’à 10 µm). L’équipe Manufacturing 4.0 fournit les outils digitaux, les technologies Industrie 4.0 et le support technique aux équipes métier et à la production industrielle. Structure du département L’équipe Manufacturing 4.0 regroupe des ingénieurs assurant l’interface entre le monde industriel et les systèmes IT permettant le pilotage intelligent des activités. On y retrouve notamment des compétences en : IT Platform Manufacturing Execution Systems UNS (Unified Namespace), collecte et distribution temps réel des données et indicateurs industriels Inspection Qualité Data (BI, Machine Learning, IA, etc.) Attrait pour la fonction Le programme consiste à concevoir et développer la solution technologique Manufacturing 4.0 du futur , intégrant notamment : pilotage par la donnée, robotique, intelligence artificielle. Fonction – Tâches principales En collaboration avec les équipes Manufacturing 4.0, IT et métiers industriels, vous serez amené à : Explorer, analyser et préparer les données issues des systèmes industriels (machines, capteurs, MES, inspection qualité…). Concevoir, entraîner et évaluer des modèles ML et/ou Computer Vision adaptés aux contraintes industrielles. Mettre en œuvre des pipelines end-to-end MLOps (training, validation, déploiement, monitoring). Déployer les modèles en production sur une architecture hybride on-prem / cloud avec containers et AWS SageMaker. Suivre la performance des modèles en production (qualité, dérive, robustesse) et proposer des améliorations. Intégrer les modèles aux systèmes existants via la chaîne CI/CD en lien avec les équipes IT. Documenter les solutions et diffuser les bonnes pratiques. Challenges Contribuer à la transformation Manufacturing 4.0 par la donnée et l’IA. Déployer des modèles robustes, fiables et maintenables en environnement industriel. Combiner innovation, contraintes industrielles et exigences de production. Faire preuve d’autonomie, proactivité et esprit critique constructif. Être force de proposition pour améliorer les pratiques Data Science et MLOps. Partager les bonnes pratiques avec les autres data scientists. Contacts internes et externes Intégration au sein de l’équipe Manufacturing 4.0 avec data, IT et ingénieurs industriels. Interactions avec les équipes MES, Qualité, Maintenance, UNS, IT et Cloud. Collaboration possible avec partenaires technologiques et fournisseurs de solutions.
Offre d'emploi
Architecte Cloud AWS
Publiée le
AWS Cloud
DevSecOps
MLOps
6 mois
Occitanie, France
Télétravail partiel
Architecte Cloud AWS senior pour un programme de transformation Data & IA en environnement R&D régulé. Définition d’architectures de référence, conception d’une Landing Zone AWS multi-comptes sécurisée et gouvernée, mise en place de standards DevSecOps et compliance audit-ready (GxP/CSV). Leadership technique, design reviews, cadrage de POC et accompagnement des équipes. Conception de plateformes Data/IA (ingestion, stockage, processing, gouvernance, MLOps). Pilotage observabilité et FinOps. Environnement international, forte exigence sécurité et conformité.
Mission freelance
Expert Python Lead MLOps AZURE - Spécialiste IA/RAG La Défense (92)
Publiée le
Azure
Python
1 an
750 €
Paris, France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure Obligatoire Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP Profil du candidat Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing Azure - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Description de l‘entreprise Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
214 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois