L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 262 résultats.
Mission freelance
Founding Engineer TypeScript / Node.js / IA / LLM
Publiée le
AWS Cloud
Large Language Model (LLM)
Node.js
12 mois
Paris, France
Contexte de la mission Un client confidentiel du secteur transport/logistique, financé par des fonds d’investissement de premier plan, lance un projet stratégique visant à révolutionner la gestion du transport routier à l’aide d’agents d’intelligence artificielle. Dans ce cadre, l’entreprise recherche un Founding Engineer spécialisé en TypeScript / Node.js et IA pour rejoindre une équipe technique restreinte composée du CTO et de trois développeurs confirmés. La mission se déroule entièrement en présentiel afin de favoriser la co-construction rapide du produit et des itérations techniques rapprochées. Objectifs et responsabilités Le consultant interviendra sur la conception et la mise en place du socle technique du produit, incluant : • Concevoir, développer et déployer des APIs robustes et scalables • Structurer les flux de données provenant de systèmes TMS, appels, messages et autres sources • Collaborer étroitement avec le CTO et les utilisateurs opérationnels pour la construction du MVP • Participer au lancement d’un projet innovant d’IA temps réel (audio) • Assurer un rôle majeur sur le backend, la data et l’ingénierie IA • Mettre en place l’observabilité : monitoring, logs, métriques et alerting • Contribuer aux choix d’architecture, arbitrages techniques et discussions produits • Participer au déploiement, aux tests et aux itérations rapides en environnement startup Profil recherché Compétences indispensables • Ingénieur fullstack avec forte orientation backend et data • Minimum 4 ans d’expérience significative sur Node.js et TypeScript • Forte expertise Backend et Data Engineering • Expérience avérée dans un environnement startup, scale-up, licorne ou rôle de Founding Engineer • Avoir déjà lancé un produit from scratch • Niveau attendu : Staff Engineer ou Principal Engineer • Capacité à raisonner en approche “problème → solution” • Grande rapidité d’itération : tester, ajuster, apprendre, recommencer • Capacité à échanger directement avec les utilisateurs métier (transporteurs, brokers) • Connaissance pratique des LLM et de l’IA appliquée • Flexibilité sur les horaires lors des phases de mise en production (soir, week-end si nécessaire) Compétences appréciées (bonus) • Expérience en IA agentique (agents autonomes) • Connaissances poussées en prompting, grounding, fallback, monitoring IA • Amélioration des performances d’agents en production • Contribution à l’architecture produit à grande échelle Stack technique actuelle • Node.js / TypeScript (backend principal) • Python (agents IA) • PostgreSQL • API REST, WebSocket • AWS (architecture scalable), Kubernetes
Mission freelance
Un Chef de Projet Data & BI / PO à MER (près d'Orléans)
Publiée le
BI
IA
3 mois
350-430 €
Mer, Centre-Val de Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Chef de Projet Data & BI / PO à MER (près d'Orléans).. Description du poste : Projet d'extension des données du SI Décisionnel Ce projet agile vise à faciliter l’accès aux données pour les utilisateurs métier et les clients. Le prestataire jouera le rôle de Product Owner pour le produit « Data » : gestion du Backlog, collaboration étroite avec le Scrum Master, l’équipe de développement du service Modélisation des Données, les équipes IT, et les métiers. Projet de nouvelle stratégie d’alimentation du Datawarehouse Finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique. Autres projets Mise en place de solutions IA, finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique, mise en place d’un SI Décisionnel RH, et d'autres projets à initier en 2026. Mission : Piloter les projets sur les aspects suivants : - Organisationnels : planning, comitologie, suivi budgétaire, suivi de recette - Techniques : cartographie réseau, flux, analyse de risque, etc. - Relationnels : collaboration avec les équipes IT (Architectes, Réseau, RSI, etc.), les métiers, le CISO, etc. - Maitrise des risques : implique une grande rigueur dans le suivi des actions, des plannings et des budgets Profil : - Spécialiste de la gestion de projets techniques orientés Data, avec un minimum de 3 années d’expérience - Expérience des méthodologies Agile (Kanban, Scrum) en tant que Product Owner - Grande rigueur dans le suivi des actions projet - Expérience de la relation Infogérant / infogéré - Connaissance des sujets Data Science (ML, développement Python, IA générative) - Connaissance du fonctionnement des bases de données (Relationnelles, Cluster, Stockage S3) - Connaissance des infrastructures Cloud, des outils associés aux projets mentionnés ci-dessus, et de Power BI
Mission freelance
POT8759 - Un Expert DATA IA Sénior sur Gare de Lyon
Publiée le
Shell
6 mois
260-480 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un des ses clients un Expert DATA IA Sénior sur Gare de Lyon. Projet : Dans le cadre des projets transformants sous l'angle d'Agent IA supra, recherche à se renforcer pour piloter/cadrer certains travaux prioritaires avec un forte dominante Marketing. Ce travail nécessite une forte autonomie et une capacité à coordonner des acteurs multiples tout en arrivant à un consensus stratégique et technique. Le candidat devra pouvoir s'appuyer sur son expertise ainsi que celle de son cabinet sur la vertical Data IA : Benchmark, bonnes pratiques sur les besoins en Data pour une IA, modèles IA (création/réutilisation, entrainement, évaluation métier, finops et projection, contraintes bancaires et cyber sur l'IA, interconnexions de produits IA majeurs pour structurer les bons travaux à lancer en priorité pour des livraisons fréquentes et cohérentes)... Avant fin 2025, l'ensemble du chantier doit être pré-cadré (toutes les réunions organisées et cordonnées ; notes de réunions à envoyer le jour J/J+1 et livrables de cadrage complets à fournir) avec une feuille de route à plusieurs niveaux sur 2026 tout en préparant si besoin en 2025 des travaux nécessaires à la bonne tenue des jalons temporels de 2026. Principaux livrables : Construire la feuille de route du stream Data IA avant fin 2025 pour certains projets transformants notamment dans la thématique Marketing en collaboration avec les bon acteurs. Compétences requises : Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Communications, bon relationnel Organisation et rigueur Sens du travail en équipe Autonomie
Offre d'emploi
Développeur Python & IA
Publiée le
Angular
Django
PostgreSQL
3 ans
50k-60k €
450-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un consultant développeur Python ayant une bonne connaissance de l’IA pour une mission chez un de nos clients dans le secteur de l’asset management. La mission sera de longue durée (3 ans), avec un démarrage ASAP, et 2/3 jours de télétravail par semaine. Tâches et missions : - Création d’applications cloud native sur des systèmes distribué pour les outils dédié à l’IA générative, - Construction d’outils pour aider à automatiser plusieurs processus métier, - Participation au support et à l’onboarding des business case sur la plateforme, - Création de services d’intégration de Données, - Prendre en charge et faire évoluer les outils internes basés sur des systèmes distribués cloud natifs, - Intégrations de solutions IA aux outils existants, - Participation à l’analyse des données et à la rédaction des spécifications fonctionnelles et techniques, - Intervention dans le projet (méthodologie AGILE), - Gestion des incidents post-production et correction du code, - Enrichir l’automatisation des tests, - Respect des délais impartis. - Contribuer à l’évolution et au maintien de la plateforme, pour l’intégration des use case IA dans la plateforme - Faire des applications à l’échelle, avec du passage en prod et du suivi de production, dans le respect des critères de qualité pour la production. Stack technique : Django React sur la partie front pour intervenir sur la solution interne pour le Big data et l’IA. L’équipe est composée de 12 personnes et est divisée en 2 parties : la première sur l’innovation technologique IA, l’autre partie est en charge du maintien de l’évolution de l’outil qui vient mettre à l’échelle les innovations d’IA. Ils déploient des solutions à l’ensemble d’Amundi et aux externes également.
Mission freelance
Expert et Architecte technique IA/ GenAI - Vorstone - Paris
Publiée le
AI
Architecture
Bash
1 an
600-800 €
Paris, France
Télétravail partiel
Vorstone cherche un Expert/Architecte technique IA/ GenAI pour un client basé à Paris Contexte de la mission Dans le cadre de son accélération sur l’Intelligence Artificielle et l’IA Générative, un groupe industriel international de premier plan recherche un Staff Engineer /Expert technique IA/ GenAI (H/F) pour renforcer ses équipes AI Activation. La mission consiste à accompagner plusieurs projets IA stratégiques (Data, Machine Learning, LLM, RAG…) tout en contribuant à la mise en place d’un cadre technique commun pour assurer la cohérence, la sécurité et la scalabilité des initiatives IA du groupe. Le Staff Engineer/ Expert technique / Architecte technique IA/ GenAI agira comme référent technique transverse, garant des bonnes pratiques d’ingénierie et de la qualité des solutions déployées dans l’écosystème IA. Objectifs et livrables Accompagner et encadrer techniquement plusieurs projets IA / GenAI, de la conception à la mise en production. Définir et promouvoir les bonnes pratiques techniques (MLOps, LLMOps, DevSecOps, cloud architecture). Concevoir des architectures de référence pour les solutions IA, en veillant à leur sécurité, leur scalabilité et leur maintenabilité. Industrialiser les approches IA : création de pipelines, intégration CI/CD, automatisation et monitoring. Assurer la cohérence technique entre les différents projets IA du groupe. Participer à la construction du socle commun (“AI Platform”) sur lequel s’appuient les équipes projet. Encadrer et accompagner les ingénieurs data, ML et software dans la montée en compétence. Effectuer une veille active sur les outils et technologies IA émergentes (LLM, RAG, orchestrateurs, vector DB, etc.).
Mission freelance
Ingénieur MLOps Data & IA
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
Mission freelance
Un Tech Lead Data sur Grenoble
Publiée le
DevOps
Git
Jenkins
6 mois
300-380 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Tech Lead Data sur Grenoble. Contexte du projet Projet TMA Data pour un client industriel : maintenance évolutive et corrective des systèmes de reporting et datawarehouse, gestion des flux de données sensibles (production, finance), support et développement de nouvelles fonctionnalités. Environnement technique orienté bases de données, ETL, BI Missions principales Pilotage technique et coordination Prendre du recul sur les besoins et proposer des solutions adaptées Cadrer les sujets techniques et fonctionnels Challenger les solutions proposées par l’équipe et le client Animer des réunions techniques et ateliers avec le client Assurer la qualité des livrables et le respect des délais Encadrement et accompagnement Accompagner les profils juniors Réaliser des revues de code et garantir les bonnes pratiques Partager les connaissances (process, outils, standards) Contribution technique Concevoir et optimiser des pipelines ETL/ELT Maintenir et faire évoluer les datawarehouses et bases de reporting Participer aux développements complexes et aux tests d’intégration Assurer la documentation technique et la capitalisation Amélioration continue Identifier et proposer des axes d’amélioration (process, outils, organisation notamment mise en place CI/CD, utilisation de l’IA..) Être force de proposition sur les évolutions techniques et méthodologiques Assurer le cadrage et plan de déploiement de ces propositions d’amélioration / industrialisation Compétences techniques requises Langages & outils : SQL avancé Bases de données : Oracle, PostgreSQL CI/CD & DevOps : Git, Jenkins Expérience 5 à 8 ans minimum en ingénierie des données, dont 2 ans en rôle de lead ou senior. Expérience en contexte TMA ou projets de maintenance évolutive. Localisation & Langues Région grenobloise Français courant, anglais professionnel.
Mission freelance
Ingénieur DATA – Coordination & Support Technique IA Industrielle
Publiée le
Data analysis
IA
1 an
500 €
Belgique
Télétravail partiel
Assurer la coordination et le support technique Data & IA pour l’industrialisation et l’optimisation des flux de données. L’objectif est de structurer, automatiser et rendre exploitables les données industrielles , tout en développant les premiers use cases IA opérationnels pour la ligne de production. 1. Coordination Data & IA Piloter et structurer l’automatisation de l’alimentation de la plateforme 3DEXpérience depuis Publisher , en exploitant des techniques d’IA (machine learning, NLP…). Documenter et suivre les scripts et workflows de migration automatisés . Proposer les premiers use cases DATA & IA pour la production. Appuyer l’équipe UNS sur la structuration des données industrielles pour usages IA futurs. Veille technologique et reporting sur les sujets Data & IA. 2. Support technique et développement Implémenter et tester les scripts et workflows de migration de données (DataPrep, ETL, IA) sur données simulées ou réelles. Concevoir et tester des use cases IA “production ready” : supervision process, maintenance prédictive, contrôle qualité automatique. Structurer les datasets pour l’entraînement IA : normalisation, règles qualité, automatisation des flux. Assurer documentation technique et transfert de compétences aux équipes.
Mission freelance
Architecte Data – Expert Azure
Publiée le
Azure
Big Data
3 ans
650-700 €
Paris, France
Télétravail partiel
Architecte Data – Expert Azure L’Architecte Data interviendra en tant que référent transverse sur les études, les cadrages et la conception d’architectures data bâties autour de l’écosystème Azure (Azure Data Lake, ADF, Databricks, Synapse/Fabric, Purview…). Au-delà de l’expertise Azure, il jouera un rôle de conseil , capable de vulgariser les enjeux data et de présenter des solutions claires et impactantes auprès des directions métier et exécutives, dans une posture “cabinet de conseil”. Responsabilités principales : Réaliser des études d’architecture et de chiffrage (DAT, estimations, roadmaps) avec un focus fort sur Azure Data . Concevoir des architectures data modernes sur Azure : ingestion, stockage, modélisation, gouvernance, analytics/AI. Traduire les besoins métier en solutions Azure pragmatiques, sécurisées et alignées sur les standards de l’entreprise. Produire des livrables premium : présentations PowerPoint, supports de cadrage, pitchs d’arbitrage, dossiers de décision. Vulgariser les sujets Azure auprès d’interlocuteurs non techniques (métiers, directions). Conseiller, challenger et proposer des trajectoires data orientées Azure, en réalisant benchmarks et recommandations. Travailler en proximité avec les équipes Data Engineering, BI, IA, Cloud et les autres architectes. Profil recherché : Bac+5 (ingénieur ou équivalent). 5 à 10 ans d’expérience minimum en architecture data , avec une expertise Azure confirmée . Maîtrise des principaux services Azure Data : Data Lake, ADF, Databricks/Fabric, Synapse, Purview, ETL/ELT, sécurité, gouvernance. Excellent relationnel, capacité à adapter son discours selon les interlocuteurs (métiers, DSI, direction). Solide maîtrise de la structuration et mise en scène de l’information (slides, storytelling, cadrage). Expérience en conseil / ESN appréciée (présentation, posture, relation client). Équilibre stratégie / technique : parler d’architecture sans rentrer dans le code. Soft skills clés : Pédagogue, excellent vulgarisateur. Curieux, structuré, orienté impact. Parfaitement à l’aise dans les présentations. Posture de consultant : écoute, influence, crédibilité.
Offre d'emploi
Expert TECHNIQUE Cyber & DevSecOps – IA / GenAI & Azure (N3)
Publiée le
Azure
Azure AI Foundry
DevSecOps
3 ans
Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un expert technique cyber & DevSecOps spécialisé IA / GenAI pour renforcer une équipe sécurité déjà structurée (GRC + pilotage en place). Mission orientée mise en œuvre technique , pas du pilotage. 🎯 Votre rôle Intégrer l’équipe sécurité et prendre en charge la sécurisation avancée de la stack Azure IA / GenAI : Azure AI, Cognitive Services, Azure Machine Learning, Azure OpenAI M365, Power Platform, Fabric Intégrations data (Snowflake…) Vous intervenez comme référent technique auprès des devs, data engineers & data scientists. 🔧 Missions techniques Design & déploiement des contrôles de sécurité Azure / IA RBAC, Conditional Access, MFA, PIM Réseau, identité, isolation des environnements Sécurisation des services IA et des données exposées DevSecOps – CI/CD sécurisés Scans, policy-as-code, sécurité IaC (Terraform / Bicep) Configuration avancée des solutions Microsoft Security : Sentinel, Defender for Cloud, Purview Revue de code, pipelines, IaC Mise en place d’automatisations : PowerShell / Python 🧠 Expertise IA / GenAI attendue Capacité à challenger, corriger, sécuriser des implémentations GenAI : prompt injection data/model poisoning fuite de données risques agentiques / escalade via LLM bonnes pratiques de gouvernance et isolation des données 📦 Livrables Blueprints & architectures de sécurité GenAI sur Azure Configurations sécurisées + règles Sentinel / Defender / Purview Analyses de risques & mesures de mitigation Reporting technique : posture, vulnérabilités, remédiations
Mission freelance
Senior Data Engineer GCP MLOps
Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)
6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Mission freelance
Senior Data Scientist Python / ML / LLM / Agentic AI
Publiée le
Large Language Model (LLM)
MLOps
Python
12 mois
400-550 €
Paris, France
Télétravail partiel
Contexte Développement de solutions IA avancées pour le projet du client Missions Concevoir, entraîner et optimiser des modèles ML et LLM Implémenter des architectures Agentic AI Industrialiser les modèles (MLOps, monitoring, performance) Collaborer avec les équipes produit et tech Garantir la robustesse et l’éthique des modèles en production Profil recherché 10+ ans d’expérience en data science Excellente maîtrise de Python et des frameworks ML Expérience réelle de LLM et Agentic AI en production Forte capacité d’abstraction et de vulgarisation Experience en IA / AI en production ANGLAIS ASAP
Mission freelance
Business Analyst / Scrum Master Senior – Finance & IA
Publiée le
Agile Scrum
12 mois
400-550 €
Paris, France
Télétravail partiel
Contexte Accompagnement du projet sur des sujets Finance et Intelligence Artificielle. Missions Recueillir et analyser les besoins métiers Traduire les besoins en user stories et backlog priorisé Animer les rituels Agile (Scrum) Faire le lien entre métiers, tech et data Garantir la valeur métier des solutions IA Profil recherché 10+ ans d’expérience en BA et/ou Scrum Solide connaissance des enjeux Finance Expérience de projets IA en production Excellentes capacités de communication Anglais Réelle expérience de projet IA en production
Offre d'emploi
Chef de Projets / PMO - Delivery IA (H/F)
Publiée le
IA
Pilotage
75015, Paris, Île-de-France
Télétravail partiel
Secteur Télécommunications - contrat CDI Contexte : Une direction SI dédiée à la modernisation, à la Data et à l’IA cherche à renforcer son pôle de pilotage de projets. Après plusieurs jalons atteints en 2025 – structuration du processus d’identification des cas d’usage IA, mise en place d’une plateforme Cloud commune, premières solutions IA déployées – l’objectif 2026 est d’accélérer l’industrialisation et la diffusion des produits IA au sein des processus métiers. Pour soutenir cette montée en puissance, une mission de pilotage de projets et de PMO est ouverte. Objectif de la prestation : La mission vise à assurer le pilotage complet de projets et expérimentations IA , ainsi que l’animation du portefeuille Delivery IA . Périmètre de la prestation : Pilotage de projets / expérimentations Supervision des prestations partenaires (le cas échéant) Pilotage des activités sous responsabilité interne : validation des livrables, préparation des environnements et jeux de données Planification et coordination de l’ensemble du cycle projet : étude, développement, intégration, tests, déploiement Organisation et animation des travaux avec les équipes Métiers et les équipes SI Mise en place de la gouvernance, reporting opérationnel et consolidation de l’avancement Activités PMO Animation des revues de portefeuille Delivery IA Organisation des ateliers d’arbitrage, d’analyse ou de priorisation Mise en place et mise à jour d’un reporting complet et partagé Livrables attendus : Roadmaps produits / projets Suivi d’avancement, plans d’actions, reporting régulier Animation du portefeuille IA (revues, communications, priorisation) Releases et livrables projet selon les jalons définis
Mission freelance
Ingénieur DATA – Coordonnation & Support Technique IA Industrielle
Publiée le
3DEXPERIENCE (3DX)
1 an
400-550 €
Belgique
Télétravail partiel
Missions Coordination : Piloter et structurer l’automatisation de l’alimentation de la plateforme 3DEXpérience depuis Publisher, en exploitant les techniques d’IA pour faciliter la gestion et la migration des schémas de données. Documenter, préparer et suivre les scripts et workflows de migration automatisés, assister l’identification des correspondances data via IA (machine learning, NLP…). Proposer les premiers use cases DATA & IA opérationnels pour la ligne de production. Appuyer l’équipe UNS sur la structuration des données industrielles pour usages IA futurs. Assurer la veille et le reporting sur les sujets Data & IA, optimiser la collaboration multi-métiers. Missions Techniques : Être le bras droit du coordinateur Data, prendre en charge l’implémentation des scripts et workflows de migration de données (DataPrep, ETL, IA), sur données simulées ou réelles. Concevoir et tester des use cases IA “production ready” : supervision process, maintenance prédictive, contrôle qualité automatique, etc. Structurer les datasets pour l’entraînement et le déploiement sur la ligne (règles de qualité, normalisation, automatisation des flux). Assurer la documentation technique et la transmission des compétences vers les équipes.
Offre d'emploi
CDI - DevOps Senior pour projets IA (Google Cloud) (H/F)
Publiée le
DevOps
Elasticsearch
Gitlab
75015, Paris, Île-de-France
Télétravail partiel
Secteur Télécommunications - contrat CDI Contexte de la mission Dans un environnement orienté transformation, innovation et industrialisation des usages Data & IA, une direction informatique recherche un expert DevOps pour structurer, fiabiliser et industrialiser la chaîne de développement, de tests et d’observabilité d’une plateforme IA hébergée sur Google Cloud Platform. L’objectif 2026 : accélérer la production et l’intégration des produits d’intelligence artificielle au sein des processus métiers grâce à un outillage DevOps robuste, cohérent et exigeant. Objet de la prestation La mission couvre 4 volets majeurs , en étroite collaboration avec les équipes de développement et de pilotage de projets. 1. DevOps Réaliser un état des lieux complet de la chaîne DevOps et produire sa documentation. Proposer une cible d’architecture et de processus répondant aux enjeux d'automatisation, de qualité et de conformité au cadre Valentine Cloud. Contribuer à la mise en œuvre de la cible. Piloter et animer les travaux nécessaires pour atteindre cette cible. 2. Monitoring & Troubleshooting Proposer une architecture d’observabilité et les outils associés. Mettre en œuvre l’architecture et coordonner les contributions techniques. Former et accompagner développeurs, testeurs et chefs de projet à l’usage des outils d’observabilité. 3. Pilotage de l’activité Participer à la mise en place des dispositifs de suivi et de pilotage. Structurer un reporting clair et régulier. 4. Contribution à l’outillage « suivi d’activités » Participer aux ateliers, proposer des solutions et réaliser les actions DevOps nécessaires. Livrables attendus Documentation et proposition de cible DevOps (sous 4 semaines). Recommandations sur les outils de tests auto, qualité de code et pipeline. Plan de déploiement monitoring & dataviz (T1 2026). Contributions aux outils de pilotage (T1 2026). Compétences recherchées Indispensables : Expertise DevOps GitLab Elastic / Observabilité Atouts appréciés : Expérience IA sur Google Cloud Connaissance de l’écosystème Valentine Cloud
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
262 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois