Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 304 résultats.
Freelance

Mission freelance
Quality Engineer / Software Development

Publiée le
Git

6 mois
310-450 €
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Nous recherchons un Quality Engineer / Software Development pour une mission de longue duree basee a Velizy dans le 78. Dans une équipe franco-indienne, la mission sera d'assurer la QA de l’application IT Asset Management. Dans ce contexte, la prestation consiste à assurer la qualité de cette application par des tests manuels et automatisés de l’interface web et des APIs. Cela comprend les activités de créations de scénarios de tests, de rejeu des tests, de créations des incidents pour les développeurs et de validation de leur correction, de développement de tests automatiques d’APIs et éventuellement d’UI, si le temps le permet, ainsi que de la mise à jour de documentation.
Freelance

Mission freelance
Data Automation Engineer Confirmé

Publiée le
CI/CD
Dataiku
DevOps

6 mois
470-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Data / AI Engineer senior (Dataiku) pour rejoindre l’équipe Group Data Office , au service des métiers. Le consultant jouera un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via l’automatisation agentique des processus, et l’aide à la prise de décisions stratégiques. Sa contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, il interviendra sur l’ensemble du cycle projet — de l’idéation et du prototypage rapide jusqu’au déploiement en production. Objectifs et livrables Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et concevoir des solutions data adaptées. Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. Co-construire des prototypes rapides avec les utilisateurs métiers pour valider les hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, avec un fort accent sur la qualité des données, la maintenabilité et la performance. Contribuer aux processus de livraison et de déploiement continus en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Participer à l’évolution de la stack data et promouvoir les bonnes pratiques au sein de l’équipe. Compétences techniques Expérience confirmée dans la manipulation de grands volumes de données en Python , avec des bibliothèques telles que Pandas ou Polars . Solide compréhension des principes de l’ingénierie logicielle : code propre, gestion de versions, tests et automatisation. Expérience avec les frameworks LLM et les outils d’orchestration d’agents IA. Maîtrise du prompt engineering , de la génération augmentée par la recherche (RAG) et de l’utilisation des modèles de fondation. Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. Expérience de l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. Connaissance des outils d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. Expérience des outils d’orchestration de pipelines de données, notamment Dataiku . Familiarité avec le DevOps , les pipelines CI/CD et les déploiements en environnement de production.
CDI
Freelance

Offre d'emploi
DATA ENGINEER

Publiée le

24 mois
35k-40k €
250-400 €
Nantes, Pays de la Loire
Télétravail partiel
L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Freelance

Mission freelance
Data Automation Engineer (Dataiku)

Publiée le
Dataiku
Python
RAG

3 mois
400-520 €
Paris, France
Télétravail partiel
Missions Dans le cadre de notre croissance stratégique, nous recherchons un Senior Data / AI Engineer (Dataiku) pour rejoindre l’équipe du Group Data Office, au service des métiers. Vous jouerez un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via des agents intelligents (agentic process automation), et le soutien à la prise de décision stratégique. Votre contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, vous interviendrez sur l’ensemble du cycle de vie des projets : de l’idéation et du prototypage rapide jusqu’au déploiement en production. Responsabilités En tant que Data Automation Engineer confirmé (Dataiku), vous serez amené(e) à : - Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et de concevoir des solutions data adaptées. - Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. - Co-construire des prototypes rapides avec les utilisateurs métiers afin de valider des hypothèses et d’accélérer le time-to-value. - Industrialiser ces prototypes en solutions prêtes pour la production, avec une attention particulière portée à la qualité des données, la maintenabilité et la performance. - Contribuer à la livraison continue et aux déploiements en appliquant les bonnes pratiques de génie logiciel et de DevOps. - Participer à l’évolution de la stack data et promouvoir les meilleures pratiques au sein de l’équipe. Compétences techniques - Expérience avérée dans le traitement de grands volumes de données en Python, avec des bibliothèques telles que pandas ou Polars. - Solide compréhension des principes du génie logiciel : clean code, gestion de versions, tests et automatisation. - Expérience avec des frameworks LLM et des outils d’orchestration d’agents IA. - Maîtrise du prompt engineering, des approches RAG (Retrieval-Augmented Generation) et de l’utilisation de modèles de fondation. - Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. - Expérience dans l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. - Connaissance des frameworks d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. - Expérience des outils d’orchestration de pipelines de données, notamment Dataiku. - Familiarité avec les pratiques DevOps, les pipelines CI/CD et les déploiements en environnement de production.
Freelance
CDI

Offre d'emploi
DevOps Engineer (H/F)

Publiée le
Azure
CI/CD
Confluence

3 ans
38k-43k €
300-370 €
Osny, Île-de-France
Télétravail partiel
Nous recherchons un(e) Ingénieur DevOps IT expérimenté(e) pour renforcer notre équipe Infrastructure. Avec un rôle transversal entre cloud Azure , middleware et outillage CI/CD , vous contribuerez directement à la performance, la sécurité et la scalabilité de nos environnements applicatifs. 🎯 Livrables attendus Automatisation & CI/CD Documentation technique Sécurité & conformité 🛠️ Vos missions Garantir la performance, la scalabilité et la sécurité des applications sur Azure et dans la landing zone. Déployer, configurer et maintenir les applications de développement logiciel : Jenkins, Docker, Confluence , etc. Automatiser et simplifier les déploiements pour améliorer la fiabilité des applications cloud. Gérer et superviser l’environnement Azure : Monitoring, Defender, Backup, Firewall… Réaliser les mises à jour, migrations et montées de version des middlewares avec un impact minimal. Surveiller la consommation des ressources cloud, la performance et la conformité sécurité. Soutenir l’équipe infrastructure dans l’exploitation on-premise : VMware, réseau Cisco, stockage/serveurs Dell, Veeam.
Freelance
CDI

Offre d'emploi
Ingénieur de Production / Production Engineer

Publiée le
Apache
Grafana
Kibana

3 ans
40k-45k €
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Contexte Au sein de la Direction de Production , la/le Run Process Manager est responsable de la bonne mise en application des processus de change & incident. Pour un SI toujours plus performant et une Qualité de Service au plus haut, la/le Run Process Manager pilote les incidents majeurs transverses. Description L'ingénieur Suivi Prod est à la fois vigie de la Production en grand et responsable des processus régaliens qui font vivre cette Production (Change, Incident, Pilotage, Amélioration Continue…). Il a en charge l'amélioration continue des processus, méthodes et outils de Production ainsi que le suivi du respect de leur bonne application. Il analyse les événements de Production pour en extraire des tendances, détecter des signaux faibles et des plans d'amélioration continue. Dans une démarche Services, il accompagne les équipes pour une maitrise de la QoS au juste niveau d'excellence.
Freelance

Mission freelance
DevOps & Oracle Engineer

Publiée le
DevOps
Oracle

12 mois
Niort, Nouvelle-Aquitaine
Télétravail partiel
DevOps & Oracle Engineer, freelance, 12 mois de contrat initial, Niort, 3 jours de télé travail par semaine Attractive opportunité pour un(e) Consultant(e) DevOps & Oracle de rejoindre notre client final basé à Niort et qui accompagne quotidiennement des millions de particuliers et de professionnels. Contexte : Dans le cadre du maintien en conditions opérationnelles (MCO) et de l’amélioration continue de son système d’information, le Service Delivery du client souhaite renforcer son équipe Production / Exploitation par une prestation d'ingénierie/ Ops. La prestation consistera à une intervention en support du centre de service (N1/N2) afin d’assurer la prise en charge du niveau 3, la résolution des incidents complexes, et la fiabilisation des environnements de production. Objectifs de la prestation : Au sein de l’équipe opérations du service delivery (8 personnes + 1 manager) et plus précisément d’un pôle de gestion des incidents/demandes/problèmes de 6 personnes (4 profils métiers + 2 profils ops), nous avons besoin d’une prestation ops supplémentaire pour : · Assurer le support niveau 3 sur le périmètre production · Garantir la résolution et la prévention des incidents critiques; · Participer à la fiabilisation, à l’automatisation et à l’industrialisation des process · Accompagner le centre de service Exploitation (N1/N2) dans la montée en compétence et la formalisation des procédures · Assurer un rôle d’expert DBA Oracle, capable de traiter en autonomie les incidents et demandes de services autour des bases de données (compétence manquante au sein de l’équipe) · Gestion opérationnelle : o Prendre en charge les incidents techniques de niveau 3 et coordonner leur résolution o Effectuer les analyses post-incidents et proposer des actions correctives et préventives o Suivre et piloter les actions de fiabilisation et d’amélioration continue o Gérer les changements en production selon les bonnes pratiques ITIL · Mettre à jour la documentation technique et les procédures d’exploitation · Amélioration continue / Automatisation : o Identifier les points de fragilité du SI et proposer des quick win o Industrialiser les opérations récurrentes à fort ROI o Contribuer à l’amélioration continue des chaînes d’exploitation et du monitoring · Compétences DBA / Oracle o Diagnostiquer et résoudre les incidents N1/N2 sur les bases Oracle (performances, verrous, espace, corruption) o Effectuer des analyses de performance à partir de rapports awr et de la supervision oem o Proposer des scripts SQL/PL-SQL permettant de fiabiliser/optimiser le SI o Diffuser les compétences / bonnes pratiques au sein du service delivery mais également auprès des équipes de développement Profil recherché : o Compétences techniques : Expérience confirmée en environnement de production o Solide maîtrise du support niveau 3 et des processus ITIL o Expertise DBA Oracle (administration, optimisation, dépannage) o Connaissances techniques : Linux, scripts Shell, supervision (Dynatrace, OEM, Grafana…)
CDI

Offre d'emploi
Data Engineer NiFi

Publiée le
Apache NiFi

40k-65k €
Île-de-France, France
Télétravail partiel
En tant que Data Engineer chez Smile, vous ferez partie de notre aventure où chaque jour est une nouvelle occasion de construire des solutions qui dépassent les attentes de nos clients (et les vôtres !)🧑‍🚀👩‍🚀 Ce que vous ferez en tant que Data Engineer chez Smile ? Conception et développement de pipelines de données (ETL/ELT). Maintenance et optimisation de l'infrastructure de données. Mise en place de solutions de stockage et de traitement de données (data warehouses, data lakes). Collaboration avec les équipes de data science et d'analyse. Automatisation des processus de gestion des données. Veille technologique sur les outils et technologies de données. Côté technique justement, vous évoluerez dans un environnement Open Source ☕: Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). Analyse de données et Business Intelligence : Visualisation (Power BI, Tableau), reporting, analyse prédictive, bases de données SQL/NoSQL. Développement logiciel et programmation : Développement backend, langages (Python, Java, Scala, R), API, intégration continue (CI/CD). Recherche et indexation de données : Moteurs de recherche (Elasticsearch, Solr), recherche full-text, optimisation de la performance des requêtes. Vous intègrerez un environnement stimulant où votre expertise et votre passion seront reconnues 💥. Nous vous invitons à participer à des projets captivants et à contribuer à notre croissance commune🌱. Smile s’engage pour un environnement où la diversité est une force et l’inclusion, un pilier. Ici, chaque talent est reconnu, respecté et encouragé à aller plus loin.
Freelance
CDI

Offre d'emploi
Platform Reliability Engineer Bilingue sur le 78

Publiée le
Azure
Datadog
Kubernetes

3 mois
Yvelines, France
Je recherche pour un de mes clients un Platform Reliability Engineer sur le 78 Mission: La mission proposée s’inscrit dans une approche SRE et DevOps. À ce titre, vous intégrez l’équipe Plateforme et vous contribuez à garantir la fiabilité, l’exploitabilité et la qualité des microservices de notre écosystème applicatif. Vous réalisez ou participez aux tâches suivantes : • Vous êtes responsable de l’intégration et de l’exploitation opérationnelle des applications de la plateforme. • Vous vérifiez la conformité des livraisons avec nos standards (conventions de nommage, qualité des logs, documentation, monitoring). • Vous relisez et améliorez la documentation de chaque release. • Vous définissez et suivez des indicateurs de fiabilité (SLI/SLO) et des error budgets, en lien avec les équipes de développement. • Vous configurez et maintenez dans Datadog les dashboards, règles d’alerting et runbooks, en veillant à améliorer en continu l’observabilité. • Vous corrélez logs, traces et métriques pour diagnostiquer en profondeur les applications .NET, PHP, JavaScript (Datadog APM/Logs/RUM). • Vous mettez en place et améliorez les mécanismes d’automatisation de l’exploitation : configuration d’autoscaling, définition de health probes, mise en œuvre de politiques de redémarrage automatique et de procédures de bascule (failover). • Vous facilitez des post-mortems constructifs après incidents, documentez les enseignements et pilotez les actions correctives techniques ou organisationnelles. • Vous mettez à jour et améliorez les pipelines de déploiement dans Azure DevOps. • Vous maintenez et faites évoluer les Helm charts utilisés pour le déploiement sur Kubernetes (AKS). • Vous intégrez SonarQube dans les processus de livraison pour renforcer les contrôles de qualité de code. • Vous collaborez avec les tech leads, développeurs et QA pour intégrer les tests automatisés dans les workflows CI/CD et renforcer la résilience des services. • Vous assurez le support de niveau 3 sur les services de la plateforme et contribuez aux analyses post-incident. Connaissances techniques • Maîtrise de la mise en œuvre de pipelines Azure DevOps (YAML, templates). • Expérience avec Kubernetes (AKS) et gestion des déploiements via Helm charts. • Pratique de Datadog (APM, Logs, RUM, dashboards, alerting, runbooks). • Connaissance de SonarQube et de son intégration dans la CI/CD. • Bonnes notions de Windows Servers et environnements hybrides. • Compréhension des principes SRE (SLI/SLO, error budgets, observabilité, postmortems). • Connaissances en développement C#, PHP ou JavaScript appréciées. • Familiarité avec Octopus Deploy est un atout. • Anglais courant indispensable. Démarrage : ASAP Mission: Longue
Freelance

Mission freelance
OT Engineer - BELGIQUE

Publiée le
SCADA

1 an
550 €
Belgique
Nous recherchons un(e) OT Engineer pour rejoindre une équipe pluridisciplinaire dédiée à la gouvernance et à la mise à disposition des données industrielles au sein d’une infrastructure Unified Namespace (UNS) . Composition de l’équipe : OT Engineer Senior Technical Leader IT Engineer Développeur Fullstack Expert en Data Governance Contexte et missions : Dans le cadre de la mise en place d’une architecture Industrie 4.0, vous travaillerez avec le Technical Leader pour évaluer et déployer des solutions permettant la collecte, la contextualisation et la standardisation des données machines . Vous contribuerez directement aux choix technologiques de l’infrastructure industrielle (ex. : HiveMQ, NodeRed, FlowFuse, SCADA, Kepware…). Une fois l’architecture validée, vous participerez à l’intégration des équipements existants dans cette nouvelle infrastructure, comprenant notamment : PLC (majoritairement Siemens S7) Commandes numériques (ex. Siemens 840D SL/PL/One) Robots industriels (majoritairement Fanuc) Étuves Lignes complètes de production Systèmes de traçabilité connectés … Vos responsabilités : Analyse et exploitation des données en lien avec les besoins métiers Mise en place et validation de documentation type IO List avec les responsables métier Modification éventuelle des programmes ou suivi d’intégrateurs externes Test des communications via différents protocoles (S7, OPC UA…) Configuration de middleware OT pour la collecte des données Filtrage, transformation et routage des données vers l’UNS Rédaction complète de la documentation et des checklists de tests Validation du fonctionnement réel par rapport aux attentes Mise en production et gestion du handover avec les équipes métiers Profil recherché : Expérience sur les systèmes industriels et les protocoles OT/IT Connaissance des architectures Industrie 4.0 et des infrastructures UNS Capacité à travailler en équipe pluridisciplinaire
CDI
Freelance

Offre d'emploi
Data Engineer

Publiée le
Apache Hive
Apache Kafka
Apache Spark

6 mois
Vannes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé : Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
CDI

Offre d'emploi
Data engineer (H/F)

Publiée le

35k-40k €
Lille, Hauts-de-France
Télétravail partiel
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Freelance

Mission freelance
Data Engineer Scala/Spark.

Publiée le
Azure
Databricks
Datadog

1 mois
450-520 €
Saint-Denis, Île-de-France
Télétravail partiel
Client : Entreprise de transport Poste : Architecte technique Senior DSM Expérience : Plus de 8 ans TJM d’achat max : 5 15€ Localisation : Banlieue parisienne Deadline réponse : 09/12 Démarrage : 01/01/2025 Durée : Mission très longue DESCRIPTION DE LA MISSION Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein de Data Engineer Senior Scala/Spark. Vous interviendrez en tant que contributeur individuel sur l’étude, le chiffrage, la réalisation et l’exploitation de tâches liées à la constitution de traitements Data complexes. Les projets sont menés en équipe de 2 à 6 Data Engineers, accompagnés d’opérateurs, d’architectes et encadrés par un chef de projet. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en méthodologie agile, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est variable mais toujours constitué sur la base d’US (User Stories). Les livrables liés aux US sont donc variables mais suivent généralement une recette commune liée à la Definition of Done du projet. Ces livrables sont réalisés par l'équipe projet, sans responsabilité de production individuelle. Les sprints s’échelonnent généralement sur 2 semaines. Contenu général des sprints : Développement des US et tests associés ; Documentation du projet, mapping des données, modélisation des pipelines, documents d’exploitation ; Mise en place du CI/CD sur l’usine logicielle ; Mise en place du monitoring ;
Freelance

Mission freelance
DevSecOps / Security Engineer (H/F)

Publiée le
DevSecOps
ELK

1 an
380-480 €
Rennes, Bretagne
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) DevSecOps / Security Engineer H/F pour intervenir chez un de nos clients. Contexte : Dans le cadre d’une mission courte à fort enjeu, vous serez chargé(e) de configurer et adapter un outil de collecte de logs. Votre mission consistera à garantir un paramétrage optimal afin de permettre un déploiement massif de la nouvelle version du collecteur à horizon T1 2026, tout en assurant la qualité de la chaîne d’audit et de supervision.
Freelance

Mission freelance
SysOps Engineer

Publiée le
Active Directory
Veeam Backup & Replication
Virtualisation

14 mois
Paris, France
Télétravail partiel
Nous recherchons un Consultant System Ops/Sécurité pour renforcer une équipe IT en charge de la sécurité opérationnelle et de la fiabilité des infrastructures d’un grand groupe international. Le consultant interviendra en étroite collaboration avec les équipes cybersécurité , infrastructure et infogérance , afin d’assurer la continuité, la conformité et la sécurité des environnements techniques . Missions : Assurer la sécurité opérationnelle des systèmes IT et la conformité des environnements Windows & Linux. Coordonner les actions avec les équipes CyberSOC et les prestataires externes pour la remédiation des vulnérabilités (CVE critiques, patching). Gérer et renouveler les certificats de sécurité (Sectigo, Digicert, sous-CA interne). Administrer l’ Active Directory (création/modification de comptes, intégrations applicatives, remédiation). Superviser les solutions de sauvegarde VEEAM (B&R, Veeam One, intégration Azure, reporting). Contribuer à la gestion des infrastructures de stockage locales et cloud (Azure). Participer à l’administration et à la sécurisation des environnements de virtualisation de postes (Citrix, AVD). Collaborer aux plans de continuité / PRA-DRP pour les serveurs critiques.
Freelance
CDI
CDD

Offre d'emploi
Machine Learning Ops Engineer H/F

Publiée le
CI/CD
Github
Gitlab

12 ans
Monaco
Télétravail partiel
ASTERIA recherche, pour l’un de ses Clients basé sur Monaco, Machine Learning Ops Engineer H/F. VOTRE MISSION : Notre Client recherche un ML Ops Engineer H/F afin d’assurer l’industrialisation, la mise en production et la garantie de la fiabilité à grande échelle des cas d’usage de Data Science/Machine Learning. Le ML Ops Engineer H/F sera principalement le point entre l’équipe DATA au sens large (Data Engineer, DataScientist, Ingénieur IA) et l’équipe Opérations/DevOps. L’objectif principal sera d’industrialiser les projets de Machine Learning, de l’expérimentation jusqu’au déploiement en production, en garantissant robustesse, scalabilité et reproductibilité. Ce rôle technique est intégralement orienté Delivery/Développement Logiciel. Missions principales : Industrialisation & Pipelines (CI/CD/CT) : Concevoir et industrialiser les cas d'usage : structurer techniquement le projet, implémenter les tests, ... Concevoir et maintenir les pipelines d'intégration continue (CI), de déploiement continu (CD) et d'entraînement continu (CT) pour les modèles de ML. Automatiser les flux de travail de la donnée (Data Pipelines Airflow) en collaboration avec le Data Engineer. Garantir la reproductibilité des entraînements (versioning des données, du code et des modèles). Infrastructure & Déploiement : Conteneuriser les cas d'usage et modèles (Docker), orchestrer leur déploiement (Kubernetes). Mettre en place des stratégies de "Model Serving" (API REST, gRPC, Batch processing). Monitoring & Maintenance : Mettre en place des outils de surveillance pour suivre la santé des modèles en production. Détecter et alerter sur le Data Drift (dérive des données) et le Model Drift (baisse de performance). Gérer le cycle de vie complet des modèles (re-training, mise hors service). Mise à disposition des résultats : Être capable de développer des interfaces pour mettre à disposition et valoriser les résultats VOS CONDITIONS DE TRAVAIL : Date de démarrage mission envisagée : 02/02/2026 CDI (seuls les ressortissants européens ou détenteurs d'un titre de séjour émis par la Préfecture des Alpes-Maritimes (06) sont éligibles à un emploi en Principauté) : Autres conditions contractuelles envisageables, nous contacter Télétravail : jusqu’à 2 jours / semaine
304 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous