L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 395 résultats.
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Offre d'emploi
Data Scientist Senior — Expert IA Générative
Craftman data
Publiée le
AWS Cloud
IA Générative
Large Language Model (LLM)
12 mois
Seine-Saint-Denis, France
Data Scientist Senior — Expert IA Générative Minimum 5 ans en Data Science, dont 2+ ans en IA Générative AWS (GCP accepté si expertise confirmée) Mon client recherche un expert Data Scientist avec une forte orientation IA Générative, capable d'agir à la fois comme référent technique et comme ambassadeur de l'IA auprès des parties prenantes métiers et IT. Ce profil doit être un véritable catalyseur du changement, prêt à faire bouger les lignes et à ancrer une culture de l'IA au sein du groupe. 1. Expertise IA Générative & Data Science ▸ Définir et appliquer les méthodologies, bonnes pratiques et standards liés à l'IA Générative (LLM, RAG, fine-tuning, prompt engineering, agents autonomes…) ▸ Concevoir, développer et déployer des modèles et solutions d'IA Gen adaptés aux enjeux d'EDF ▸ Assurer une veille technologique active et identifier les opportunités d'innovation ▸ Garantir la qualité, la robustesse et l'éthique des approches IA mises en œuvre 2. Identification & Portage des Cas d'Usage ▸ Explorer et qualifier de nouveaux cas d'usage IA Générative, tant pour les métiers qu'en interne à la DSIN ▸ Challengeur les approches IA existantes et proposer des alternatives plus performantes ou innovantes ▸ Construire des preuves de concept (PoC) et accompagner le passage à l'échelle ▸ Prioriser les cas d'usage selon leur faisabilité technique et leur valeur business 3. Animation & Communication ▸ Interagir avec les acteurs clés (Directions métiers, DSI, Comité de Direction) pour présenter les travaux et défendre les orientations IA ▸ Animer des ateliers de co-construction et des sessions de sensibilisation à l'IA Générative ▸ Vulgariser des concepts techniques complexes pour des audiences non spécialistes ▸ Participer activement aux instances de gouvernance IA du groupe 4. Transformation & Acculturation ▸ Impulser une dynamique de transformation autour de l'IA au sein de la DSIN et de ses partenaires ▸ Contribuer à la construction d'une feuille de route IA ambitieuse et réaliste ▸ Mentorer et monter en compétences les équipes internes sur les sujets IA Gen ▸ Être force de proposition pour faire évoluer les pratiques et les organisations PROFIL RECHERCHÉ Compétences techniques indispensables ▸ Maîtrise avancée des techniques de Data Science : machine learning, deep learning, NLP, statistiques ▸ Expertise confirmée en IA Générative : LLM (GPT, Llama, Mistral…), RAG, agents, orchestration (LangChain, LlamaIndex…) ▸ Expérience sur AWS (SageMaker, Bedrock, Lambda…) — GCP (Vertex AI, BigQuery ML) accepté ▸ Maîtrise des langages Python et des frameworks IA/ML (PyTorch, HuggingFace, scikit-learn…) ▸ Connaissance des pratiques MLOps et de déploiement en production (CI/CD, monitoring de modèles) Savoir-être & posture attendus ▸ Excellentes qualités de communication orale et écrite, capacité à vulgariser et convaincre ▸ Leadership d'influence : capacité à embarquer sans autorité hiérarchique ▸ Curiosité intellectuelle, esprit d'initiative et goût pour l'innovation ▸ Appétence forte pour le changement et volonté de faire évoluer les pratiques dans un grand groupe ▸ Rigueur, autonomie et capacité à gérer plusieurs sujets en parallèle Expériences valorisées ▸ Expériences dans des secteurs régulés ou à forte contrainte (énergie, industrie, finance, santé…) ▸ Participation à des projets IA d'envergure avec mise en production effective ▸ Contribution à des communautés IA (publications, conférences, open source…)
Mission freelance
Architecte Data Plateforme AWS / Snowflake (H/F)
ALLEGIS GROUP
Publiée le
Agent IA
AWS Cloud
DBT
1 an
Paris, France
Teksystems recherche pour l’un de ses clients grands comptes un Architecte Data AWS / Snowflake (H/F) pour construire, structurer et sécuriser la plateforme data du client basée sur Snowflake et AWS , et accompagner les équipes pour garantir une plateforme performante, scalable et prête à accueillir des fonctionnalités IA . Ce rôle est structurant, durable , et s’inscrit au cœur de la transformation data. Vos missions : 1. Définir et faire évoluer l’architecture de la plateforme Architecture cible Snowflake/AWS Patterns d’ingestion (batch, CDC, near real-time) Modélisation (Data Vault, modèles analytiques) Exposition (BI, APIs, data apps) 2. Industrialiser le delivery data Standards CI/CD (dbt, ingestion, artefacts ML) Automatisation des déploiements Intégration Git / pipelines / qualité Réduction du time-to-market 3. Mettre en place une observabilité complète Suivi fraîcheur, volumétrie, succès/échec des pipelines Tests & qualité de données Performance Snowflake (temps, coûts, consommation) Dashboards RUN, alertes, SLAs 4. Sécuriser la plateforme RBAC, rôles Snowflake, data masking, row-level security RGPD, auditabilité, traçabilité Catalogage, lineage, ownership 5. Accompagner les équipes Support aux devs, pair programming, arbitrages techniques Challenge des choix existants Coordination avec infra / cloud / sécurité 6. Préparer et soutenir le RUN Normes de reprise, diagnostic, alerting Réduction de la dette technique Support N2/N3 Conception orientée exploitabilité
Offre premium
Offre d'emploi
PO DATA (FH)
ASTRELYA
Publiée le
Data governance
3 ans
55k-70k €
400-550 €
Paris, France
Votre Mission : En tant que PO Data, vous piloterez des projets de transformation sur des produits Data et IA dans des contextes Marketing, CRM, KYC. Vous jouerez un rôle clé dans le cadrage, la structuration et le pilotage de travaux stratégiques, en coordination avec de multiples acteurs internes et externes. Concrètement vous allez : Intégrer un dispositif existant et piloter les nouveaux projets DATA/IA sur l’ensemble des phases : cadrage, Expression des Objectifs, MVP et démarrage des développements. Recueillir, challenger, analyser et prioriser les besoins data des métiers Concevoir les expressions de besoins afférentes Définir la vision data de son périmètre et en construire la roadmap Prioriser les évolutions data en fonction de la valeur pour les métiers et/ou les clients Collaborer avec l’équipe de PO data de tous les périmètres des paiements pour s’assurer de la cohérence de la démarche mise en place Participer aux rituels agiles Garantir la cohérence des données entre les différents métiers, et plus globalement la qualité et la pertinence des livrables data mis à disposition des métiers et/ou des clients Suivre les indicateurs de performance sur son périmètre et mesurer la valeur des solutions mises à disposition Accompagner les utilisateurs dans l’appropriation et l’utilisation des solutions mises à disposition Accompagner les utilisateurs dans l’interprétation et la valorisation des données mises à disposition Garantir la cohérence des jalons et la tenue des échéances de la feuille de route Data et IA. Assurer un rôle de référent(e) sur les bonnes pratiques Data/IA : modèles IA, entraînement et FinOps. Votre futur environnement technique & fonctionnel : · IA / Data : Data engineering, IA Générative, Machine Learning,
Mission freelance
DevOps cloud AWS
Cherry Pick
Publiée le
AWS Cloud
CI/CD
Docker
6 mois
650-700 €
Paris, France
Au sein de l’équipe du responsable MLOps, vous intervenez dans un environnement de recherche de pointe où la donnée est au cœur de la stratégie. L'enjeu majeur est de "bridger le gap" entre l'infrastructure et la recherche en fournissant une plateforme robuste, scalable et surtout extrêmement performante. Ici, pas de recherche pure pour vous, mais une mission de "devops -architecte" pour fluidifier le quotidien des équipes ML. Durée : 6 mois ferme. Localisation : Paris (Rythme hybride : 2 jours sur site obligatoires). Environnement : AWS, Terraform, Docker, contexte de calcul haute performance. Missions Votre rôle consiste à transformer une infrastructure existante en une machine de guerre optimisée pour le Machine Learning. Vos priorités seront : Industrialisation & IaC : Builder et stabiliser la stack AWS via Terraform pour garantir des environnements reproductibles et sains. Optimisation Docker (Performance Critique) : * Lutter contre la "lourdeur" des images (PyTorch, CUDA) via des stratégies de Multi-stage builds . Réduire drastiquement les temps de Cold Start pour permettre un lancement quasi instantané des calculs. Mettre en place une hygiène stricte sur les layers et le cache de build. Pilotage FinOps & Observabilité : * Déployer des dashboards de suivi de coûts pour monitorer et optimiser la consommation Cloud. Profiler les chaînes de traitement pour guider les ML Ops dans l'amélioration de leurs performances applicatives. Expérience Développeur & Sécurité : Simplifier et sécuriser l'accès aux ressources (SSH, gestion des secrets, logs). Garantir la résilience des données via une stratégie de backup et de rétention irréprochable.
Mission freelance
Senior Data Ops Engineer
CAT-AMANIA
Publiée le
Apache Spark
CI/CD
Databricks
1 an
160-500 €
Lille, Hauts-de-France
Ta mission sera de Garantir la robustesse de la platforme Monitorer et prendre des actions proactive de management de la plateforme de compute Assurer le support et l'accompagnement d'équipes sur Spark, Databricks et EMR Travailler sur les optimisations des traitements Athena/Pyspark Accompagner et former Définir et promouvoir les bonnes pratiques de software engineering et de data engineering sur les technologies proposées au sein de l'équipe participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Travailler sur le concept d'accessibilité et de gouvernance de la donnée Tester de nouveaux outils / features intéressants à intégrer dans notre stack
Mission freelance
Cloud Automation & Data Engineering
ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance
1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
Mission freelance
Data Scientist – GenAI & RAG - Paris
Net technologie
Publiée le
AWS Cloud
Data science
GenAI
3 mois
Paris, France
Nous recherchons un Data Scientist pour renforcer un centre d’expertise IA dédié à des cas d’usage liés à la vente d’énergie , avec un fort focus sur l’ IA générative . 🎯 Objectif : concevoir, déployer et industrialiser des solutions data & IA à forte valeur métier. 🚀 Missions Cadrage des projets et proposition de solutions data-driven Traitement et exploitation de données structurées & non structurées Conception de modèles ML / Deep Learning / GenAI Développement de solutions basées sur LLM & architectures RAG Mise en place de pipelines (parsing, extraction, normalisation de données) Déploiement sur AWS (SageMaker, Bedrock, S3…) Évaluation des modèles (NLP, RAG, robustesse, hallucinations) Industrialisation (MLOps, monitoring, optimisation des coûts) Communication des résultats & accompagnement métier Mentoring de profils plus juniors
Mission freelance
Consultant AWS Agentic
STHREE SAS pour COMPUTER FUTURES
Publiée le
Agent IA
AWS Cloud
3 mois
270-430 €
Île-de-France, France
Bonjour, Je suis à la recherche d’un Consultant AWS Agentic : Missions principales : Ø Concevoir et développer des agents intelligents basés sur AWS Bedrock AgentCore Ø Implémenter et configurer les composants AgentCore : Runtimes, Short-Term / Long-Term Memories, Observability, Identity, Gateway et Policy Ø Développer et orchestrer des workflows agentiques avec : LangChain, LangGraph Ø Intégrer les agents avec des APIs exposées via AWS API Gateway Ø Mettre en place la supervision et le monitoring via CloudWatch Ø Contribuer à l’industrialisation : CI/CD via GitHub Actions, Terraform pour les pipelines et l’infrastructure, Gestion des artefacts via Artifactory Ø Collaborer avec les équipes Front-End : FE développé en React, FE probablement hébergé sur OpenShift Ø Implémenter et respecter les protocoles agentiques :MCP (Model Context Protocol), A2A (Agent-to-Agent)
Offre d'emploi
Data Engineer Senior Snowflake (Lead / Mentoring)
UCASE CONSULTING
Publiée le
AWS Cloud
Qlik
Snowflake
1 an
40k-45k €
400-650 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous 😃 🔎 Contexte Dans le cadre du déploiement de Snowflake au sein de l’équipe Data, notre client recherche un Data Engineer expérimenté pour accompagner la montée en compétence des équipes, structurer l’architecture cible et intervenir sur des chantiers clés (migration & ingestion) 🎯 Objectifs de la mission 1. Accompagnement & montée en compétence Accompagner les équipes dans la prise en main de Snowflake Animer / coanimer des ateliers et diffuser les bonnes pratiques Faciliter l’appropriation des nouveaux workflows et outils 2. Architecture & structuration Concevoir et documenter l’architecture cible Snowflake Mettre en place et optimiser les pipelines d’ingestion et de transformation Garantir la performance, la scalabilité et la robustesse des traitements 3. Gouvernance & qualité de données Définir les règles de gouvernance (rôles, accès, organisation des environnements) Mettre en place des standards de développement (naming, versionning, documentation) Implémenter des processus de data quality (tests automatisés, contrôles de cohérence, fraîcheur…) Mettre en place des mécanismes de data observability et d’alerting Documenter les processus de gestion des incidents 4. Missions opérationnelles Participer à la migration de data products (Athena → Snowflake) Contribuer à l’ingestion et la structuration de nouvelles sources de données 🔧 Must have Expérience significative en tant que Data Engineer Expertise Snowflake (indispensable) Solide maîtrise SQL (optimisation, performance) Expérience en ingestion de données et/ou migration de plateformes data Connaissances en data quality et gouvernance Capacité à accompagner des équipes (pédagogie, mentoring) ➕ Nice to have Expérience sur AWS Connaissance de Qlik Expérience en environnement data moderne (pipelines, orchestration, CI/CD…) Contexte conseil / ESN Expérience sur des sujets de data observability 📍 Modalités Démarrage : Avril 2026 Localisation : Lyon Télétravail : 3 jours sur site/2 jours de TT
Offre premium
Offre d'emploi
Data Engineer Python / Azure Sénior
VISIAN
Publiée le
Azure Data Factory
Azure DevOps
Python
1 an
Paris, France
Contexte La Direction des Systèmes d’Information recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l’exploitation des données. Missions Mener les projets d’intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d’optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger (Anglais) pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d’optimiser les architectures Contribuer à l’amélioration de la gouvernance sur la protection et la confidentialité des données Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l’entreprise
Mission freelance
expert Cloud AWS,
QUALIS ESN
Publiée le
AWS Cloud
6 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
nous recherchons un profil Expert Cloud sur les 3 domaines : AWS, GCP et S3NS. Tâche 1 : Architecture et stratégie de migration Accompagnement à la migration, l'extension ou la création de nouvelles applications sur le cloud public du client. Réalisation d'études comparatives de scénarios : Cloud Public vs SaaS vs Retain (pas de migration). Sélection des services Cloud les plus adaptés (analyse gain/perte). Analyse approfondie des impacts sur le RUN et le BUILD : tests de performance, stratégie d'observabilité et d'exploitation. Animation de workshops pour la capture du besoin. Conception d'architectures Cloud multi-niveaux : Système (intégration au SI), Réseau, HLD (High Level Design) et LLD (Low Level Design). Migration de région
Mission freelance
Expert AWS Agentic AI (H/F)
Link Consulting
Publiée le
1 mois
420-470 €
Bordeaux, Nouvelle-Aquitaine
Notre client, acteur majeur du secteur des sciences de la vie, recherche un AWS Agentic AI Expert (H/F) dans le cadre du renforcement de ses initiatives en intelligence artificielle et automatisation avancée. Vos missions : Intégré à une équipe internationale data & innovation, vous serez amené à : Concevoir et développer des solutions Agentic AI basées sur AWS Implémenter des agents intelligents via AWS Bedrock et AgentCore Gérer les mécanismes de mémoire, d’identité, de sécurité et de gouvernance des agents Mettre en place l’observabilité et le monitoring des agents IA Intégrer les solutions via APIs et architectures cloud natives Participer à l’industrialisation CI/CD et Infrastructure as Code Collaborer avec des équipes frontend et data engineering Les compétences techniques AWS Bedrock / AgentCore LangChain, LangGraph AWS CloudWatch, API Gateway Terraform, GitHub Actions, Artifactory Frontend React (environnement containerisé) Bonnes pratiques MLOps / AgentOps
Offre d'emploi
Data Engineer AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
OPS sénior - Cloud AWS / DevOps
VISIAN
Publiée le
AWS Cloud
Red Hat
1 an
Lille, Hauts-de-France
Contexte Suite à une augmentation d’activité et de la mise en place d’une nouvelle infrastructure complète pour accueillir un nouveau projet, nous recherchons un OPS sénior pour venir renforcer l'équipe s'occupant de l'exploitation du périmètre. Missions Installer, mettre en production, administrer et exploiter les moyens informatiques d’un ou plusieurs sites informatiques. Participer au bon fonctionnement des systèmes d’information en garantissant le maintien à niveau des différents outils et/ou infrastructures des logiciels systèmes et/ou infrastructures de communication (locale, étendue, voix, image, architecture centralisée, client-serveur, web, mobile) dans un objectif de qualité, de productivité et de sécurité. Mettre en place de la culture devops au sein de l'équipe, autonomiser et dynamiser son équipe et comprendre le besoin des développeurs. Accompagner les développeurs et l'intégration de la solution dans un système complexe. Livrables Construire à l’aide des outils mis à disposition l’infrastructure sous le cloud AWS : architecture ROSA (Redhat Openshift Service on AWS), Oracle, S3, ordonnanceur. Mettre en place toute la stack CICD permettant de construire et déployer les livrables fournis par le CDS (technologies actuellement envisagées : Gitlab-CI, Ansible, Terraform). Effectuer les tests de résilience de la nouvelle application. Documenter et diffuser les compétences pour la gestion du RUN du projet. Identifier les métriques nécessaires à monitorer pour aider à l’analyse. Assurer le run de l’application (mise en production, supervision, debug, incidentologie). Accompagner les équipes support clients dans l'analyse et la résolution des incidents. Dans un contexte agile, être dans un esprit d’amélioration continue. Concevoir et développer les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus. Être référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements.
Mission freelance
ML platform senior DevOps engineer
Cherry Pick
Publiée le
AWS Cloud
MLOps
Terraform
12 mois
Paris, France
Équipes ML Platform et ML Lab L'équipe ML Platform est centrée sur l'amélioration de la productivité des chercheurs dans l'entraînement de modèles de machine learning (ML) en développant des bibliothèques, des services et des bonnes pratiques, et en assurant une production ML robuste à grande échelle. L'équipe est composée de profils travaillant sur des projets transverses ainsi que d'ingénieurs accompagnant les équipes fonctionnelles dans leur parcours ML. Le ML Lab est une équipe de recherche axée sur des travaux académiques, nécessitant donc des outils et une infrastructure dédiés en dehors de l'infrastructure du client, afin de pouvoir accéder librement aux ressources open source de pointe et collaborer avec des collaborateurs externes. Mission En tant qu'Ingénieur DevOps au sein de l'équipe ML Platform, vous tirerez parti de votre solide bagage en ingénierie logicielle, de votre maîtrise de Python et de votre expérience pratique avec les fournisseurs cloud pour faciliter le travail quotidien de l'équipe ML Lab sur — leur néocloud de référence — ainsi que les liens nécessaires avec l'infrastructure du client, principalement hébergée sur AWS. Responsabilités principales Configuration du fournisseur cloud (Lambda) pour l'accès GPU par le ML Lab. Fonctionnalités FinOps et protection minimale contre les erreurs humaines. Optimisation des images Docker pour un démarrage à froid plus rapide. Mise en place et maintenance de systèmes de monitoring pour l'entraînement des modèles. Participation mineure aux projets plus larges de l'équipe ML Platform sur AWS pour les autres chercheurs du client (CI/CD, outillage sur AWS, etc.). Promotion et mise en œuvre de processus d'automatisation. Renforcement des protocoles de sécurité via des évaluations de vulnérabilités et la gestion des risques pour déployer des mesures de cybersécurité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2395 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois