Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 381 résultats.
Freelance

Mission freelance
Lead Technique Fullstack – Projet International (Vue.js / Nuxt / Node /AWS)

Publiée le
Architecture
AWS Cloud
CI/CD

6 mois
Paris, France
Télétravail partiel
Nous recherchons un Lead Technique Fullstack pour piloter des projets stratégiques. Votre rôle sera de : Définir et valider les choix techniques (stack, architecture). Assurer le lead technique (sans management hiérarchique) et être le relais pour l’équipe . Participer au développement et à la mise en place des bonnes pratiques . Garantir la qualité et la performance des workflows d’annonces vers les sites partenaires. Accompagner la migration vers Nuxt (Vue.js) . Stack cible : Front : Nuxt (Vue.js), TypeScript Back : Node, Serverless, AWS, microservices Ops : CI/CD, Git, pipelines automatisés
Freelance

Mission freelance
Expert NoSQL

Publiée le
AWS Cloud
Docker
Elasticsearch

12 mois
400-500 €
Paris, France
Télétravail partiel
Nous recherchons un Expert NoSQL Objectif global : Accompagner le client avec une Expertise NoSQL Les livrables sont: POC et guides d’architecture NoSQL Souches et scripts conteneurisés (Docker/OpenShift) Rapports d’audit et documentation technique consolidée Compétences techniques: ElasticSearch / GraphDB (Cypher, RDF, LPG) - Expert - Impératif Docker / Kubernetes / OpenShift / Linux RedHat - Confirmé - Impératif DevOps – CI/CD (GitLab, Jenkins, Cloud AWS/GCP) - Confirmé - Impératif Description: Recherche un Expert NoSQL confirmé pour accompagner la création d’un centre de compétences interne autour des technologies NoSQL (ElasticSearch, GraphDB). Vous interviendrez sur la conception, l’industrialisation et l’optimisation d’environnements conteneurisés (Docker/OpenShift) hébergés sur cloud hybride (on-premise / AWS / GCP). Mission longue Compétences essentielles : - ElasticSearch / GraphDB (Cypher, RDF, LPG) - Docker / Kubernetes / OpenShift / Linux RedHat - DevOps – CI/CD (GitLab, Jenkins, Cloud AWS/GCP) Livrables principaux : - POC et guides d’architecture NoSQL - Souches et scripts conteneurisés (Docker/OpenShift) - Rapports d’audit et documentation technique consolidée
Freelance
CDD

Offre d'emploi
Ingénieur de Production Kubernetes (H/F)

Publiée le
AWS Cloud
DevOps
Kubernetes

1 an
65k-70k €
400-460 €
Guyancourt, Île-de-France
Télétravail partiel
VOS RESPONSABILITES PRINCIPALES : La supervision et l’exploitation des clusters Kubernetes (on-prem ou OpenShift). L’ industrialisation des déploiements via CI/CD, GitOps et Infrastructure as Code. L’ amélioration continue des performances, de la sécurité et de la traçabilité. La gestion du MCO / RUN : diagnostics, résolution d’incidents, capacity planning. La collaboration étroite avec les équipes DevOps, sécurité et applicatives. VOTRE MISSION : Gérer et maintenir les clusters Kubernetes en production (Kubernetes natif ou OpenShift). Automatiser les déploiements applicatifs avec Helm, ArgoCD, Jenkins ou GitLab CI/CD. Superviser les environnements via Prometheus, Grafana, ELK/EFK, Dynatrace ou équivalents. Assurer la sécurité des environnements conteneurisés : secrets management, durcissement, audit et conformité. Participer aux changements et mises en production dans le cadre ITIL (CAB, incidents, problèmes). Contribuer aux projets de migration et de modernisation des infrastructures vers Kubernetes. Développer des scripts d’automatisation (Bash, Python, Ansible, Terraform). Documenter les procédures et diffuser les bonnes pratiques auprès des équipes projet.
Freelance

Mission freelance
Senior Ops Engineer - Lille

Publiée le
AWS Cloud
Docker
Github

6 mois
350-450 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission Tu intégreras l’équipe Ops du domaine. Notre mission est d’accompagner les équipes sur : l’architecture, le capacity planning, la sécurité, la Finops, le build, l’observabilité et l’automatisation de leurs projets. Nos enjeux sont mondiaux et nos plateformes ne dorment jamais. Objectifs et livrables TES RESPONSABILITES Assurer la bonne santé des infras techniques du domaine Accompagner les équipes dans les nouveaux besoins Accompagner les équipes dans le RUN quotidien Accompagner les équipes sur l’amélioration continue des projets Aider à la résolution des incidents de production Assurer la mise en place d’automatisation Accompagnement à la mise en place des DRP Assurer la montée en compétence des développeurs sur les sujets Ops Environnement technique de la BU : Java - Framework Spring Boot, Quarkus, Angular, Python PHP - API Platform, Symfony Industrialisation de l’hébergement (Docker, Kubernetes) Monitoring de la solution et de son infrastructure (Datadog) Kubernetes, Helm, Flux Kafka Outils collaboratifs: Confluence, Jira
Freelance

Mission freelance
Architecte Fonctionnel/Technique

Publiée le
AWS Cloud
Azure DevOps
Gitlab

1 an
400-590 €
Paris, France
Contexte : Au sein du département Architecture Technique, nous recherchons une expertise en architecture technique pour une mission visant à accompagner les projets métiers et IT, en apportant un haut niveau de compétence et de conseil en matière d’architecture technique. Architecture fonctionnelle et/ou technique : Elaboration de l'architecture fonctionnelle globale du SI et de sa trajectoire de mise en œuvre à partir des orientations métiers et stratégiques de l'entreprise. Déclinaison de l'architecture fonctionnelle globale du SI pour les différents projets contribuant à son évolution, avec prise en compte de la vision transversale et de la cohérence entre projets et domaines métiers. Définition de l’architecture technique de tout ou partie de l'infrastructure des systèmes d’informations (bases de données, réseaux, téléphonie, postes de travail, outils et systèmes ...), en s'assurant de la cohérence et de la pérennité de l’ensemble des moyens informatiques et en respectant le plan d’urbanisme de l’entreprise. Cohérence globale de la cartographie au niveau technique, des référentiels et de l’architecture infrastructure cible. Périmètre détaillé : Stratégie : Contribue à l’élaboration du plan stratégique SI. Contribue aux choix de nouvelles solutions répondant aux besoins de l’entreprise, en cohérence avec les recommandations et solutions en place, et plus globalement avec la stratégie SI. Effectue une veille technologique du marché et promeut des solutions innovantes adaptées à l’entreprise. Conception du SI : Construit et maintient les normes et les principes d’architecture du SI et pilote la documentation idoine et met à jour le référentiel de l’entreprise. À partir des stratégies et des besoins des directions Métiers : Analyse, les impacts des nouvelles solutions sur le SI. Propose des évolutions pour les différents produits et services Métier. Propose des évolutions de l’architecture du SI en tenant compte des différents modèles de services. En assurant un SI d’entreprise cohérent et performant, élabore des recommandations pour pouvoir intégrer en toute sécurité de nouvelles solutions SI au sein de l’entreprise. Amélioration continue : Promeut les orientations liées à l’architecture du SI. De manière pédagogique, faciliter le transfert de connaissance, d’expérience et de bonnes pratiques au sein des équipes responsables de l’architecture du SI. Gestion de la connaissance : Communique et partage les principes d’architecture, les standards SI et l’innovation SI avec les communautés des architectes SI. Livrables : Le référentiel d’architecture d’entreprise (normes & standards, cartographie, processus, vocabulaire.)
Freelance

Mission freelance
Ingénieur de prod Legacy /AWS / OpenShif – Exploitation Appli Bancaires Digitales (H/F) - NANCY

Publiée le
AWS Cloud
Legacy System Migration Workbench (LSMW)
Openshift

12 mois
320-370 €
Nancy, Grand Est
Télétravail partiel
Espace Freelance recherche pour l'un de ses clients un : Ingénieur de production Legacy /AWS / OpenShif – Exploitation Appli Bancaires Digitales (H/F) Vos principales missions : Mettre en œuvre et garantir l’exploitabilité des applications digitales. Assurer le suivi opérationnel et la supervision au quotidien. Gérer les environnements : Legacy, Cloud Privé, AWS, OCP. Participer aux projets techniques : containerisation, migrations, obsolescence, configuration des chaînes de liaison. Industrialiser les déploiements via les outils DevOps : 👉 Bitbucket, Jenkins, XLD/XLR Intégrer et installer les évolutions via CI/CD. Assurer la supervision via Zabbix, AppDynamics, Actuator, IP Label Ekara/Newtest. Produire analyses & monitoring : ELK, Grafana. Contribuer aux KPI : failles, certificats, incidents, supervision. Participation au service 24/7 via astreintes. Réaliser les installations en heures non ouvrées. Assurer le reporting complet de l’activité.
Freelance

Mission freelance
Profil expérimenté DBT/Snowflake

Publiée le
AWS Cloud
DBT
Pandas

6 mois
370-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un profil expérimenté DBT/Snowflake. Voici les caractéristiques : Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer Localisé sur Bordeaux avec 3 jours de TT/semaine
Freelance
CDI

Offre d'emploi
Expert Qualité, Process & CMDB Management - Service Now

Publiée le
Automatisation
AWS Cloud
Azure

12 mois
40k-48k €
450-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission : Dans le cadre de la mise en œuvre d’une solution CMDB (gestion des actifs IT/OT, Legacy et Cloud) et de l’amélioration de l’Observabilité pour renforcer les performances, la cybersécurité, la conformité (NIS2, ISO 62443, NIST CSF, ISO 27001) et le maintien en conditions opérationnelles (MCO / MCS) de notre client final nous recherchons un Expert Qualité, Process & CMDB Management spécialisé Service Now Tâches à réaliser : 2 instances de CMDB open source (On-premise ou sur base IaaS / PaaS / SaaS) communicantes avec ServiceNow (pas d’exigence de synchro continue) et ISTAR · Prise en compte des CI côté AWS (visibilité et optimisation des ressources Cloud) · Modèle de données adapté au secteur industriel OT supportant différentes classes de CI selon criticité · Découverte automatisée (SNMP/agent), cartographie, reporting, tableaux de bord, extractions (csv/pdf), workflows de mise à jour, API d’interfaçage · Documentations complètes (DAT, DEX, manuels, procédures), support à déterminer la 1ère année au-moins durant les 6 mois à l’issue du transfert de compétences (VBAF / VSR) · Définition Gouvernance et responsabilités opérationnelles (RACI à proposer) Outils · Solutions open source à privilégier (contexte PME à ETI, autonomie à l’égard d’éditeurs commerciaux, absence de couts de redevances logicielles / licence) · CMDB : fonctionnalités ITSM recouvrant a minima ce que propose par exemple « iTop » avec possibilité d’interfaçage, adaptations à la marge (spécifique limité) · Observabilité : équivalent fonctionnel proposé par exemple par « OpenObserve », fonctions évoluées correspondant à « l’état de l’art » (standard OpenTelemetry, workflow et automatisation, dashboards interactifs, contexte et tagging avancée des ressources, disposant nativement d’une brique d’IA idéalement)
Freelance

Mission freelance
DATA SCIENTIST EXPERT / DATA PRODUCT – DATAIKU (H/F) 75

Publiée le
Apache Spark
Dataiku
PySpark

6 mois
Paris, France
Télétravail partiel
Contexte: Dans un contexte de structuration et de montée en maturité des usages Data au sein d’une Direction Financière, la mission vise à renforcer les capacités analytiques autour de la prévision du chiffre d’affaires. L’objectif est de concevoir et d’industrialiser un produit Data stratégique permettant une projection automatisée et multidimensionnelle du chiffre d’affaires (produits, zones géographiques, canaux de vente, infrastructures). Le consultant interviendra au cœur d’une organisation Finance & Data, en tant que référent Data Finance, à l’interface entre les équipes Finance, Data et Produit. Missions: Concevoir, maintenir et faire évoluer un produit Data de projection du chiffre d’affaires Développer et industrialiser des modèles de prévision intégrant des mécanismes basés sur les volumes Permettre des ajustements manuels des projections par les équipes métiers Garantir la qualité, la fiabilité, la traçabilité et l’exploitabilité des données Développer et maintenir des pipelines de données sous Dataiku Implémenter des traitements SQL avancés et des flux de transformation complexes Exploiter Spark / PySpark pour gérer des volumétries importantes Automatiser, monitorer et documenter les chaînes de traitement Mettre en œuvre des contrôles de qualité et contribuer à la gouvernance des données financières Rendre les modèles explicables et actionnables pour les équipes Finance Mettre à disposition les données projetées dans le datalake Collaborer étroitement avec les équipes Finance, Data et Produit Participer aux rituels agiles et au suivi des livrables via des outils de gestion de projet
Freelance

Mission freelance
Intermediate Data Engineer

Publiée le
API
AWS Cloud
Big Data

12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Freelance

Mission freelance
SYSOPS H/F

Publiée le
Ansible
AWS Cloud
Microsoft Windows

3 mois
Lille, Hauts-de-France
Télétravail partiel
MISSION Administration et évolution des environnements Microsoft Windows Server, Active Directory, Entra ID (Azure AD). Participation à la migration et à l’exploitation d’environnements Cloud publics et privés. Mise en œuvre de solutions Infrastructure as Code (IaC) (Packer, Terraform, Ansible, etc.). Gestion et optimisation des environnements VMware (vSphere, vCenter). Contribution aux projets de transformation IT (sécurité, automatisation, modernisation). Veille technologique et force de proposition sur les bonnes pratiques Cloud et systèmes
Freelance

Mission freelance
Tech Lead Kubernetes

Publiée le
AWS Cloud
Kubernetes

12 mois
400-550 €
Malakoff, Île-de-France
Télétravail partiel
Tech Lead Kubernetes expérimenté dans l’administration de clusters Kubernetes et l’intégration de Tanzu Kubernetes Grid (TKG) au sein de VMware Cloud Foundation (VCF), afin d’accompagner la gestion et l’évolution des infrastructures critiques du groupe. Périmètre On-Premises Le Tech Lead interviendra sur la plateforme Kubernetes interne, supportant les applications digitales et les composants d’intermédiation essentiels (API Management). Ses missions principales seront de : - Assurer l’administration, la maintenance et l’évolution des clusters Tanzu Kubernetes Grid (TKG). - Apporter une expertise avancée sur les problématiques Kubernetes (performance, résilience, sécurité). - Préparer et piloter la migration vers TKG 2.x intégré à VCF 9. - Accompagner la montée en compétences des équipes internes sur l’exploitation de TKG. - Contribuer à l’intégration et à la fiabilisation des pipelines CI/CD, dans une approche Infrastructure as Code (IaC) et GitOps. Périmètre AWS Sur la partie AWS, le Tech Lead sera responsable de l’administration et de l’optimisation des clusters Amazon EKS utilisés pour les applications data du groupe. Les missions incluent : - Administrer et faire évoluer les clusters EKS. - Accompagner la reprise des clusters actuellement gérés par les équipes Data Cloud. - Fournir un support expert sur les incidents, la performance et la sécurité Kubernetes. Description Assurer la disponibilité des socles techniques Cloud Internes et Publiques, de Virtualisation et leur maintien en condition opérationnelle. - Administration et maintenance des plateformes Kubernetes (On-Prem & AWS) - Administrer, maintenir et faire évoluer les environnements TKG et EKS. - Garantir la résilience, la sécurité et la disponibilité des plateformes. - Fournir un support expert sur les incidents et la performance. - Documenter et mettre à jour les procédures de reprise après incident et d’exploitation TKG. Répondre aux demandes de nouveaux environnements techniques - Participer à la définition du socle commun d’hébergement des applications et composants critiques. - Fiabiliser les pipelines CI/CD dans une approche IaC et GitOps. - Organiser et piloter la transition des clusters EKS sous gestion Data Cloud. - Définir et maintenir les rôles RBAC et la gestion des droits utilisateurs. - Intégrer et optimiser les outils CI/CD (Jenkins, ArgoCD, etc.). - Automatiser le déploiement bout-en-bout des environnements Kubernetes. Développer et promouvoir les usages Cloud au sein du groupe et en assurer le support. - Contribuer à la migration vers TKG 2.x / VCF 9. - Accompagner les équipes d’exploitation et de développement dans la montée en compétences sur Kubernetes et GitOps. - Assurer la continuité de service et le transfert de connaissances. - Améliorer et formaliser les procédures opérationnelles d’exploitation et optimisation - Renforcer la culture GitOps et DevSecOps au sein des équipes. - Support à la conception et automatisation Livrables Documentation technique complète, en français, mise à jour régulièrement. Référentiel documentaire structuré et à jour. Contributions aux schémas d’architecture des infrastructures Kubernetes et cloud. Modules IaC et pipelines CI/CD déployables.
Freelance
CDI

Offre d'emploi
Ingénier Devops basé à Lille

Publiée le
AWS Cloud
Datadog
FLUXCD

2 ans
40k-61k €
100-500 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Ingénieur Devops basé à Lille. Objectif : L'objectif de la mission sera : - d'assurer l'exploitation des applications - de répondre aux demandes d'installation des livrables fournit par notre CDS - d'aider au diagnostic lors d'incidents ou de debug - En parallèle, il participera et travaillera en partenariat avec le PO technique sur le rebuild/refactoring afin de répondre à des enjeux de scalabilité et d'optimisation des coûts de l'architecture. - d'assurer les astreintes PIV & SIDH (1 semaine par mois) La mission nécessite un réel investissement tant le projet est vaste et pluriel dans sa partie technique. Il y a beaucoup à apprendre et on sort souvent de sa zone de confort pour répondre efficacement aux exigences des clients. Livrables • Garant de la bonne application des processus de production en transverse : évolutions et créations des stacks techniques • Garant de la cohérence de bout en bout des différents environnements • Organisation et pilotage de la gestion des événements impactant la production • Porte une vision auprès du domaine sur le RUN et facilite la priorisation de sujets d'amélioration • Accompagnement des équipes sur le delivery/recette, analyse des anomalies et facilitateur sur la communication inter-domaine au sein du domaine • Pilotage les incidents majeurs • Accompagne la réalisation de ces sujets ou les porte opérationnellement en fonction des besoins Activités détaillées : - Contribuer au développement, à l'évolution et à la maintenance des outils d'industrialisation - Assurer le déploiement en environnement de préproduction et production des livrables fournit par notre CDS - Assurer le run de l'application en production (suivi de la QoS, monitoring, supervision, Incidentologies, debug et analyses) - Accompagner notre CDS dans leur intégration de livrable sous AWS - Accompagner les équipes support clients dans l'analyse et la résolution des incidents - En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus - Dans un contexte agile, être dans un esprit d’amélioration continue. - Vous concevez et développez les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. - Vous êtes référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements - Vous accompagnez l’équipe sur l’adoption des bonnes pratiques et nos outils DEVOPS
Freelance
CDI

Offre d'emploi
Security Referent – Paiement & PCI DSS (H/F) - (Profil très technique)

Publiée le
AWS Cloud
Azure
PCI DSS

3 ans
France
Télétravail 100%
CLIENT JEUX ARGENT : Nous recherchons un Security Referent spécialisé dans les environnements paiement pour accompagner les équipes techniques sur la sécurisation de l’ensemble des flux sensibles : traitement carte, autorisations, wallet, transactions, gestion de la fraude et conformité PCI DSS . Intégré directement au sein des squads produit, vous serez responsable de la définition et du suivi des bonnes pratiques de sécurité applicative et cloud sur des piles techniques incluant Rust, Kotlin, Angular, .NET , ainsi que sur une architecture microservices fortement distribuée. Vous interviendrez à la fois sur la révision des implémentations sensibles , la conception sécurisée des API de paiement, la validation des IAC ( Terraform , pipelines CI/CD) et la sécurisation des environnements AWS / Azure . Vous analyserez les points de fragilité, proposerez des améliorations, et piloterez les chantiers de remédiation nécessaires pour garantir un haut niveau de résilience, la réduction des risques fraude et le maintien de la conformité réglementaire. En tant que référent, vous serez également le point d’entrée privilégié entre les équipes dev, les équipes plateforme et les autres pôles sécurité (offensif, SOC, compliance).
CDI

Offre d'emploi
Data Engineer Talend - DAX

Publiée le
AWS Cloud
Azure
Snowflake

40k-50k €
Dax, Nouvelle-Aquitaine
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
Freelance

Mission freelance
Ingénieur MLOps Data & IA

Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
2381 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous