L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 434 résultats.
Offre d'emploi
Manager Plateformes et Outils Data - CDI
CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud
Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
Mission freelance
DATA MESH PLATFORM MANAGER
Codezys
Publiée le
Azure
Cloud
Data governance
12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Offre d'emploi
Business Data Analyst Pré‑Trade Énergie & Commodities
WHIZE
Publiée le
Big Data
Finance
3 ans
Paris, France
Le Business Analyst Pré‑Trade intervient au cœur des activités Front‑to‑Middle sur les marchés de l’énergie (électricité, gaz, pétrole, émissions, garanties d’origine). Il accompagne les desks trading dans l’analyse, la structuration et l’évolution des processus pré‑trade, ainsi que dans la gestion et la qualité des données de marché. Ses missions couvrent l’analyse fonctionnelle, la compréhension des produits énergie, la modélisation des données, et l’amélioration continue des systèmes ETRM/CTRM. Le rôle est orienté trading, opérationnel et data , sans dimension Risk. Missions principales Analyser les besoins des desks Power, Gas, Oil, Emissions et Renewables. Étudier les mécanismes des marchés spot, intraday, day‑ahead, balancing et dérivés énergie. Documenter et optimiser les workflows pré‑trade : saisie d’ordres, enrichissement, contrôles, validation. Analyser les contract features des produits énergie : profils horaires, règles de livraison, indexations, contraintes physiques. Structurer et fiabiliser les market data énergie : prix spot/forward, courbes, données fondamentales, données issues des plateformes (EPEX, ICE, NordPool…). Comprendre et documenter le fonctionnement de l’ order book : profondeur, liquidité, matching. Réaliser des analyses data (SQL, Python) et produire des dashboards pour les équipes trading. Rédiger des spécifications fonctionnelles (user stories, règles métier, mapping de données). Participer aux phases de tests (UAT, non‑régression) et accompagner les utilisateurs lors des déploiements.
Offre d'emploi
Développeur Python / IA
CAT-AMANIA
Publiée le
Agent IA
DevOps
Python
40k-60k €
Levallois-Perret, Île-de-France
AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte * une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée * un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. * une plateforme d'exécution des modèles de Datascience, Sparrow Serving * et un outil de Community Management, Sparrow Academy L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : • Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; • Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; • Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; • Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; • Être force de proposition et participer aux POCs. Stack Technique de l’équipe : • Langages : Python, Golang, Bash • GNU/Linux • Kubernetes • DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize • Cloud services : Certmanager, Redis, Grafana, Jaeger, Prometheus, ELK, MinIO, Postgres Pre requis : • Expérience dans la prestation en python ; • Maîtrise de GitLab et des processus de CI/CD ; • Bonnes connaissances des infrastructures Cloud (système distribué et Object Storage) ; • Connaissance en machine learning et data science ; • Très bonnes connaissances en Intelligence Artificielle ; • Connaissances en Kubernetes sont un plus ; • Orienté clients, capacité à collaborer et communiquer à l’oral et à l’écrit ; • Niveau d’anglais correct à l’écrit et à l’oral ; • Méthodique et autonome • Intéressé par le monde open source
Mission freelance
Intégrateur Front-End React (Tailwind CSS)
ODHCOM - FREELANCEREPUBLIK
Publiée le
IA
Intégration
React
3 ans
400-550 €
Paris, France
Projet B2C – Stack Shopping Paris 19e – 3 jours/semaine sur site Démarrage : 1er avril Mission longue durée (3 ans) Contexte : Dans le cadre du renforcement d’une équipe front (environ 8 personnes) intervenant sur un environnement CRM et site B2C à forte exigence UI, nous recherchons un profil senior orienté intégration poussée. Le projet concerne un site e-commerce / shopping (home page, resort page, search…) avec un niveau d’exigence élevé sur la qualité d’intégration, la fidélité aux maquettes et les animations custom. Missions : Intégration fidèle de maquettes Figma (pixel-perfect) Développement d’interfaces complexes en React / Next.js Mise en œuvre d’animations CSS / JS sur-mesure Contribution au design system / librairie de composants Collaboration étroite avec le Tech Lead et l’équipe produit
Offre d'emploi
Développeur Cobol / Pacbase confirmé
SARIEL
Publiée le
CICS (Customer Information Control System)
COBOL
Multiple Virtual Storage (MVS)
12 mois
40k-55k €
330-430 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne (dans le 92) un développeur Cobol / Pacbase confirmé (4 - 10 ans d’expérience). Compétences techniques COBOL / PACBASE - Confirmé - Impératif MVS / Z-OS / Z-OS Connect - Confirmé - Impératif CICS - Confirmé - Impératif DATACOM - Confirmé - Souhaitable Description détaillée Participer à : - la MCO de la solution FFL - la MEV de la solution FFL - au projet de transformation de l'outil de gestion commerciale Aptitudes personnelles (soft skills) et compétences spécifiques nécessaires : - Pouvant s'intégrer dans un environnement où tout n'est pas complètement écrit. - Pouvant être autonome sur les développements et la technique rapidement. Une connaissance de la grande distribution serait un plus. Définition du profil ANALYSE Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production Données complémentaires Date de démarrage 01/04/2026 Lieu de réalisation Chatillon Déplacement à prévoir non Le projet nécessite des astreintes Non Nombre de jours souhaitables sur site 3 jours par semaine La sous-traitance (freelance, ESN ou autre) sur ce projet est Autorisée Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Analyste / Ingénieur Sécurité Opérationnelle (H/F) - Paris 7
Espritek
Publiée le
Administration linux
Administration systèmes et réseaux
Endpoint detection and response (EDR)
9 mois
40k-50k €
400-550 €
Paris, France
Dans le cadre d'un renforcement d'équipe pour notre client final (Secteur SPIE ICS), nous recherchons un(e) Analyste Sécurité Opérationnelle pour une mission de longue durée. Missions principales : Assurer le maintien en condition de sécurité (MCS) des infrastructures. Administrer et exploiter les outils de sécurité : EDR, Antivirus, SIEM, Firewall, Sondes, Proxy. Analyser les risques et participer aux audits SSI selon les référentiels (ANSSI, CNIL, RGS). Gérer les situations de crise et assurer la veille technologique. Accompagner la sécurisation des environnements Cloud et DevSecOps (Conteneurs, Kubernetes).
Offre d'emploi
Project manager Data Trade Denodo/VQL ( H/F)
AVA2I
Publiée le
Data quality
Finance
Microsoft Power BI
3 ans
Île-de-France, France
Dans le cadre d’un programme stratégique Data mené au sein d’un grand environnement bancaire international , une équipe IT orientée métiers Corporate & Trade Finance renforce ses capacités pour accompagner la transformation et l’accessibilité des données. Un projet structurant est en cours visant à centraliser, modéliser et distribuer les données Trade Finance , tout en garantissant un haut niveau de qualité, de gouvernance et de sécurité . Accompagner le métier Trade Finance dans l’accessibilité et la valorisation de ses données Piloter la migration des rapports BI existants vers une nouvelle solution Data Définir les plans d’actions et les roadmaps de migration des rapports existants Analyser et cadrer les besoins métier via des ateliers fonctionnels Prioriser et budgétiser les sujets de migration Coordonner les échanges avec des équipes internationales Implémenter les modèles de données sur une plateforme de virtualisation de données (Denodo / VQL) Rédiger la documentation fonctionnelle et les user stories Superviser les développements afin de maîtriser les risques et le périmètre Assurer l’assistance fonctionnelle auprès des équipes de développement Concevoir et maintenir des rapports sur Power BI Contribuer aux processus de Data Quality (définition et mise en place de règles)
Offre d'emploi
Intégrateur système mainframe confirmé
SARIEL
Publiée le
Tivoli Workload Scheduler (TWS)
z/OS
12 mois
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un Intégrateur système confirmé (4-10 ans d’expérience). Objectif global - Intégrer les promotions cadenciers au travers du system z/os. Rédiger des consignes d’exploitation et des procédures. Compétences techniques Z / OS - Confirmé - Impératif TWS - Junior – Important Connaissances linguistiques Français Courant (Impératif) Description détaillée La mission est à réaliser au sein de la Direction des Systèmes d’Information AI – Domaine OPS AI, pôle OFFRE AI qui déploie et exploite les applications métier et les infrastructures de production associées. L’intégration portera sur des promotions cadenciers au travers du system z/os, la rédaction des consignes d’exploitation et procédures. Le suivi de la production consistera à intervenir pour la résolution des incidents, en niveau 2, et à veiller à l’optimisation de l’exploitation. Points d'attention : - Il s'agit d'une activité journalière et ESSENTIELLE pour nos points de ventes multi enseignes et fournisseurs, impliquant donc une forte rigueur. - Cette activité sera à réaliser en application d'une procédure détaillée. Un accompagnement de la ressource sera prévu lors du démarrage de la mission et à la vue de la criticité des opérations. Définition du profil IDENTIFICATION ET SÉLECTION DES COMPOSANTS Participe au choix des différents composants logiciels et matériels Estime les charges d'intégration et tests unitaires Apporte une assistance et des conseils dans leur mise en œuvre ? RÉCEPTION, VALIDATION ET ASSEMBLAGE Assemble, intègre et industrialise les solutions techniques et matérielles en respectant le plan d'urbanisme du SI et l'architecture retenue Conçoit et développe au besoin des mécanismes pour leur exploitation Assure les évolutions et la maintenance des outils & systèmes déployés Met en place et maintient les outils de gestion de terminaux mobiles et de communication FOURNITURE DES SOLUTIONS TECHNIQUES ET MATERIELLES Rédige les documentations techniques et les procédures d'exploitation Peut être amené à?former?les utilisateurs sur les outils et composants système principalement lors de l'intégration de nouveaux collaborateurs ou lorsqu'il y a une importante évolution d'un outil? Est en charge du support 4éme niveau Date de démarrage 13/04/2026 Lieu de réalisation Châtillon Déplacement à prévoir non Le projet nécessite des astreintes Non Nombre de jours souhaitables sur site 3 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Ingénieur système Linux / Devops H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
40k-55k €
Maisons-Laffitte, Île-de-France
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers notre activité Services en région Ile De France, nous accompagnons plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Au sein d'un grand groupe de l'aéronautique défense nucléaire, sur un périmètre sécurisé d'un de nos prestigieux client, nous recherchons un/e ingénieur système Linux / Devops. L'annuaire client évolue vers un système d'identité numérique et autorisations afin de refondre la gestion des identités numériques et des autorisations des utilisateurs des Si. Cela nécessite l'intégration de nouvelles briques comme le référentiel des identités numériques. Les prestations se décomposent en différente activités : • Mise à jour ou création de documents d'architecture (technique, fonctionnelle et logique) ; • Remédiation sur des composants d'une infrastructure à haut niveau de disponibilité ; • Mise en place d'un environnement d'automatisation (type Ansible) ; • L'administration de systèmes LINUX (RHEL, CENTOS ou DEBIAN) ; • La rédaction de scripts bash, ou l'utilisation de langages de programmation ; • Paramétrage de logiciels ou services et création de scripts nécessaires au diagnostic d'incident ; • Vérification du bon fonctionnement suite à une mise à niveau d'un service d'infrastructure ; • Industrialisation d'actions sur la maintenance (MCO, MCS, tests de fonctionnement) ; • Rédaction de documents / procédures sur la maintenance / l'exploitation.. Contrat : uniquement en CDI Localisation : prestation de client grand compte à Maisons-Laffitte 78 Télétravail possible : Non Salaire : selon formation, compétences, expérience. Référence de l'offre : 87do16t21u
Offre d'emploi
Analyste data transport (F/H/X)
Talents Finance
Publiée le
35k-55k €
Paris, France
Vos missions : Préparer un plan de travail pour corriger et optimiser les données liées au transport, afin d’assurer leur fiabilité Collecter et centraliser les données notamment liées au transport, nécessaires à l’optimisation de l’ERP de l’entreprise Saisir, mettre à jour, vérifier la cohérence, contrôler la qualité des données Catégoriser et structurer les données pour faciliter leur analyse et exploitation stratégique Créer et mettre à jour des manuels de gestion de données Participer à la création d'un système d'analyse de la qualité des données notamment liées au transport Analyser des données simples existantes et rechercher des écarts de données Modéliser les bases de données et en assurer les mises à jour régulières, pour répondre aux besoins évolutifs Collaborer directement avec les utilisateurs finaux, pour comprendre leurs besoins spécifiques et construire une relation de confiance Autres informations : Département : Technologie de l'information Type de contrat : Contrat à durée indéterminée (CDI), Temps plein Durée du contrat : indéterminée Date de début : dès que possible Horaire : 8H00-12H00 et de 12H50-16H50 du lundi au jeudi et 8H00-12H00 et de 12H50-15H50 le vendredi (soit un total de 39H par semaine) Localisation du poste : Nogent-sur-Seine, Aube (10), Grand Est, France - proche Romilly-sur-Seine (10), Troyes (10), Sézanne (51), Montereau-Fault-Yonne (77), Nangis (77), Provins (77) et Sens (89), 54 min direct de Paris en train Déplacement : à Nogent-sur-Seine Télétravail : non Poste ouvert aux personnes en situation de handicap
Offre d'emploi
Administrateur plateforme splunk confirmé F/H
TOHTEM IT
Publiée le
35k-45k €
Toulouse, Occitanie
Dans le cadre du renforcement de ses capacités de supervision et de monitoring, nous recrutons pour notre client une ou un Administrateur.rice Splunk expérimenté.e pour assurer la gestion, l’optimisation et l’évolution de sa plateforme Splunk, déployée en environnement hybride (on-premises & cloud AWS). Objectifs de la mission : Administrer l’infrastructure Splunk Enterprise (on-prem et cloud) Garantir la haute disponibilité et la fiabilité de la plateforme (indexers, search heads, forwarders…) Optimiser les performances globales de la solution Participer aux mises à jour , à l’ intégration de données et à la gestion des incidents de niveau 3 Automatiser les tâches courantes via des scripts Bash, Python, etc. Contribuer à l'amélioration des pipelines CI/CD pour les déploiements Splunk Intégrer Splunk avec des outils tiers : ServiceNow, Git, Jenkins, AWS, etc.
Mission freelance
Administrateur Systèmes DevOps Kubernetes (H/F)
Link Consulting
Publiée le
Ansible
DevOps
Kubernetes
12 mois
450-550 €
Bordeaux, Nouvelle-Aquitaine
Notre client, acteur majeur du secteur public & numérique, recherche son futur Administrateur Systèmes DevOps Kubernetes (H/F), dans le cadre d'un renforcement de ses équipes. | Vos missions | Intégré(e) à une équipe technique de taille humaine, vous interviendrez sur les missions suivantes : - Automatiser le déploiement et la configuration des environnements Linux via Ansible \- Concevoir, déployer et faire évoluer des clusters Kubernetes en environnement cloud \- Assurer le maintien en conditions opérationnelles des services “as a service” (conteneurs, bases de données) \- Participer à la structuration d’une plateforme de déploiement industrialisée \- Mettre en œuvre les bonnes pratiques DevOps et CI/CD \- Contribuer à la documentation et au support de niveau avancé \- Réaliser une veille technologique continue | Compétences attendues | \- Administration Linux (Debian) \- Kubernetes (déploiement de clusters, idéalement via Kubespray) \- Ansible, Git, Bash \- Conteneurisation : Docker \- Environnements cloud et virtualisation \- Outils : GitLab, Prometheus, Grafana, OpenStack, Python (apprécié)
Mission freelance
Business Analyst – Global Markets - Paris
Net technologie
Publiée le
Business Analyst
Market data
1 an
Paris, France
Dans le cadre de la structuration Global Markets , nous recherchons un profil pour rejoindre l’équipe QIS (Quantitative Investment Strategies) , en Salle des Marchés; L’équipe QIS développe et promeut la gamme d’indices propriétaires. Le poste s’inscrit au sein de l’équipe QIS Transversal , intégrée à une Task Force stratégique visant à optimiser la chaîne de publication des indices (réduction de la maintenance quotidienne et du risque opérationnel). 🛠 Vos missions : Analyser l’existant et identifier les axes d’amélioration Proposer et structurer un plan d’action Coordonner les équipes impliquées (Structuring, Research, Dev, Trading, Legal – international) Concevoir un outil de suivi du processus opérationnel Assurer le reporting régulier auprès du management
Offre d'emploi
Métrologue Réseau (F/H)
Experis France
Publiée le
35k-45k €
Nantes, Pays de la Loire
Métrologue Réseau (F/H) - Nantes Contexte Dans un environnement d'infrastructures critiques et de systèmes complexes et interconnectés, nous recherchons un(e) Métrologue Réseau expérimenté(e). Vous interviendrez au sein d'une équipe en charge de la mesure, de l'analyse et de la fiabilité des performances réseau, dans un objectif d'optimisation continue. Vos missions En tant que Métrologue Réseau, vous serez amené(e) à : 🔧 Métrologie & Observabilité Concevoir, déployer et maintenir les dispositifs de métrologie réseau basés sur des technologies leaders du marché. Administrer et exploiter des outils de métrologie pour l'analyse de trafic et la performance réseau. Mettre en œuvre et exploiter des solutions d'observabilité (ex : Dynatrace) intégrant des fonctionnalités d'intelligence artificielle. 📊 Analyse & Performance Garantir la qualité, la fiabilité et la traçabilité des données de mesure. Produire des analyses et indicateurs de performance pertinents : Incidents : contribuer à la compréhension et à la résolution d'incidents majeurs, de pannes complexes ou de dégradations de performance. Projets : réaliser des capacity plannings pour anticiper et ajuster les architectures réseau aux besoins. 🚀 Amélioration continue Participer à l'amélioration continue des architectures réseau du Groupe. Apporter une expertise technique dans le cadre des évolutions et optimisations des infrastructures.
Mission freelance
LEAD MACHINE LEARNING MLOPS
Atlas Connect
Publiée le
Agent IA
API
API REST
6 mois
600-680 €
Paris, France
Mission Garantir l’excellence technologique du pôle IA en définissant les standards d’architecture et de développement, en sécurisant la mise en production de solutions d’intelligence artificielle complexes et en accompagnant la montée en compétence des équipes techniques. Le Tech Lead ML joue un rôle clé dans la conception, la robustesse et la scalabilité des produits IA tout en contribuant aux décisions stratégiques liées à la roadmap technologique. Responsabilités principalesArchitecture & Engineering IA Définir et maintenir les standards d’architecture ML/IA dans des environnements multi-cloud . Concevoir et valider les pipelines ML / IA end-to-end (data → training → évaluation → déploiement → monitoring). Mettre en place les bonnes pratiques de MLOps et industrialisation des modèles . Choix technologiques Superviser les choix d’outils et frameworks : frameworks ML solutions cloud (Google Cloud, Microsoft Azure) outils MLOps Garantir la cohérence technologique de l’écosystème IA. Qualité technique & gouvernance Auditer et challenger la qualité technique des produits IA : performance robustesse sécurité coûts (FinOps) maintenabilité Mettre en place des standards de gouvernance des modèles et des données . Leadership technique Jouer un rôle d’ expert et de mentor auprès des équipes Data Science et Data Engineering. Accompagner la montée en compétence technique des équipes. Définir et diffuser les bonnes pratiques de développement . Contribution stratégique Participer aux phases de cadrage et de conception des produits IA . Contribuer à la définition de la roadmap produit IA . Collaborer étroitement avec : le Product Owner IA les Data Scientists les Data Engineers les équipes software. Innovation & veille Assurer une veille technologique active sur les innovations IA : IA générative MLOps architectures data outils et frameworks émergents.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Comment se protéger quand une ESN remplace un freelance après validation client ?
- [Sondage] Projet étudiant -- besoin d'avis de pros
- Externalisation fiche de paie president sasu
- MCP c'est quoi la Hype ?
- Root-MENU ressemble à une arnaque
- La fuite du code de Claude Code : simple boulette ou vrai warning pour la tech ?
6434 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois