Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 316 résultats.
CDI
Freelance

Offre d'emploi
Data Analyst (H/F)

MSI Experts
Publiée le
Confluence
JIRA
Microsoft Excel

1 an
10k-40k €
100-360 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d'une mission longue durée chez notre client lyonnais, acteur majeur du secteur de l'énergie, nous recherchons un.e Data Analyst confirmé.e capable d’intervenir sur des problématiques de performance et d’analyse de données à forte volumétrie. Vos missions Analyser et traiter des volumes importants de données Identifier des anomalies ou signaux faibles de manière autonome Produire et présenter des reportings clairs et pertinents Animer des réunions autour des analyses réalisées Proposer et piloter des axes d’amélioration en collaboration avec les équipes métiers et techniques Environnement technique Excel PowerPoint JIRA Confluence Tableau Desktop
Freelance

Mission freelance
DATA SCIENTIST

Codezys
Publiée le
Azure
Azure AI Foundry
Azure DevOps Services

12 mois
450-500 €
Nanterre, Île-de-France
Description détaillée : VOTRE MISSION Concevoir et industrialiser des solutions d’intelligence artificielle générative (modèles de langage de grande taille, agents intelligents, RAG) en réponse aux besoins identifiés par la cellule AI Catalysts, priorisés par le Product Owner (PO). Intégrer ces composants GenAI au sein de l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de gestion des coûts. Définir et mettre en œuvre les architectures techniques appropriées : sélection des modèles, orchestration des agents, conception des systèmes RAG, gestion des sessions utilisateur. Développer et maintenir le code, principalement en Python, ainsi que les composants réutilisables tels que les librairies de prompts et d’agents. Industrialiser le déploiement des solutions via la conteneurisation (Docker), l’orchestration Kubernetes, les pipelines CI/CD, l’Infrastructure as Code (Terraform), et assurer le suivi opérationnel (monitoring). Appliquer les bonnes pratiques MLOps : suivi des expérimentations, versioning des modèles, tests de régression, validations en environnement pré-production. S’assurer de la qualité, de la performance et de l’observabilité des solutions : mise en place de métriques, tests adversariaux, surveillance des dégradations en production. Collaborer étroitement avec le Product Owner, les ingénieurs logiciels, les AI Catalysts et la DSI afin d’assurer la sécurité et l’adoption des solutions proposées. Participer à la documentation, à la création de templates, ainsi qu’à la formation des équipes internes. Profil recherché : Data Scientist Responsable du développement d’algorithmes en Machine Learning et Intelligence Artificielle, visant à générer de la valeur métier à partir de données (structures, non structurées, vidéos, images, etc.). Capable de comprendre et d’interroger les demandes de l’entreprise pour fournir des solutions optimales. Apporte un support stratégique à la décision, notamment en proposant des innovations, en améliorant les performances et en optimisant le service client. Participe à l’industrialisation des projets de Data Science en collaboration avec les Data Engineers. Assure la maintenance et la documentation des algorithmes industrialisés, conformément aux rôles et responsabilités définis par le projet. Localisation : Paris – Niveau avancé (minimum 9 ans d’expérience dans le domaine) Ce descriptif ne doit pas dépasser 3000 caractères, intégrant l’ensemble des éléments en HTML pour garantir une mise en forme claire et professionnelle.
Freelance

Mission freelance
Ingénieur Data

STHREE SAS pour COMPUTER FUTURES
Publiée le
Dataiku
SQL

3 mois
280-400 €
Niort, Nouvelle-Aquitaine
Bonjour, Je suis à la recherche Ingénieur Data : Missions principales : Ø Concevoir, développer et optimiser des flux de données performants et robustes. Ø Alimenter les entrepôts de données et DataMart du périmètre Assurance Vie. Ø Participer à la conception de modèles de données :,MCD, Modélisation dimensionnelle, Schémas adaptés aux besoins métier Assurance Vie. Ø Industrialiser les processus de préparation, transformation et contrôle de la donnée. Ø Forte utilisation de Dataiku pour automatiser et standardiser les workflows. Ø Assurer l’intégration des données dans les outils de Business Intelligence (notamment Tableau). Ø Optimiser la préparation et la performance des jeux de données pour les équipes métiers. Ø Garantir la qualité, la performance et le maintien en condition opérationnelle (MCO) des pipelines et environnements DATA. Ø Contribuer à l’amélioration continue, à la résilience et à l’optimisation des processus existants.
Freelance

Mission freelance
[FBO] Senior Python Backend Engineer – Plateforme Chatbot IA

ISUPPLIER
Publiée le
Agent IA
Chatbot
Python

3 ans
Île-de-France, France
Le bénéficiaire souhaite une prestation d’accompagnement dans l’objectif de concevoir et déployer une plateforme backend de chatbot intelligente et sécurisée pour accompagner les collaborateurs dans leurs activités quotidiennes. Le service doit offrir une expérience conversationnelle fluide, multilingue, conforme aux exigences RGAA et sécurité du groupe, tout en permettant l’intégration de solutions métiers (assistants, fichiers, prompts, contextes, KPIs). La solution vise à centraliser et personnaliser l'assistance digitale, accessible à l'ensemble des entités, via une orchestration flexible et évolutive des fonctionnalités. Contexte : Au sein d’un grand acteur de la finance, vous participez à la mise en place d’un ChatGPT interne. En tant que développeur Python senior, vous concevez et opérez une plateforme de micro-services hautement disponibles, centrée sur un routeur d’appels vers différents endpoints (dont des LLM), des services de traitement de prompts/documents et une gestion fine des timeouts et fallbacks. Les briques IA avancées (RAG, recherche documentaire, modèles) sont prises en charge par les IA Engineers et le Tech Lead IA. Les missions principales : - Conception, développement et maintien des micro-services Python (FastAPI) robustes pour un routeur d’appels vers différents endpoints (LLM, services internes/externes, cache), la gestion des stratégies de fallback (changement de provider, cache, réponses dégradées), le traitement de prompts/documents (parsing, transformation, contrôle qualité). - Mise en place des APIs fiables et documentées (OpenAPI), avec gestion fine des erreurs et des timeouts, le respect d’un budget de temps à travers les micro-services, les mécanismes de retry et dégradation progressive. - Conception d'une architecture orientée événements autour de Redis Streams (ou équivalent) pour les flux asynchrones entre services (sans gérer directement la recherche documentaire). - Suivi d'une haute dispo, scalabilité et observabilité avin un scaling horizontal, une supervision (logs, métriques, traces), une gestion des incidents et amélioration continue de la résilience. - Contribution à l’industrialisation : CI/CD, tests automatisés (unitaires, intégration, contract testing, tests de charge/résilience), revues de code et bonnes pratiques. 7+ ans d’expérience en Python, dont une part significative en micro-services, haute dispo et APIs en production. Maîtrise de FastAPI, uvicorn et d’un système de streaming/messaging (Redis Streams ou équivalent). Solide expérience en conception d’API REST : erreurs, timeouts, versioning, observabilité (logs, metrics, traces), sécurité (auth, autorisation, rate-limiting). Expérience en systèmes distribués : scalabilité, résilience, gestion de la charge, stratégies de fallback. À l’aise avec le traitement de gros volumes de documents (PDF, Office, données structurées). Compréhension opérationnelle des LLM et du RAG pour intégrer les briques IA fournies par l’équipe dédiée. Culture DevOps (containers, CI/CD, monitoring) et exigence forte sur la fiabilité, la traçabilité et la conformité en environnement financier.
CDI
CDD

Offre d'emploi
Consultant Data Governance & Data Products (Collibra / Snowflake)

OCTOGONE
Publiée le
BI
Collibra
Snowflake

9 mois
33k-45k €
Sochaux, Bourgogne-Franche-Comté
Contexte Dans le cadre du déploiement et de l’industrialisation de la gouvernance des données, le client utilise Collibra comme solution centrale pour le glossaire, le catalogue et la gestion des data products. Les métadonnées et datasets proviennent principalement de Snowflake, avec une extension envisagée vers Power BI. La mission consiste à assister techniquement le Data Governance Officer, en collaboration étroite avec le Data Platform Leader, responsable de la plateforme Snowflake et du data catalog. Profil recherché Compétences principales : Expertise Collibra (glossaire, catalogue, workflows, operating model). Gouvernance des données et Data Products. Capacité à travailler en interface gouvernance / plateforme. Connaissance du monde bancaire appréciée. Anglais. Compétences additionnelles : Snowflake Cortex AI et objets sémantiques. Gouvernance Power BI. Sensibilité data quality, lineage et IA. Objectifs Mettre en place et opérer un glossaire data et des data products dans Collibra. Définir et industrialiser les processus liés à la création et à l’évolution des objets data. Garantir la qualité des informations et métadonnées collectées dans Collibra. Assurer la cohérence entre la gouvernance des données et la plateforme Snowflake. Apporter une expertise technique au Data Governance Officer et au Data Platform Leader. Périmètre & Responsabilités Assistance technique au Data Governance Officer. Traduire les orientations de gouvernance en configurations concrètes dans Collibra. Concevoir modèles d’assets, relations, statuts, certifications et workflows. Proposer des évolutions en fonction des usages et contraintes. Coordination avec le Data Platform Leader. Modélisation des objets Snowflake dans Collibra. Automatisation de l’ingestion des métadonnées. Alignement des standards plateforme et règles de gouvernance. Mise en place du glossaire data. Structurer glossaire métier et technique dans Collibra. Définir standards de définition, nommage et classifications. Conception et gouvernance des Data Products. Définir cadre méthodologique (règles, responsabilités, qualité, cycle de vie). Créer et maintenir les data products dans Collibra, liés aux objets Snowflake et cas d’usage. Processus opérationnels Documenter les processus end-to-end : - Garantir la scalabilité et la maintenabilité des dispositifs mis en place. - Créer une formation dédiée pour accompagner les équipes : supports pédagogiques et sessions pratiques pour assurer la bonne application des processus. Qualité des métadonnées : - Définir critères qualité et mettre en place contrôles dans Collibra. - Suivre indicateurs et piloter amélioration continue. Intégration Snowflake & BI : - Gérer ingestion et gouvernance des métadonnées Snowflake. - Préparer intégration des métadonnées Power BI. - Anticiper impacts Snowflake Cortex AI sur gouvernance et traçabilité. Interfaces clés Data Governance Officer : vision, cadre et arbitrages de gouvernance. Data Platform Leader : architecture, standards et exploitation de Snowflake et du data catalog. Équipes Data Platform, BI et Métiers. Livrables attendus Glossaire métier et technique opérationnel dans Collibra. Catalogue de data products documentés et exploitables. Processus et workflows Collibra alignés avec Snowflake. Tableaux de bord qualité et adoption. Dispositif d’amélioration continue. Formation des utilisateurs.
CDI
Freelance

Offre d'emploi
Data Engineer/Architecte

OBJECTWARE
Publiée le
Apache Spark
AWS Cloud
DBT

3 ans
41k-91k €
400-710 €
Île-de-France, France
Missions principales Conception et optimisation de pipelines de données à grande échelle (batch, streaming, API) Structuration des données selon le modèle Médaillon (Bronze / Silver / Gold) Développement et industrialisation via DBT, Spark et Iceberg Orchestration des workflows ETL/ELT via Airflow Déploiement cloud sur AWS et infrastructure as code avec Terraform Conteneurisation des traitements ( Docker, Kubernetes ) Supervision, observabilité, gestion des incidents et qualité des données Documentation et conformité RGPD Accompagnement de profils juniors
Freelance

Mission freelance
Data scientist Senior

CAT-AMANIA
Publiée le
CI/CD
Jenkins
Python

6 mois
Île-de-France, France
Dans le cadre d'un programme de transformation de l'efficacité opérationnelle (Programme HERA) pour un acteur majeur du secteur de l'Assurance, nous recherchons un profil technique capable d'assurer la mise en production et l'évolution de solutions d'intelligence artificielle. Le projet porte spécifiquement sur l'amélioration des processus financiers via un algorithme existant dédié à l'identification automatique des bénéficiaires au sein de clauses contractuelles libres. Vos responsabilités : Assurer la mise en production (industrialisation) des évolutions algorithmiques. Garantir la fiabilité du code via la mise en place de tests unitaires rigoureux. Optimiser et maintenir les pipelines de déploiement continu (CI/CD). Collaborer à l'amélioration de l'efficacité opérationnelle des flux financiers. Environnement technique : Langage : Python (Expertise requise) DevOps : CI/CD, Jenkins Qualité : Tests unitaires IA : Deep Learning, idéalement connaissances en Conditional Random Fields (CRF)
CDI

Offre d'emploi
Data Analyst - Assurances H/F

VIVERIS
Publiée le

45k-55k €
Crédit Agricole du Languedoc, Occitanie
Contexte de la mission : Viveris accompagne ses clients dans la conception, la maintenance et l'optimisation de leurs infrastructures informatiques. Dans ce cadre, nous recherchons un Data Analyst pour accompagner notre client dans les assurances, dans la transformation des données de télémétrie en indicateurs décisionnels à forte valeur ajoutée. Vous interviendrez en tant que référent analytique sur un périmètre centré sur les environnements Windows 11, avec pour objectif de mesurer, analyser et améliorer l'expérience utilisateur à grande échelle. Responsabilités : Concevoir des tableaux de bord adaptés aux différents niveaux de pilotage (direction, support, exploitation) ; Définir et structurer des KPIs orientés expérience utilisateur (DEX Score, performance, productivité) ; Mettre en place des indicateurs de suivi de la qualité de service et du ROI des actions menées ; Identifier les signaux faibles et anomalies impactant l'expérience utilisateur; Réaliser des analyses de causes racines en croisant données techniques et incidents ; Définir et configurer des mécanismes d'alerte proactifs ;Recueillir les besoins métiers et les traduire en indicateurs mesurables ; Accompagner les équipes support et exploitation dans l'usage des dashboards ; Contribuer à l'amélioration continue des pratiques d'observabilité.
Freelance
CDI

Offre d'emploi
Consultant SAP Data Migration (H/F)

Scalesys
Publiée le

1 mois
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
CDI

Offre d'emploi
Responsable Data - Assurances H/F

VIVERIS
Publiée le

55k-60k €
Crédit Agricole du Languedoc, Occitanie
Contexte de la mission : Viveris accompagne ses clients dans la conception et la maintenance des solutions décisionnelles. Dans ce cadre, nous recherchons un Responsable Data pour accompagner notre client dans le domaine des assurances. Il pilote son service Data en charge de garantir la qualité, la sécurité et la valorisation des données. Vous êtes intégré dans un Direction des Systèmes d'Informations (DSI) et directement rattaché au Directeur des Systèmes d'Information. Responsabilités : - Structurer, organiser et piloter le service Data pour répondre aux enjeux de l'organisation ; - Définir et suivre les indicateurs de performance et de qualité de service (SLA) afin de garantir un pilotage fiable et transparent ; - Suivre les budgets liés au décisionnel et optimiser les coûts associés (licences, outils, prestations) tout en recherchant un équilibre pertinent entre qualité et maîtrise des dépenses ; - Définir et déployer la stratégie de gouvernance des données, en veillant à la qualité, l'intégrité, la conformité et la sécurité des informations gérées ; - Piloter la gestion des référentiels, des règles de gestion, du dictionnaire de données et des habilitations pour assurer une utilisation cohérente et maîtrisée de la donnée ; - Définir et piloter la feuille de route de modernisation du Système d'Information Décisionnel (SID), intégrant les évolutions technologiques, les nouveaux outils et les bonnes pratiques méthodologiques ;
Freelance
CDI

Offre d'emploi
Data Analyst Senior ( F/H) Nantes

Argain Consulting Innovation
Publiée le
Microstrategy
PowerBI
SQL

1 an
40k-45k €
500-550 €
Nantes, Pays de la Loire
🎯 Contexte Dans le cadre du renforcement des équipes Data d’un grand acteur du secteur bancaire, nous recherchons un(e) Data Analyst expérimenté(e) pour intervenir sur des problématiques de pilotage de la performance, marketing et parcours digitaux. 🚀 Mission Vous interviendrez en étroite collaboration avec les équipes métiers afin de : Recueillir et analyser les besoins métiers, les traduire en indicateurs de performance (KPI) Exploiter les données issues des systèmes décisionnels et marketing Produire et automatiser des reportings et tableaux de bord Concevoir des restitutions visuelles claires et orientées décision Accompagner les équipes dans l’interprétation des analyses Mettre à disposition et maintenir des KPI fiables et pertinents Participer à l’amélioration continue des pratiques Data 📈 Responsabilités clés Analyse et valorisation des données Définition et suivi des indicateurs business Contribution à la stratégie de pilotage et à la prise de décision 🛠️ Compétences techniques Outils de Data Visualisation : MicroStrategy (idéalement) ou Power BI / Tableau SQL avancé (expert) Manipulation de bases de données volumineuses (type Teradata ou équivalent) Bonne compréhension des environnements data et décisionnels 🤝 Compétences fonctionnelles & soft skills Très bonne communication et pédagogie Capacité à challenger les besoins métiers Esprit d’analyse et de synthèse Autonomie et rigueur Adaptabilité et sens de l’organisation ➕ Atouts Expérience dans le secteur bancaire ou financier Connaissance des problématiques marketing et digitales Connaissance d’outils de tracking (type Tag Management / Web Analytics) Mission longue durée, Nantes 3 jours de présence sur site par semaine obligatoire
Freelance

Mission freelance
Master Data SAP Junior (H/F)

Freelance.com
Publiée le
Master Data Management (MDM)
Microsoft Excel
SAP MM

3 mois
100-350 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Mission freelance | Démarrage ASAP | 3 à 6 mois renouvelable Localisation : Aix-en-Provence (hybride / télétravail possible) 1. Description du poste Dans le cadre d’un projet de recodification massive du référentiel articles dans SAP , nous recherchons un consultant freelance Master Data SAP Junior afin de renforcer l’équipe en charge de la mise à jour et de la qualité des données. La mission a pour objectif de participer à la mise à jour, à la fiabilisation et à la recodification du référentiel articles SAP , afin d’améliorer la qualité et la cohérence des données. Missions principales Création, modification et mise à jour des fiches articles dans SAP Application des règles de recodification définies par l’équipe Master Data Réalisation d’opérations massives de mise à jour de données Vérification de la qualité et de la cohérence des données Contrôle des informations issues des fichiers de migration ou d’inventaire Participation aux tests de cohérence et à la validation des données Documentation des anomalies et incohérences détectées Suivi des opérations dans les outils de pilotage Coordination avec les équipes : Supply Chain IT / SAP Référents Master Data Livrables attendus Mise à jour du référentiel articles selon les règles définies Contrôle qualité et fiabilisation des données
Freelance

Mission freelance
Développeur Data

Signe +
Publiée le
Microsoft Power BI
Power Automate
SharePoint

6 mois
400-420 €
Toulouse, Occitanie
Contexte de la mission Renfort de l'équipe RSSI du secrétariat général de BPCE SI pour améliorer, construire, fiabliser les outils de reporting locaux au domaine sécurité. Il y aura dans la mission, non seulement la consolidation, le MCO, la réalisation des outils mais aussi le RUN de ces outils avec la production des reportings réguliers à destination de la DG BPCE SI (hebdo, mensuels ...). Selon la charge d'autres activités de l'équipe RSSI pourront aussi être proposées pour prise en charge sans toutefois nécessiter des compétences SSI fortes. Il est néanmoins important que le collaborateur ait une appétence à découvrir l'unvivers de la gestion des risques IT. Descriptif général de la mission / Livrables et dates associées -> Conception / Réalisation / MCO d’outils de reporting d’activités de gestion de risque Gouvernance SSI (expérience en PowerBi, PowerAutomate, Lists, SharePoint) -> RUN de la réalisation des reporting hebdo, mensuels, trimestriels … => point d’attention : reporting adressé à la DG donc nécessitant un très haut niveau de précision/rigueur/qualité -> Autres activités RSSI sous réserve de capacité à faire (charge) : plan de sensibilisation SSI (animation, établissement, organisation, suivi et logistique), activités de gestion des risques … Pas nécessaire d'être un expert technique en sécurité des SI. Mission potentiellement reconductible.
Freelance

Mission freelance
Data migration analyst

Insitoo Freelances
Publiée le
Data analysis

12 mois
500-700 €
Zaventem, Brabant flamand, Belgique
Located in Lille, Lyon, Nantes, Grenoble, and Brussels, Insitoo Freelances is an entity of Insitoo Group, specialized in Freelances sourcing and supplying.Since 2007, Insitoo Freelances has been a reference in IT thanks to its expertise, transparency, and proximity . We are looking for a Data migration analyst for our client in Zaventem. Duration : 9 Months, full time preferred, potential extension Telework / onsite policy : 3 days/week on-site Objectives : Designing and developing high-quality interface and data migration processes between the systems. Collaboration, innovation, and attention to detail will be key in ensuring seamless interoperability and traceable data exchange. Key Responsibilities: Design, develop, and maintain interfaces using Mirth Connect, ensuring compliance with healthcare standards (HL7 v2/v3, FHIR). Design and execute data migration and data transformation flows (clinical, administrative, and reference data). Analyze source systems, data models, and business rules to ensure accurate and consistent data mapping. Collaborate with cross-functional teams (IT, medical staff, administration, Epic analysts) to analyze requirements and implement integration solutions. Troubleshoot and resolve integration issues to guarantee system interoperability and performance.
CDI

Offre d'emploi
Urbaniste Data (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Kafka
PostgreSQL

54k-58k €
Roubaix, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Consultant DataOps / Administrateur Hadoop

Craftman data
Publiée le
Ansible
CI/CD
Docker

La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
3316 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous