Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 682 résultats.
Freelance

Mission freelance
Ingénieur Data

STHREE SAS pour COMPUTER FUTURES
Publiée le
Dataiku
SQL

3 mois
280-400 €
Niort, Nouvelle-Aquitaine
Bonjour, Je suis à la recherche Ingénieur Data : Missions principales : Ø Concevoir, développer et optimiser des flux de données performants et robustes. Ø Alimenter les entrepôts de données et DataMart du périmètre Assurance Vie. Ø Participer à la conception de modèles de données :,MCD, Modélisation dimensionnelle, Schémas adaptés aux besoins métier Assurance Vie. Ø Industrialiser les processus de préparation, transformation et contrôle de la donnée. Ø Forte utilisation de Dataiku pour automatiser et standardiser les workflows. Ø Assurer l’intégration des données dans les outils de Business Intelligence (notamment Tableau). Ø Optimiser la préparation et la performance des jeux de données pour les équipes métiers. Ø Garantir la qualité, la performance et le maintien en condition opérationnelle (MCO) des pipelines et environnements DATA. Ø Contribuer à l’amélioration continue, à la résilience et à l’optimisation des processus existants.
CDI

Offre d'emploi
Data Scientist LLM / AI F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data
CI/CD
Deep Learning

Montigny-le-Bretonneux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Delivery Manager Data

VISIAN
Publiée le
Architecture
Big Data
Databricks

1 an
Paris, France
Contexte de la mission Le programme vise à doter le reporting financier de capacités de pilotage et d'analyse de la marge, de prévisions financières, de gestion du budget et des opérations de clôture. La solution s'appuie sur une plateforme Data centralisée agrégeant les flux provenant des systèmes de facturation, de pricing et de sourcing d'énergie. Le programme est structuré autour de trois familles d'équipes : 3 équipes en charge de la visualisation des chiffres et de l'expérience utilisateurs Contrôle de Gestion 2 équipes Data en charge de l'ingestion, de la transformation et de la qualité des données Une équipe Plateforme assurant la maintenance du socle technique, l'orchestration des traitements et leur monitoring La solution est aujourd'hui incomplètement industrialisée et un plan d'action visant à finaliser la mise en place des flux, à sécuriser les données, à consolider l'approche transverse bout-en-bout du programme et à assister les équipes dans leurs pratiques agiles est en cours. Le Delivery Manager est le pilote de ce Plan d'action en étroite collaboration avec la Direction de Programme Métier et les Data Providers.
Freelance

Mission freelance
Data Scientist

Codezys
Publiée le
Machine Learning
Python
Pytorch

12 mois
340-430 €
Lille, Hauts-de-France
Contexte de la mission Au sein de l’équipe Recommandation, le candidat retenu jouera un rôle clé dans l’exploration et la mise en œuvre de nouveaux algorithmes visant à enrichir nos systèmes de recommandation, essentiels au bon fonctionnement de notre site. La mission consiste à concevoir, prototyper et valider des solutions innovantes reposant sur l’intelligence artificielle (IA) et l’apprentissage automatique (ML), afin d’améliorer l’expérience utilisateur et de répondre aux enjeux métier liés à la personnalisation. Vos missions principales seront les suivantes : Veille et innovation autour des systèmes de recommandation : Suivre activement les dernières avancées en IA et ML (Deep Learning, apprentissage par renforcement, etc.). Identifier et évaluer les technologies en lien avec les cas d’usage, notamment en lien avec les Large Language Models (LLM) et l’IA générative, pour définir leur pertinence et leur potentiel d’intégration. Développement et expérimentation : Concevoir, réaliser et tester des Proof of Concept (PoC) et des Minimum Viable Products (MVP) performants et sécurisés, afin de valider la faisabilité technique des solutions envisagées. Cette étape inclut une approche itérative pour maximiser l’efficacité des prototypes. Analyse de données et modélisation : Explorer des jeux de données complexes pour identifier des patterns, insights et opportunités d’amélioration. Concevoir, entraîner et affiner des modèles d’IA adaptés aux cas d’usage métiers, afin d’optimiser la pertinence des recommandations générées. Travail en équipe et partage des connaissances : Collaborer étroitement avec les équipes métiers, les Product Owners et les équipes transverses (notamment AAAI). Comprendre leurs besoins, échanger sur les avancées techniques, et assurer une documentation claire et précise des choix et des résultats obtenus. Intégration et amélioration continue : Travailler avec l’équipe AI Capabilities pour l’intégration et le déploiement des solutions IA sur les plateformes existantes (ML Solution, GenAI Solution). Contribuer à l’évolution des systèmes en intégrant les retours d’expérience et en adaptant les modèles en continu pour garantir leur performance et leur adaptéibilité. Ce poste nécessite une forte capacité d’auto-apprentissage, un esprit d’innovation, ainsi qu’une aptitude à travailler en équipe dans un environnement dynamique et technologique en constante évolution.
Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Apache Kafka
BigQuery
CI/CD

12 mois
400-510 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data
Freelance

Mission freelance
Développeur Data

Signe +
Publiée le
Microsoft Power BI
Power Automate
SharePoint

6 mois
400-420 €
Toulouse, Occitanie
Contexte de la mission Renfort de l'équipe RSSI du secrétariat général de BPCE SI pour améliorer, construire, fiabliser les outils de reporting locaux au domaine sécurité. Il y aura dans la mission, non seulement la consolidation, le MCO, la réalisation des outils mais aussi le RUN de ces outils avec la production des reportings réguliers à destination de la DG BPCE SI (hebdo, mensuels ...). Selon la charge d'autres activités de l'équipe RSSI pourront aussi être proposées pour prise en charge sans toutefois nécessiter des compétences SSI fortes. Il est néanmoins important que le collaborateur ait une appétence à découvrir l'unvivers de la gestion des risques IT. Descriptif général de la mission / Livrables et dates associées -> Conception / Réalisation / MCO d’outils de reporting d’activités de gestion de risque Gouvernance SSI (expérience en PowerBi, PowerAutomate, Lists, SharePoint) -> RUN de la réalisation des reporting hebdo, mensuels, trimestriels … => point d’attention : reporting adressé à la DG donc nécessitant un très haut niveau de précision/rigueur/qualité -> Autres activités RSSI sous réserve de capacité à faire (charge) : plan de sensibilisation SSI (animation, établissement, organisation, suivi et logistique), activités de gestion des risques … Pas nécessaire d'être un expert technique en sécurité des SI. Mission potentiellement reconductible.
Freelance
CDI

Offre d'emploi
Senior IT Project Manager – Programme Data

Gentis Recruitment SAS
Publiée le
Data governance
Data management
Service Delivery Management

12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme stratégique de transformation data à l’échelle internationale, notre client recherche un Senior IT Project Manager pour piloter le déploiement d’un backbone data B2B. Le programme vise à : standardiser les définitions de données B2B industrialiser les contrôles de qualité de données fiabiliser le reporting multi-pays aligner les processus Sales, Finance, Risk, Operations et Carbon fournir une source de vérité unique (single source of truth) Le périmètre couvre plusieurs entités internationales (Europe, Amériques, APAC) dans un environnement fortement gouverné. Objectifs de la mission Le consultant interviendra en responsabilité sur le pilotage global des activités IT liées au programme. Principales responsabilités : Déployer et améliorer les indicateurs et métriques B2B Piloter l’onboarding des parties prenantes Garantir le respect des objectifs, du périmètre, des délais, du budget et de la qualité Coordonner la communication projet et la gestion des stakeholders Piloter les risques, incidents et changements Assurer le steering IT et la delivery des développements selon la roadmap Coordonner les équipes IT locales, architectes et parties prenantes internationales Assurer le reporting auprès des instances de gouvernance Livrables attendus Planning de suivi projet Définition et suivi du périmètre Planification capacitaire Reporting de gouvernance Suivi des risques et plans de remédiation Points différenciants (fortement valorisés) Expérience programmes data backbone / data governance Contexte grands groupes internationaux Coordination multi-pays Interaction Data Office / Product Owners Environnements fortement gouvernés
Freelance

Mission freelance
Consultant Corporate Finance (Lyon)

SQLI
Publiée le
Data management

6 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients dans le secteur d'éléctroménager, je suis à la recherche d'un consultante corporate finance. Le rôle du corpo Finance : • Gestion de projet avec la capacité de coordonner efficacement diverses parties prenantes en tant que Business & Développeurs. • Collecte des exigences du côté commercial. • Rédaction de spécifications fonctionnelles, garantissant une documentation claire et précise. • Aider les développeurs avec les tests initiaux. • Soutenir les utilisateurs avec des tests d’acceptation, des formations, etc. Le candidat doit avoir des connaissances commerciales significatives dans les sujets de vente. La familiarité avec SAP BW ou SQL, permettant une interaction avec les outils d’analyse de données et de reporting, serait un avantage.
Freelance

Mission freelance
Data Integration specialist

Axande
Publiée le
GSAP
TIBCO

12 mois
520-650 €
Paris, France
RÔLE PRINCIPAL Le spécialiste en intégration de données interviendra spécifiquement sur un projet d’implémentation d’un système de gestion d’entrepôt (WMS – Manhattan en mode SaaS) au sein de l’écosystème client. Il rejoindra une équipe de 4 personnes et devra développer une expertise sur les interfaces existantes entre SAP ECC et les systèmes Manhattan, ainsi qu’entre SAP S/4 et Manhattan. Ces interfaces assurent des échanges bidirectionnels de données Supply (données de référence / commandes / livraisons, etc.) et utilisent différents formats (IDOC sur ECC – API OData / événements sur S/4 – fichiers JSON côté Manhattan). Le candidat devra donc être capable d’évoluer dans un environnement complexe, de comprendre la logique d’interfaces élaborées jusqu’au niveau du mapping de données, et d’assurer leur maintenance. Il pourra également être amené à configurer de manière autonome des flux de données au sein de l’ESB, ainsi qu’à former et accompagner les équipes de production. Le candidat devra aussi être en mesure de contribuer aux projets de migration dans le cadre du passage de SAP ECC vers SAP S/4, qui impacte directement le projet. Il devra faire preuve de rigueur et de précision dans la gestion documentaire, notamment pour le suivi des versions des développements mis en production (gestion de 3 environnements/zones). Le candidat sera responsable du suivi des activités avec les partenaires AMER et APAC (réunions hebdomadaires), de la remontée des points critiques, ainsi que de la mise en place et du suivi des plans d’action. Un intérêt pour la coordination et la gestion de projet est donc requis. Un esprit d’équipe et une volonté de partager les connaissances sont essentiels. Le candidat doit être capable de respecter des délais serrés, et un bon niveau d’anglais est indispensable, le projet étant mondial. Principaux enjeux du poste Recueillir et analyser les besoins métiers et clients afin de proposer des solutions techniques d’intégration Apporter de la valeur au métier en concevant le modèle d’intégration le plus adapté aux besoins Identifier et prioriser les opportunités d’amélioration des processus et de l’efficacité opérationnelle
CDI
Freelance

Offre d'emploi
Lead Data Architecte

Signe +
Publiée le

24 mois
50k-55k €
358-550 €
Massy, Île-de-France
Expérience de plus de 8 ans, majoritairement dans la data. Minimum 3 ans chez un acteur du retail ou chez un cabinet de conseil pour des clients du secteur. Minimum 3 ans sur des sujets Supply Chain. Excellentes capacités analytiques et statistiques, capacité à comprendre les principes de modèles data science. Très bonnes capacités dans la manipulation de grandes volumétries de données ; maîtrise d'un langage de requêtage des données (SQL, BigQuery), d'outils de datavisualisation (Tableau, Google Looker Studio) ; la maîtrise de Python et GitLab est un plus. Capacité de formalisation irréprochable. Excellente communication écrite et orale, posture impeccable & aptitude à expliquer, vulgariser et convaincre (des interactions top management dans les précédentes expériences seraient un vrai atout). Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. Capacité de prise de recul : Aptitude à évaluer les problématiques avec objectivité et à proposer des solutions d'amélioration. Capacité à respecter les délais tout en maintenant des standards élevés. Esprit d'équipe : Capacité à collaborer efficacement avec les membres de l'équipe pour atteindre des objectifs communs. Organisation, rigueur, autonomie, proactivité, persévérance
CDI
Freelance

Offre d'emploi
Data Product Manager (Life Cycle Assessment) (H/F)

1G-LINK CONSULTING
Publiée le
Data modelling
ERP
Master Data Management (MDM)

12 mois
Paris, France
Contexte : Nous accompagnons un grand acteur industriel dans la structuration et la valorisation de ses données à l’échelle de ses activités. Dans ce cadre, nous recherchons un(e) Data Product Manager / Data Consultant capable de piloter des sujets data de bout en bout, avec une forte sensibilité aux enjeux environnementaux via le Life Cycle Assessment (LCA) . Missions : Analyse exploratoire des données pour identifier des insights pertinents Modélisation de données (logique métier, structuration, qualité) Compréhension et pilotage des flux de données de la source à la visualisation Collaboration avec les équipes métiers et techniques (data, BI, IT) Exploitation et amélioration des produits Data & BI existants Travail sur les données ERP (notamment SAP) Gestion des données de référence (Master Data Management) Mise en œuvre d’approches LCA (Life Cycle Assessment) pour mesurer l’impact environnemental Cadrage, priorisation et organisation des sujets data Compétences techniques: Excellente communication en français et en anglais Solide expérience en analyse et modélisation de données Vision end-to-end du cycle de vie de la donnée Bonne connaissance de l’écosystème Data & BI Expérience sur des environnements ERP (SAP idéalement) Maîtrise des concepts de Master Data Management Connaissances ou expérience en LCA (Life Cycle Assessment)
CDI

Offre d'emploi
Data Analyst (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
Microsoft Excel
SQL

35k-45k €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Engineer Databricks

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
CDI
CDD

Offre d'emploi
Consultant Data Governance & Data Products (Collibra / Snowflake)

OCTOGONE
Publiée le
BI
Collibra
Snowflake

9 mois
33k-45k €
Sochaux, Bourgogne-Franche-Comté
Contexte Dans le cadre du déploiement et de l’industrialisation de la gouvernance des données, le client utilise Collibra comme solution centrale pour le glossaire, le catalogue et la gestion des data products. Les métadonnées et datasets proviennent principalement de Snowflake, avec une extension envisagée vers Power BI. La mission consiste à assister techniquement le Data Governance Officer, en collaboration étroite avec le Data Platform Leader, responsable de la plateforme Snowflake et du data catalog. Profil recherché Compétences principales : Expertise Collibra (glossaire, catalogue, workflows, operating model). Gouvernance des données et Data Products. Capacité à travailler en interface gouvernance / plateforme. Connaissance du monde bancaire appréciée. Anglais. Compétences additionnelles : Snowflake Cortex AI et objets sémantiques. Gouvernance Power BI. Sensibilité data quality, lineage et IA. Objectifs Mettre en place et opérer un glossaire data et des data products dans Collibra. Définir et industrialiser les processus liés à la création et à l’évolution des objets data. Garantir la qualité des informations et métadonnées collectées dans Collibra. Assurer la cohérence entre la gouvernance des données et la plateforme Snowflake. Apporter une expertise technique au Data Governance Officer et au Data Platform Leader. Périmètre & Responsabilités Assistance technique au Data Governance Officer. Traduire les orientations de gouvernance en configurations concrètes dans Collibra. Concevoir modèles d’assets, relations, statuts, certifications et workflows. Proposer des évolutions en fonction des usages et contraintes. Coordination avec le Data Platform Leader. Modélisation des objets Snowflake dans Collibra. Automatisation de l’ingestion des métadonnées. Alignement des standards plateforme et règles de gouvernance. Mise en place du glossaire data. Structurer glossaire métier et technique dans Collibra. Définir standards de définition, nommage et classifications. Conception et gouvernance des Data Products. Définir cadre méthodologique (règles, responsabilités, qualité, cycle de vie). Créer et maintenir les data products dans Collibra, liés aux objets Snowflake et cas d’usage. Processus opérationnels Documenter les processus end-to-end : - Garantir la scalabilité et la maintenabilité des dispositifs mis en place. - Créer une formation dédiée pour accompagner les équipes : supports pédagogiques et sessions pratiques pour assurer la bonne application des processus. Qualité des métadonnées : - Définir critères qualité et mettre en place contrôles dans Collibra. - Suivre indicateurs et piloter amélioration continue. Intégration Snowflake & BI : - Gérer ingestion et gouvernance des métadonnées Snowflake. - Préparer intégration des métadonnées Power BI. - Anticiper impacts Snowflake Cortex AI sur gouvernance et traçabilité. Interfaces clés Data Governance Officer : vision, cadre et arbitrages de gouvernance. Data Platform Leader : architecture, standards et exploitation de Snowflake et du data catalog. Équipes Data Platform, BI et Métiers. Livrables attendus Glossaire métier et technique opérationnel dans Collibra. Catalogue de data products documentés et exploitables. Processus et workflows Collibra alignés avec Snowflake. Tableaux de bord qualité et adoption. Dispositif d’amélioration continue. Formation des utilisateurs.
Freelance

Mission freelance
EXPERT Collibra Data Catalog

BEEZEN
Publiée le
Collibra

3 mois
Paris, France
Cette mission vise à assurer l'expertise fonctionnelle et technique sur la solution de Data Catalog et son intégration au sein de l'écosystème de la data & agentic Platform ainsi que de participer activement aux chantiers stratégiques de transformation comme l'AI Governance Framework, Trust AI & Data Quality by Design Développement/configuration du catalogue de données Collibra : Concevoir des solutions pour répondre aux problèmes des utilisateurs de Collibra et implémenter ces solutions dans l'outil (administration et configuration de l'outil, développements spécifiques si nécessaire). Valider les spécifications, développer et mettre en œuvre les flux de travail Aider à recueillir et à trier les demandes et requêtes des utilisateurs Intégration du catalogue de données (Collibra) à l'écosystème des données technologiques : Participer à la conception, à la mise en œuvre et à l'exploitation du système d'échange de métadonnées du catalogue de données avec les solutions composant la plateforme de données Décathlon et avec les différents référentiels de métadonnées de l'entreprise. Synchronisez-vous avec l'équipe d'architecture pour l'intégration. Configuration des capacités Edge en fonction des zones de données à collecter Développement et maintenance des connexions (exploration, API, connecteurs), échanges entre le système informatique et le catalogue de données (y compris l'interaction avec le support technique de Collibra). Intégration avec Data Quality Metrics Store Participez activement au programme de contrats de données
CDI

Offre d'emploi
Consultant DataOps / Administrateur Hadoop

Craftman data
Publiée le
Ansible
CI/CD
Docker

La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
1682 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous