Trouvez votre prochaine offre d’emploi ou de mission freelance okta

Votre recherche renvoie 798 résultats.
Freelance

Mission freelance
Developpeur Data Engineer

Freelance.com
Publiée le
Big Data
Snowflake

3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Freelance
CDI
CDD

Offre d'emploi
Master Data Manager SAP

SARIEL
Publiée le
ERP
Master Data Management (MDM)
SAP

12 mois
Villepinte, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un SAP MDM Intitulé du poste Responsable Master Data (Master Data Manager) Localisation : Siège – Villepinte Rattachement hiérarchique : Architecte Informatique Environnement : Systèmes d’information – Data, Intégration & Middleware Encadrement Management direct d’une équipe de Data Stewards __________ Contexte et enjeux du poste Dans un environnement multi-ERP et multi-applicatif, le Responsable Master Data est garant de la qualité, de la cohérence et de la gouvernance des données de référence. Il définit, maintient et fait évoluer le dictionnaire de données, pilote les logiques de migration et sécurise les flux d’échanges de données entre les différents ERP (dont SAP) et briques applicatives. Ce rôle est clé dans les projets de transformation digitale, de migration ERP et d’urbanisation du SI. __________ Missions principales Gouvernance et qualité des Master Data • Définir, maintenir et faire évoluer le dictionnaire de données (modèles, attributs, règles de gestion) • Garantir l’application des standards et règles de gouvernance des données • Assurer la qualité, la cohérence et l’unicité des données de référence • Mettre en place des indicateurs de qualité de données (DQ) Flux de données & interopérabilité • Définir et piloter les logiques d’interaction et de synchronisation des données o Entre ERP (SAP, autres ERP) o Entre ERP et briques applicatives (CRM, WMS, BI, outils métiers…) • Travailler avec les équipes techniques sur les flux ETL / ELT • Participer à l’urbanisation du SI Data Migration de données • Piloter et sécuriser les projets de migration de données • Définir les règles de mapping, de transformation et de reprise des données • Participer aux phases de tests, de validation et de mise en production • Capitaliser sur les retours d’expérience pour améliorer les processus Management de l’équipe Data Steward • Encadrer, animer et faire monter en compétence l’équipe de Data Stewards • Définir les rôles, responsabilités et priorités • Assurer l’alignement entre les métiers, l’IT et la gouvernance data • Être le point de référence sur les sujets Master Data Collaboration transverse • Travailler étroitement avec : o Les équipes métiers o Les équipes IT / ERP / BI o Les chefs de projet data et ERP • Participer aux comités de gouvernance Data __________ Objectifs clés du poste • Sécuriser la fiabilité et la cohérence des données de référence • Réussir les projets de migration et de transformation ERP Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
CDI

Offre d'emploi
Business Analyst Data F/H - Marketing (H/F)

█ █ █ █ █ █ █
Publiée le
Oracle Database
PostgreSQL
Scrum

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le
API
Python

12 mois
450-550 €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Freelance

Mission freelance
Architecte Data & IA – Plateforme & Socle

VISIAN
Publiée le
Azure
Azure DevOps
Databricks

1 an
400-550 €
Île-de-France, France
L’Architecte Data & IA intervient comme référent sur les choix techniques, la cohérence des architectures et l’industrialisation des usages Data/IA. Missions principales 1. Architecture & gouvernance technique Concevoir et maintenir les architectures cibles Data & IA (MLOps, LLMOps, DataOps) Garantir la cohérence globale de la plateforme Data & IA Contribuer à la mise en œuvre d’une gouvernance unifiée des données (sécurité, traçabilité, lineage) Superviser l’intégration et l’évolution d’une plateforme Data Lakehouse (type Databricks) Participer à l’évolution de l’offre de service du socle Data & IA 2. Industrialisation IA & MLOps Structurer les pratiques MLOps / LLMOps (CI/CD, monitoring, automatisation) Accompagner les équipes dans la mise en œuvre des bonnes pratiques DataOps et ML Garantir la fiabilité des pipelines de production IA Participer à la standardisation des modèles de déploiement IA 3. Innovation & plateforme IA Préparer la plateforme pour les usages d’IA générative et agentique Concevoir des architectures d’intégration pour les modèles LLM (internes et externes) Développer des approches AI by Design (conformité, sécurité, gouvernance) Contribuer aux initiatives d’innovation (observabilité IA, optimisation des coûts, temps réel) 4. Accompagnement & montée en compétences Encadrer les équipes DataOps et MLOps Diffuser les bonnes pratiques d’architecture et d’industrialisation Accompagner la montée en maturité sur les outils Data & IA Travailler en collaboration avec les équipes Data et Delivery Livrables attendus Architecture cible Data & IA unifiée Framework MLOps / LLMOps industrialisé (CI/CD, observabilité, MLFlow…) Guide de bonnes pratiques DataOps Tableau de bord de suivi de maturité IA / ML Recommandations d’évolution de la gouvernance Data & IA
Freelance

Mission freelance
Architecte Data (H/F)

Insitoo Freelances
Publiée le
Angular
Java
Jenkins

2 ans
500-595 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data (H/F) à Lyon, France. Contexte : La présente consultation concerne une application dont les principaux enjeux pour l’année 2026 sont les suivants : Finaliser la reprise des fonctionnalités de l’application historique de télédiagnostic pour permettre son décommissionnement. Récupérer dans l'application l’ensemble des séries de matériel. Poursuivre les évolutions attendues par les activités. Poursuivre l’amélioration de l’exploitation de l’application. Traiter la MCO corrective et préventive, dont des chantiers techniques d’anticipation de l’obsolescence ou de cybersécurité. Les missions attendues par le Architecte Data (H/F) : L’architecte data a pour mission de réaliser la conception technique générale et détaillée sur le périmètre précité, d’accompagner techniquement l’équipe et de développer les programmes sur le périmètre précité, dans l’objectif de mettre à disposition des fonctionnalités à forte valeur ajoutée en respectant les enjeux planning des clients. Il veille à la bonne utilisation des systèmes et programmes déployés et propose des solutions innovantes lorsque des problèmes techniques ou fonctionnels se présentent. Les tâches de l’architecte data sont principalement : Analyser et challenger les spécifications fonctionnelles produites par le métier et l’équipe projet. Assurer la conception technique de solutions modulaires et évolutives. Rédiger les documents techniques. Accompagner techniquement l’équipe. Estimer les charges de réalisation. Implémenter les programmes de traitements de données. Réaliser les tests techniques et unitaires. Résultats attendus : Respect des coûts et des délais. Mise à disposition de solutions satisfaisantes pour les utilisateurs et les commanditaires. Sécurité, fiabilité, performance, ergonomie des applications, en conformité avec le contrat de service passé avec le métier. Solutions en cohérence avec l’urbanisme du SI.
Freelance

Mission freelance
Consultant – Data Monetization & Snowflake Pricing Strategy

Mon Consultant Indépendant
Publiée le
Data analysis
IA

1 mois
1 050-1 090 €
Courbevoie, Île-de-France
Consultant – Data Monetization & Snowflake Pricing Strategy Mission freelance Contexte : Un éditeur logiciel développe une offre de data sharing permettant à ses clients d’accéder à des données en temps réel via une plateforme data basée sur Snowflake. Dans ce contexte, l’entreprise souhaite structurer le modèle économique de cette offre, en définissant un modèle de pricing cohérent entre : · Les coûts d’infrastructure Snowflake · L’usage réel des données · La valeur business apportée aux clients La mission vise à définir une stratégie de monétisation durable pour l’accès et l’exploitation de ces données. Objectifs de la mission : Le consultant interviendra pour : · Analyser les coûts techniques liés à l’usage de Snowflake · Comprendre les patterns d’usage des données par les clients · Définir un modèle de pricing pour l’accès et l’exploitation des datasets · Identifier les scénarios de monétisation possibles (data sharing, analytics, IA, etc.) L’objectif est de concevoir un modèle économique équilibré entre coût d’infrastructure, valeur client et potentiel de croissance commerciale. Travaux attendus : Le consultant devra notamment : · Analyser le modèle de pricing Snowflake (compute, storage, data sharing) · Modéliser différents scénarios de consommation de data · Définir plusieurs modèles de pricing possibles · Évaluer l’impact économique selon différents niveaux d’usage · Recommander une stratégie de monétisation de la data Exemples de modèles étudiés : · Pricing basé sur l’usage · Packages de données · Accès premium à certaines données · Pricing lié aux capacités analytiques ou IA Profil recherché : Nous recherchons un consultant ayant déjà travaillé sur des problématiques de monétisation de la data dans des environnements SaaS ou data platform. Expériences pertinentes : · Définition de modèles de data monetization · Stratégie de data sharing · Pricing de produits data ou analytics · Plateformes Snowflake / Databricks / data cloud Compétences attendues : · Compréhension des architectures data platform · Connaissance du modèle économique Snowflake · Expérience en usage-based pricing · Capacité à modéliser des scénarios économiques · Capacité à traduire les coûts techniques en modèles commerciaux Profil type : Le consultant peut venir de : · Conseil en stratégie data · Éditeur SaaS utilisant Snowflake · Plateforme data / analytics · Equipes data product ou data monetization
Freelance

Mission freelance
Controle de gestion indus. / financial data analyst (Microsoft 365 F&O)

Mon Consultant Indépendant
Publiée le
Microsoft Dynamics

2 mois
610-640 €
Rennes, Bretagne
PME de l'industrie pharmaceutique sous LBO ERP : Microsoft Dynamics 365 F&O, mis en place en 2025 (1 an de données dispo environ) Besoin d'un appui pour définir des coûts de revient : comprendre les datas existantes, définir rapidement une cible (comment calculer un cout de revient satisfaisant), puis structurer les outils et processus pour y arriver, réaliser très vite des tests / essais pour fiabiliser la démarche, tout en sensibilisant toutes les parties prenantes (production notamment). Il faut par ailleurs embarquer les équipes pour que l'initiative survive après le projet. (reportera au DAF ou au RAF selon profil) Profil recherché : MINIMUM 10 ans d'expérience Connaissance OBLIGATOIRE de l'ERP Microsoft Dynamics 365 F&O (avoir déjà travaillé avec et en connaitre ses rouages fonctionnels pour l'exploiter dans le cadre de ce projet) Avoir mené des projets similaires dans des environnements type PME / PMI (orienté terrain, pragmatique, en proximité forte avec les équipes locales) dans l'industrie (si possible pharma). Projet type conseil : prise de recul, cadrage / structuration des travaux, prise d'hypothèses, savoir prendre des raccourcis, communication avec tous types de stakeholders, etc. Doit être autonome, force de proposition et prise d'initiative pour faire avancer le projet. Présence en Bretagne au moins 2 ou 3j par semaine (1h de voiture au Nord de Rennes) Etat d'esprit collaboratif , avoir beaucoup de pédagogie avec les équipes en place pour créer une dynamique collective et embarquer des membres de l'équipe au delà de la presta.
Freelance

Mission freelance
Tech Lead GCP / Data Engineering Senior (H/F)

HOXTON PARTNERS
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL

12 mois
Paris, France
Description du poste Dans le cadre d’un programme de transformation data de grande ampleur au sein d’un acteur international du secteur du luxe, nous recherchons un Tech Lead GCP senior pour intervenir sur des use cases commerce à forte valeur métier. L’enjeu principal de la mission est de concevoir et piloter des architectures data sur Google Cloud Platform afin de unifier l’expérience client online et offline , en structurant des socles de données capables d’alimenter les usages analytiques, les KPIs business et les dispositifs de pilotage associés. Le consultant ne sera pas positionné comme un simple data engineer, mais bien comme un profil expert GCP / Tech Lead , capable de porter la vision technique, de guider les choix d’architecture et d’accompagner les équipes sur la mise en œuvre. Il interviendra dans un environnement où la donnée doit permettre de mieux comprendre les parcours clients, de rapprocher les interactions digitales et physiques, et de renforcer la performance des usages commerce. Les responsabilités incluent notamment : Concevoir et faire évoluer des architectures data sur Google Cloud Platform Piloter techniquement la mise en place de solutions permettant de connecter et valoriser les données online et offline Définir et structurer des pipelines de données robustes, industrialisés et scalables Exploiter et optimiser BigQuery pour le stockage, la transformation et l’analyse de données à grande échelle Participer à la modélisation des données nécessaires aux indicateurs business et aux cas d’usage commerce Encadrer les choix techniques autour des flux de données, de la qualité, de la performance et des coûts Collaborer avec les équipes data, analytics et métiers pour produire des jeux de données exploitables Accompagner techniquement une équipe et jouer un rôle de référent sur les sujets GCP Contribuer à la mise à disposition des données pour les dashboards et outils de visualisation Participer à l’amélioration continue des architectures et des pratiques d’industrialisation
CDI

Offre d'emploi
Consultant(e) Senior - Data IA (Product Owner à Data Scientist) F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Deep Learning
Scrum

Neuilly-sur-Seine, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
Data Engineer Senior

LEVUP
Publiée le
AWS Cloud
Snowflake

12 mois
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
CDI

Offre d'emploi
Actuaire - Data Scientist Mrh H/F

█ █ █ █ █ █ █
Publiée le
Git
Numpy
Ocaml

Suresnes, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Ingénieur Data Développeur Back End Python IA H/F

ADSearch
Publiée le

50k-60k €
Nice, Provence-Alpes-Côte d'Azur
En bref : CDI - Ingénieur Data Développeur Back End Python IA H/F - 1jour/semaine Télétravail - Fintech - Nice (centre) - 45/55K€ Je recrute pour un acteur de la Fintech, un Ingénieur Data Développeur Back End Python IA H/F. Tu rêves de travailler en plein centre-ville de Nice ? Curieux par nature, tu cherches avec délectation les possibilités qu'offre l'IA (LLM, IA agentique, OpenAI, ...) ? Tu souhaites évoluer au sein d'une petite équipe ? Tu as une vision globale sur une application : architecture, performance, algo ? Très à l'aise avec les Bases de Données Graphes, Python n'a plus de secret pour toi ?! Si c'est le OUI qui prédomine ce poste est peut-être fait pour toi ! TON POSTE Au sein d'une petite équipe de 2 développeurs et 1 Data Scientist (qui n'attendent que TOI) dans le centre de Nice , et accompagné par les trois Associés opérationnels (côté business), tu participes à un projet de création d'un outil de gestion de données interactif agglomérant des informations scientifiques et techniques afin de préparer les futurs appels d'offre. Plus précisément : - Développement de nouvelles features (backend ? API ? intégration produit), - Conception de modules IA from scratch (market sizing, analyse concurrentielle…), - Mise en place des fondations techniques (agents IA, pipelines voice, automatisation), - Architecture de services backend scalables (traitements asynchrones, orchestration de tâches), - Exploitation des Bases de données graphes : FalkorDB - Amélioration continue du produit à chaque itération. En résumé : tu bénéficies d'une grande liberté d'action et ton avis compte (vraiment) !
Freelance

Mission freelance
Architecte Applicatif & Data Cloud

CAT-AMANIA
Publiée le
Big Data
J2EE / Java EE
Python

3 mois
400-610 €
Lille, Hauts-de-France
Architecte Applicatif & Data Cloud (H/F) Nous recherchons un consultant indépendant pour une mission d'Architecte Applicatif et Développeur Senior au sein d'un grand groupe du secteur de la distribution, sur un projet lié au domaine de la Finance. L’enjeu central de cette mission est la fiabilisation des modèles de calcul et la consolidation d’une architecture Data robuste sous environnement Google Cloud. Informations Générales Référence : TM17037ADON Date de démarrage : 13/04/2026 Date de fin : 31/12/2026 (Durée : 166 jours) Lieu : Ronchin (59) Rythme : 3 jours de présence sur site par semaine requis Contrat : Assistance technique Description de la Mission Intégré à une équipe agile, votre rôle consistera à consolider et améliorer les travaux existants tout en assurant la transmission de vos connaissances aux équipes internes. Architecture et Conception : Définir la structure technique des systèmes et choisir les frameworks adaptés. Assurer la cohérence du système d’information et le respect des standards de l’entreprise. Rédiger le dossier d'architecture (documentation et validation de l'existant). Concevoir l'intégration du produit dans l'usine de packaging. Développement et Fiabilisation : Création des jobs et validation des interfaces. Réalisation des développements, tests d'intégration et mise à jour de la documentation. Garantir la performance de l'application (tests de montée en charge) et la sécurité logicielle. Accompagnement Technique : Former et accompagner les développeurs sur les normes et pratiques de développement. Animer les indicateurs de qualité et assurer un support de second niveau sur les problématiques complexes. Définir la roadmap technique du produit. Profil et Compétences Requises Nous recherchons un profil de niveau "Maîtrisant", capable d'allier expertise technique et sens du service client. Compétences Techniques (Niveau Confirmé) : Google Cloud : Computing, Big Query, Big DATA (Indispensable). Langages : Python (Indispensable) et Expertise Java / J2EE souhaitée. Outils & Data : GitHub, Terraform, Kafka (Indispensable). Dataflow : Connaissance souhaitable. Connaissances Linguistiques : Français : Professionnel impératif. Anglais : Lu et écrit. Qualités attendues : Capacité d'adaptation aux priorités changeantes. Aptitude à la transmission de compétences. Rigueur dans la documentation et la fiabilisation des résultats.
Freelance

Mission freelance
Data ingénieur BI/SQL

INFOTEL CONSEIL
Publiée le
Microsoft Power BI
Microsoft SQL Server
Microsoft SSIS

6 mois
500-580 €
Paris, France
Un profil avec des connaissances sur les technologies Microsoft BI (SSIS, SSRS et SSAS) ainsi que la maitrise du SQL, doté d’un bon relationnel et ayant la volonté de travailler en équipe. Le profil devra avoir une capacité et une volonté de montée en charge et disposer d’un sens logique avancé. Par ailleurs il devra maitriser les composantes suivantes : • DataViz : rapports dynamiques et Power BI • Datawarehouse : conception et modélisation (y compris cube tabulaires) • Base de Données : SQL Server • ETL/ELT: SSIS Description détaillée des tâches qui incombent : o Migration entrepôt legacy BDD (800 tables) o Migration Datahub BDD (900 tables) o Migration des ETL SSIS (633 packages) o Migration de procédures stockées (1550 ps) o Migration DataViz SSRS, SSAS et power bi (300 rapports)
CDI

Offre d'emploi
Consultant DataOps / Administrateur Hadoop

Craftman data
Publiée le
Ansible
CI/CD
Docker

La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
798 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous