Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 53 résultats.
CDI

Offre d'emploi
Développeur Python – Automatisation

Publiée le
Apache Airflow
CI/CD
Docker

40k-45k €
Île-de-France, France
Télétravail partiel
En tant que Développeur Python spécialisé en automatisation, vous interviendrez sur la conception, le développement et l’optimisation de scripts et d’outils destinés à automatiser les processus internes. Vous contribuerez à réduire les tâches manuelles répétitives, améliorer la fiabilité opérationnelle et accélérer les workflows techniques et métiers. Vous travaillerez en collaboration directe avec les équipes techniques (Ops, Data, Infrastructure) pour identifier les besoins, proposer des solutions innovantes et garantir la performance des outils développés.
Freelance

Mission freelance
Architecte data

Publiée le
Architecture

1 an
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission : Nous cherchons un Architecte Data, dont la mission sera de travailler sur différents aspects de l'architecture de données. Il sera le garant de l'urbanisation de la donnée, de sa cohérence et de sa circulation de la donnée au sein d'un écosystème complexe et siloté. Il assure l'interopérabilité, la qualité et la valorisation des données issues des différents silos applicatifs. Objectifs principaux de la mission : · Urbaniser le SI Data : Définir et piloter la trajectoire pour passer d'un SI siloté à une architecture data-centric (orientée service/API et/ou hub de données). · Garantir la cohérence technique : Assurer la définition d'un langage commun et la gestion des données de référence (MDM) à travers les applications. · Définir le cadre d’implémentation des données : proposer la méthode pour rendre les données accessibles et interopérables pour les usages Métier (BI, reporting opérationnel, information voyageurs temps réel, maintenance prédictive…) Activités et Responsabilités Clés Ø Architecture & Modélisation · Cartographie du SI Data en lien avec le gestionnaire des données : Établir et maintenir la cartographie des données (conceptuelle, logique) et des flux inter-applicatifs, en cohérence avec la cartographie globale du SI. · Modélisation des données : Définir et gouverner les objets métier centraux conformément aux spécifications fournies par les métiers et définir les modalités d’interactions des différents systèmes avec ces objets (fréquence, pattern, performance, liaisons entre les différents objets.) · Standards & Normes : Aider à l’intégration et la bonne implémentation des standards du transport public (NeTEx pour l'offre théorique et tarifaire, SIRI pour le temps réel…) dans les projets internes et externe, il doit également assurer une veille sur les standards. Ø Conception des Échanges & Interopérabilité · Définition des Interfaces : En collaboration avec les équipes d’architecture et de développement, concevoir les ‘contrats d'interface’ (API, Webservices, Messages, ETL) entre les solutions éditeur ou solutions maison en utilisant les plateformes d'intégration (ESB, API Management, Message Broker…). · Validation des flux : S'assurer que le dimensionnement des flux de données répondent aux besoins fonctionnels et aux contraintes de performance (ex : criticité du temps réel entre le SAE et l'application mobile). Ø Gouvernance, Qualité & Conformité des Données · Master Data Management (MDM) : En collaboration avec les gestionnaires de la donnée Identifier les applications ‘ maîtres ’ pour chaque donnée de référence (produit / billettique, véhicule/Mainta…) · Stratégie de Mise en Qualité (Data Quality) : Contribuer à la définition de la stratégie de qualité des données, en combinant des approches métier et techniques : o Stratégie Métier : Accompagner les référents métier (Ex : Gestionnaires des données) dans la définition des règles de gestion et dans les processus de correction des anomalies à la source o Stratégie Technique : Définir et contribuer à la mise en œuvre des contrôles de qualité automatisés (profiling, dédoublonnage, validation de format) au sein des flux de données (via l'ETL, l'ESB) et des tableaux de bord de suivi de la qualité des données (Data Quality Monitoring) à destination des métiers et de la DSI. · Sécurité & Conformité : Garantir que l'architecture data respecte les contraintes de sécurité (NIS2) et de protection des données personnelles (RGPD sur le CRM et la Billettique…). Ø Pilotage de Projets & Vision Stratégique · Support aux Projets : Agir en tant qu'expert Data pour tous les nouveaux projets · Cadrage Architectural : Rédiger les Dossiers d'Architecture Technique (DAT) sur le volet Data
Offre premium
CDI

Offre d'emploi
Ingénieur DATA / DEVOPS (F/H)

Publiée le
AWS Cloud
Data analysis
DevOps

Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
Mission sur SOPHIA ANTIPOLIS 4 jours de présentiels (préférable d'habiter la région Alpes maritimes) En vue d'embauche en CDI Notre client, une start-up dans l'énergie, recherche un tech lead pour accompagner les équipes dans le développement de leur solution de prévision météo. Mission principale : Assurer le pilotage technique et la mise en production des solutions de prévision solaire développées, en garantissant la robustesse, la scalabilité et la fiabilité de l’infrastructure data et logicielle. Responsabilités clés : Data Engineering : maintenir et optimiser les pipelines de données (météo, satellite, capteurs PV) pour les modèles de prévision. Infrastructure & DevOps : Déploiement et gestion des environnements cloud (AWS). Mise en place et maintenance de l’Infrastructure as Code (Terraform). Automatisation et optimisation des déploiements via CI/CD (GitHub Actions). Orchestration des tâches : concevoir, monitorer et optimiser les workflows de données et de calcul via Dagster. Opérations métiers : garantir la bonne exécution des codes de prévision (algorithmes, modèles, calculs intensifs) en production. Onboarding & Process : structurer et gérer les procédures d’onboarding technique des nouveaux clients et des PoCs. Qualité & Sécurité : veiller à la résilience, à la sécurité et à la performance des systèmes déployés. Compétences attendues : Solide expérience en Data Engineering et/ou DevOps. Maîtrise de AWS et des outils Terraform. Connaissance des bonnes pratiques CI/CD et expérience avec GitHub Actions. Expérience en orchestration de workflows de données (idéalement Dagster, sinon Airflow ou équivalent). Compétences en scripting (Python, Bash) et monitoring. Capacité à travailler dans un environnement agile, en lien avec des data scientists et des équipes projet. Esprit de structuration et sens des responsabilités pour accompagner la croissance d’une scale-up deeptech.
Freelance

Mission freelance
Data Scientist Senior

Publiée le
Google Cloud Platform (GCP)
Python
SQL

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Offre premium
Freelance

Mission freelance
TECH LEAD ENGINEER (AZURE/DATABRICKS) H/F

Publiée le
Azure Data Factory
CI/CD
Databricks

3 mois
500-580 €
La Défense, Île-de-France
Télétravail partiel
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Tech Lead/Data Engineer spécialisé Databricks / Azure H/F . Vous piloterez techniquement une squad transverse de 5 à 10 personnes, garantirez la qualité logicielle, la cohérence d’architecture, la performance des pipelines data et la bonne mise en production. Vous jouerez un rôle clé dans la conception, l’optimisation et l’industrialisation de produits data à grande échelle dans un environnement Cloud Azure et Databricks exigeant. Vous animerez les rituels techniques, accompagnerez les membres de la squad et assurerez la communication fluide avec les parties prenantes métier et IT. Objectif et livrables: Architectures data (ingestion, transformation, serving) validées et documentées. Pipelines Databricks productisés, monitorés, optimisés. Modules réutilisables / librairie d’ingénierie data. Pipelines CI/CD + scripts Terraform prêts pour déploiement. KPIs mensuels (qualité données, SLA, latence, incidents). Plan de montée en compétences de la squad. Compétences attendues : Maîtrise avancée de Databricks (jobs, clusters, notebooks, optimisation). Expertise PySpark pour traitements batch & streaming. Excellente pratique Python et bonne connaissance Java . Très bonne maîtrise Azure Data Services : ADLS, Blob, Data Factory, Synapse, Event Hubs. Pratique confirmée de Terraform , CI/CD (GitHub Actions, Azure DevOps). Compétences en monitoring (Datadog, Prometheus, Log Analytics), tests automatisés, code review. Connaissances SQL et bases NoSQL. Architecture data, bonnes pratiques de sécurité, RBAC, performance tuning.
Freelance

Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote

Publiée le
Data quality
ETL (Extract-transform-load)
Linux

12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
CDI

Offre d'emploi
Lead data (H/F)

Publiée le

40k-45k €
Lille, Hauts-de-France
Télétravail partiel
Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github
Freelance

Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)

Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
CDI
Freelance

Offre d'emploi
Data Ingénieur DBT - Snowflake (H/F)

Publiée le
DBT

1 an
45k-55k €
470-560 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer spécialisé DBT et Snowflake pour rejoindre une équipe Data et participer à la construction, l’optimisation et l’industrialisation d'une plateforme analytique moderne. Vous interviendrez au cœur des pipelines de données pour garantir la fiabilité, la scalabilité et la performance des modèles. En tant que Data Engineer, vous serez en charge de : 1. Développement & modélisation Modéliser, transformer et documenter les données à l’aide de DBT (models, tests, macros). Construire et optimiser les modèles dans Snowflake (warehouse, schemas, performance tuning). Développer et maintenir des pipelines data robustes (batch ou streaming selon contexte). 2. Architecture & DataOps Participer à la conception de l’architecture Data (Data Lake / Data Warehouse). Mettre en place des bonnes pratiques en versionning, CI/CD et monitoring autour de DBT. Assurer la qualité, la cohérence et la gouvernance des données. 3. Collaboration & support Travailler étroitement avec les Data Analysts, Data Scientists et équipes métier. Documenter les transformations pour assurer la transparence et la traçabilité. Participer à l'amélioration continue des standards Data. Stack technique DBT (core ou cloud) Snowflake SQL avancé Git / CI-CD (ex : GitLab, Github Actions, CircleCI) Orchestrateurs : Airflow, Dagster ou équivalent (souhaité) Langages : Python (souhaité)
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Dataiku
Microsoft Power BI
PySpark

1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Freelance
CDI

Offre d'emploi
Architect Data

Publiée le
Architecture
AWS Cloud
Azure

12 mois
70k-80k €
600-700 €
Île-de-France, France
Télétravail partiel
Au sein de la Data & IA Fabric d’INVENTIV IT vous serez amené à travailler sur une partie opérationnelle et stratégique. Nous travaillons principalement sur des projets régie auprès de nos clients. Ce poste requiert une solide expérience technique et architecturale, ainsi qu'une expertise pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Il implique également une collaboration étroite avec les équipes informatiques, les partenaires commerciaux et externes, et l'ensemble des membres de l'équipe d'intégration. Les compétences suivantes sont essentielles : Leadership et autonomie Engagement sur les sujets Capacité à fournir des justificatifs dans le cadre d’un audit, d’un POC, MVP ou concernant les normes et l’architecture Objectifs et livrables : - Concevoir et proposer des solutions de données utilisant les technologies Azure Cloud au sein de notre cadre de travail (AWS est un +) - Concevoir et proposer des solutions Snowflake et Databricks - Appliquer la stratégie « Data as service » conformément aux bonnes pratiques d’architecture - Concevoir et développer des API/microservices pour enrichir notre cadre de solutions - Soutenir la stratégie d’architecture événementielle basée sur Azure Event Hub et Azure IoT Hub - Contribuer à notre Data Catalog pour l’enrichissement en libre-service - Contribuer à la modernisation et à la sensibilisation aux technologies - Être la personne de référence au sein de l’équipe pour toutes les questions relatives à la Data & au cloud - Animer des ateliers et faciliter la collecte des besoins - Apporter un soutien aux ingénieurs de données sur les sujets liés au cloud - Apporter un soutien à l’équipe Sécurité sur les sujets connexes - Contribuer à la feuille de route et à l’évolution de la Capture de données - Assumer un rôle de critique et de soutien auprès des fournisseurs externes - Capacité de mettre en place une conduite de changement (by design) - Capacité de travailler sur de l’analyse prédictive et préventive - Capacité de simplifier et d’augmenter l’usage de la Data aux métiers, business - Contextualiser et standardiser les données - Répondre aux problématiques de l’accès à la données (données en temps réelles) - Valoriser la transformation digitale et la data au service du business - Fournir de la data dans l’ensemble de cycle de vie du produit - Réduire et optimiser le time to Market - Avoir une approche Data Driven pour chaque produit digital - S’assurer de la cohérence des données entre les systèmes - Capacité d’avoir une ouverture de virtualisation (peu importe les technos - Gouvernance de données fédéré) - Avoir une vision produit, business & métiers / Cadrage & Delivery - Capacité de lier les sujets à une BDM (Analytics) - Création d’Asset majeur pour la performance de l’entreprise ✔️ Vous auditez l’écosystème data et faites des préconisations associées dans le cadre de la modernisation des plateformes Data ✔️Vous élaborez des ’architectures logiques et techniques de plateforme data en tenant compte des besoins ✔️Vous adaptez chaque architecture en fonction du contexte : maîtrise des caractéristiques fondamentales de chaque solution (catalogue des offres de services managés, performance, sécurité, déploiement des data centers…) ✔️Vous définissez le plan de transformation de l'écosystème data et êtes capable d’encadrer les équipes dans la mise en place des architectures préconisées et / ou des plateformes Data Operating model Data : (compétences) - organisation - mission - outils - IA Generative - Time To Market & ROI - industrialiser dans le même délai que le POC - Automatisation / Robotisation Compétences - Snowflake & Databricks - EDA - Architecture - Fonctionnel - Réseau & Sécurité - intégration continue - SQL & BDD - Cloud Azure & AWS - Data - Codage - IA (intelligence artificielle) - Platform Data & Data Market Place - Data Hub & Analytics - Anglais & Français : Courant Langage naturel - Catalogue de données - Systèmes de stockage de données avec outils IA - Données durables et responsable Exemple de réalisation : - Data Market Place / Platform Data - IA Generative (questionnement via un chatbot) à partir de la données simplifiés (Platform Data) - Data hub & Gouvernance Comme nous le disons au sein d’INVENTIV IT, le coeur de la transformation digitale est la Data c’est le pouvoir d’agir pour toutes organisations
Freelance

Mission freelance
Administrateur / Expert Big Data (Cloudera)

Publiée le
Apache Spark
Cloudera
Hadoop

3 ans
500-700 €
Île-de-France, France
Télétravail partiel
Vous serez en charge du déploiement ainsi que du MCO/MCS de l’écosystème Cloudera (Cloudera Manager, services Cloudera Data Platform : HDFS, Vous interviendrez également sur la gestion d’une architecture Lake house , comprenant : Data Security : Apache Ranger Data gouvernance : Apache Atlas Data processing : Spark, Apache Zeppelin Data ingestion : NiFi Data analytics : Apache Impala Data lake : Hadoop, Apache Kudu Data serving : Hue Responsabilités Documenter les procédures d’exploitation et rédiger des rapports synthétiques Garantir le bon fonctionnement des services dans le respect des SLA Opérer en environnement de production en s’appuyant sur les processus ITIL (gestion des incidents, problèmes, changements) Communiquer en anglais avec les éditeurs (dont Cloudera) et les fournisseurs Automatiser les déploiements (fichiers de configuration, certificats, keystores) via Ansible Utiliser les outils DevOps (GitHub, Jenkins) pour le versionning et les pipelines Exploiter les environnements Linux et analyser les logs dans le cadre du traitement des incidents Être force de proposition concernant l’amélioration de l'exploitabilité, la robustesse et la supervision des services Participer aux réunions d’équipe, aux projets et aux différents comités, et assurer un reporting régulier Livrables attendus Dossier d’ingénierie de la plateforme Lake house Fiches et procédures d’exploitation Dossier de mise en production PV de mise en production
Freelance

Mission freelance
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)

Publiée le
Apache
Apache NiFi
Apache Spark

12 mois
400-650 €
Paris, France
Télétravail partiel
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Freelance

Mission freelance
Data Engineer Expert DataVault - Snowflake / dbt– Azure

Publiée le
Azure
Azure DevOps
DBT

3 mois
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Data Engineer avec une expertise confirmée en modélisation DataVault (compétence indispensable) ainsi qu’une maîtrise de dbt et Snowflake , dans un environnement Azure . La mission s’inscrit dans une transformation Data stratégique visant à industrialiser et standardiser les flux de données. Missions : Concevoir, développer et faire évoluer la plateforme Data basée sur Snowflake et dbt. Modéliser, structurer et optimiser les modèles DataVault (Hubs, Links, Satellites) . Industrialiser, automatiser et fiabiliser les pipelines ETL/ELT . Contribuer à la mise en place et au respect de l’approche ATDD . Assurer la qualité, la traçabilité et la cohérence des produits data. Collaborer avec les équipes Data, Engineering et Projets pour garantir la valeur des solutions livrées.
Freelance

Mission freelance
Data Engineer / Data Analyst

Publiée le
BigQuery
CI/CD
Google Cloud Platform (GCP)

2 ans
420-500 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Freelance

Mission freelance
Data engineer senior/Tech lead Migration IDQ Fabric (F/H) - 75

Publiée le
Databricks
Microsoft Fabric
PySpark

12 mois
400-770 €
Paris, France
Télétravail partiel
Notre client migre ses flux ETL d’Informatica vers Microsoft Fabric pour ses besoins en data ingestion et analytics. Le projet concerne principalement le domaine Finance, avec un modèle pivot centralisant contrats, positions, instruments de couverture, flux futurs, contreparties et données de marché. Environnement technique : * ESB (Software AG), * ETL (Informatica), * Data Platform (Fabric/Power BI) Mission En tant que Tech Lead Data, vous serez responsable de : * Définir les standards techniques (Fabric, Spark, Python) et bonnes pratiques de développement. * Piloter la migration des flux Informatica vers Fabric : * Évaluer l’existant (flux, modèles pivots, dépendances). * Concevoir le framework d’ingestion/transformation (Spark, Notebooks). * Mettre en place la CI/CD (Azure DevOps/GitHub). * Assurer le monitoring et la qualité des données. * Encadrer une équipe de 3 Data Engineers (mentorat, optimisation des performances). * Collaborer avec les équipes métiers (Finance/Risque) et l’architecture IT.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

53 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous