Trouvez votre prochaine offre d’emploi ou de mission freelance Make

Votre recherche renvoie 23 résultats.
Freelance

Mission freelance
Administrateur N2 DATALAKE H/F

Cheops Technology
Publiée le
Data Lake

12 mois
400-410 €
Issy-les-Moulineaux, Île-de-France
Description Pour intervenir chez notre client : o Administration & Exploitation N1/N2 des socles composant la plateforme Datalake o Gestion des incidents de niveaux 1 et 2 (PVC, socle technique, outil, source, DAG, Backend, frontend, Cloudera) o Contribution à la GDP, diminuer significativement les incidents o Gestion des demandes de travaux o Déploiement des certificats et patch management pour les montées de version procédurées Livrables Production de documentation Astreintes permanentes et HNO selon planning
CDI

Offre d'emploi
Data Steward – Data Lake / Gouvernance des Données

DATACORP
Publiée le

45k-50k €
Nantes, Pays de la Loire
Dans le cadre de la gouvernance et de l’industrialisation du Data Lake, nous recherchons un Data Steward chargé de piloter les besoins d’acquisition et d’évolution des données. Vous évoluerez dans un environnement Agile SAFe en coordination avec les équipes produit, data et techniques, afin de garantir la qualité, la cohérence et la conformité des données intégrées dans le Data Lake. Missions principales Piloter les demandes d’acquisition et d’évolution des données dans le Data Lake Coordonner les équipes dans un contexte Agile SAFe Réaliser les analyses d’impact des évolutions Accompagner les équipes produit dans la définition des besoins data Cadrer les prérequis (formats, traitements, ingestion) Participer aux recettes des évolutions livrées Contribuer à la documentation du Data Lake Activités Data Conception et extraction de datasets Exploitation et analyse de données via Hive Utilisation d’outils de dataviz Contribution aux traitements Big Data sur Hadoop Environnement technique Data Lake / Big Data Hive Hadoop Dataviz Datasets (conception, extraction)
Freelance
CDI

Offre d'emploi
Data Engineer - Migration Data Lake

VISIAN
Publiée le
Data Engineering
Migration

1 an
Paris, France
Contexte Le Cluster lance l'étude d'un potentiel nouveau Data Lake afin de remplacer l’infrastructure legacy par une plateforme moderne, scalable et pleinement gouvernée. Le nouveau lake s’appuiera sur une architecture Medallion et intégrera les technologies suivantes : TrinoDB, Apache Iceberg, Parquet, dbt, Argo Workflows, Apache Superset, Metabase et OpenMetadata . Missions Analyse de l’existant & migration Cartographier les sources, pipelines et jeux de données actuels (legacy, SQL, fichiers plats...). Définition de la stratégie de migration vers le nouveau lake (bronze -> silver -> gold). Conception des plans de bascule tout en minimisant les interruptions de service. Architecture & ingestion Conception des couches Bronze / Silver / Gold du nouveau Data Lake avec TrinoDB, Apache Iceberg et Parquet. Création de pipelines d’ingestion (batch & near-real-time) depuis les systèmes de crédit. Modélisation & transformation Développement des modèles de transformation dans dbt : scripts SQL, tests automatisés, documentation et versionning. Harmonisation des schémas (normes de nommage, typage, PK/UK) avec les exigences du domaine crédit. Orchestration Implémentation des workflows de migration et de rafraîchissement des données avec Argo Workflows (planification, gestion des dépendances, monitoring). Self-service & visualisation Déploiement des espaces de travail Apache Superset et Metabase pour que les analystes métier puissent créer leurs propres dashboards à partir du nouveau lake. Rédaction des guides d’utilisation et accompagnement de la montée en compétence des équipes. Gouvernance, catalogue & lineage Intégration OpenMetadata pour le catalogage automatique, le suivi du lineage et la gestion des métadonnées (description, propriétaire, sensibilité). Mise en place des processus de data ownership, de versionning et de validation. Qualité & validation Implémentation, dans les modèles dbt, des tests de qualité (not-null, unicité, règles métiers spécifiques au crédit). Mise en place des indicateurs de suivi (freshness, complétude, anomalies) et des alertes automatiques. Sécurité & conformité Application des standards de sécurité du groupe (RBAC, data-masking). Contribution aux audits internes et aux revues de conformité réglementaire. Collaboration inter-équipes Travail en étroite coordination avec les équipes métiers. Participation aux cérémonies projets et aux ateliers de design.
Freelance
CDI

Offre d'emploi
Data Engineer SENIOR

Tritux France
Publiée le
Cloud
Data Lake
Pandas

3 ans
40k-45k €
400-470 €
Île-de-France, France
Objectif de la mission Au sein d’une équipe produit, vous interviendrez sur la conception, le développement et l’industrialisation de pipelines de données complexes, dans un environnement technique moderne et orienté performance. Votre objectif principal est de garantir des solutions data : Scalables Maintenables Alignées avec les standards d’architecture et de qualité Missions & responsabilités Ingénierie & Développement Concevoir et développer des pipelines de données robustes et performants Participer à la définition et à la mise en œuvre d’architectures data Garantir la qualité du code (Clean Code, DDD, peer review) Documenter les solutions Industrialisation Mettre en place des mécanismes d’observabilité (monitoring, logs, alerting) Optimiser les performances et les coûts (FinOps Data) Assurer la sécurité et la conformité des données Expertise & Collaboration Traduire les besoins métier en solutions techniques Contribuer aux rituels agiles et à la conception des user stories Résoudre les incidents de production et anticiper les risques Collaborer avec les équipes transverses Participer au partage des bonnes pratiques
Freelance

Mission freelance
Architecture Dataiku - Lamballe (22)

Signe +
Publiée le
Amazon S3
Data governance
Data Lake

150 jours
430-450 €
Lamballe-Armor, Bretagne
L’architecte Dataiku interviendra en support transverse des équipes métiers et techniques pour structurer les usages et diffuser les bonnes pratiques. Objectifs Industrialiser et structurer l’usage de Dataiku Accompagner les équipes dans l’exploitation de la donnée Définir des standards et composants réutilisables Assurer l’intégration avec l’écosystème data (S3, DBT, Data Catalog) Contribuer aux initiatives de data governance Missions principales 1. Architecture & gouvernance Définir l’architecture Dataiku et son intégration avec AWS S3 Structurer les environnements (dev / recette / prod) Mettre en place les bonnes pratiques (flows, versioning, sécurité) 2. Administration & industrialisation Administrer la plateforme (accès, configuration, monitoring) Mettre en place les processus de déploiement et de recette Créer une bibliothèque de composants réutilisables (templates, pipelines) Contribuer à la productisation des cas d’usage data 3. Accompagnement des équipes Support aux équipes métiers et techniques Aide à la prise en main de Dataiku Diffusion des bonnes pratiques et montée en compétence Accompagnement à la mise en œuvre de cas d’usage 4. Intégration data Articuler Dataiku avec : DBT (silver → gold) outils de data quality (ex : Elementary) Data Catalog Assurer la traçabilité et la documentation des données 5. Data governance Support au déploiement du data catalog Contribution à l’alimentation des métadonnées Appui aux data owners et aux processus de gouvernance Contribution possible sur ingestion / contrôle des données
Freelance

Mission freelance
Data Engineer Senior

Comet
Publiée le
Azure
Data Lake
Pandas

24 mois
400-650 €
Paris, France
Objectifs et livrables Dans le cadre du lancement de notre nouveau projet, nous recherchons une prestation de Data Engineer senior pour concevoir et mettre en œuvre des pipelines de données dans un environnement serverless exigeant. Le prestataire Data Engineer senior doit être capable de produire, mais aussi de comprendre les enjeux métier, de cadrer les sujets en amont, de faire les bons choix de conception et de diffuser son savoir-faire au sein de la squad. Missions principales : Concevoir et développer des pipelines de données en Python Implémenter des traitements batch et des orchestrations via Azure Durable Functions Manipuler des données volumineuses, notamment au format Parquet Mettre en place des validations de schémas et des contrôles de qualité de données Assurer l’intégration avec des APIs externes Participer à la modélisation et à l’optimisation des bases Azure SQL Mettre en œuvre l’observabilité de la solution : traces, métriques, logs Industrialiser les déploiements via CI/CD • Garantir la qualité et la sécurité du code Contribuer à l’analyse des besoins et au cadrage des sujets avant implémentation Porter une réflexion de conception sur les choix techniques, les compromis et la maintenabilité Utiliser l’IA comme un levier d’ingénierie concret : accélérer l’exécution, explorer des options, challenger des choix, améliorer la qualité et gagner en efficacité, sans déléguer la réflexion ni baisser le niveau d’exigence Partager ses pratiques, expliciter ses choix et contribuer à la montée en compétence de la squad Travailler efficacement dans un environnement international, y compris en anglais sur des sujets techniques et de conception Profil recherché : Capable de comprendre rapidement les enjeux métier et de les traduire en solutions robustes et pragmatiques Capable de penser le problème avant de se focaliser sur l’implémentation Doté d’une vraie expertise d’ingénierie et de conception, au-delà de la seule maîtrise d’un langage, d’un framework ou d’une version spécifique Capable d’utiliser les outils d’IA de manière avancée, critique et pertinente, et non comme un simple générateur de code Proactif, précis et honnête sur ses capacités, ses limites et les risques associés à ses choix Capable de produire de la synthèse utile à la décision Attiré par l’immersion dans les sujets, le partage, la transmission et le travail transverse Compétences requises : Langage : Python Cloud : Expérience des Azure Functions, notamment Durable Functions v2 Capacité à récupérer et exploiter des données depuis différentes sources Azure : Data Lake, Blob Storage, Azure DB Data processing: Pandas Polars PyArrow Langues : Bon niveau d’anglais, permettant de participer de manière autonome à des échanges techniques et de conception, à l’écrit comme à l’oral La valeur attendue réside aussi dans la capacité à comprendre les enjeux, concevoir les bonnes solutions, utiliser l’IA avec discernement, expliciter les choix et faire progresser l’équipe. Compétences demandées PYTHON - Expert POLARS - Confirmé PYARROW - Confirmé PANDAS - Confirmé Fonctions Azure - Expert Niveau de langue Anglais - Courant
Freelance
CDI

Offre d'emploi
Architecte Data / Stratégie Plateforme Data Européenne

OBJECTWARE
Publiée le
Apache Kafka
BI
Data Lake

3 ans
40k-73k €
400-550 €
Île-de-France, France
🎯 Objectif de la mission Dans un contexte de transformation data à l’échelle européenne, vous intervenez en tant qu’ Architecte / Consultant Senior Data pour structurer, rationaliser et industrialiser la plateforme data du groupe. Vous accompagnez la définition de la stratégie cible, la gouvernance et la trajectoire de migration vers une plateforme data unifiée, scalable et conforme aux contraintes réglementaires (RGPD, localisation des données, sécurité). 🧩 Missions principales🔎 1. Diagnostic des plateformes data existantes Réaliser une cartographie complète des plateformes data existantes Analyser les architectures de bout en bout (de l’ingestion à l’usage métier) Étudier l’organisation, les rôles et responsabilités Identifier les dépendances techniques et fonctionnelles Recenser et prioriser les cas d’usage Data, BI et IA Intégrer les contraintes réglementaires (RGPD, souveraineté des données) 🏗️ 2. Définition de la stratégie data cible Concevoir une architecture cible de plateforme data pan-européenne Travailler avec les équipes d’architecture groupe Recommander les choix technologiques (cloud, data platforms, outils) Définir un modèle de gouvernance data transverse (business lines) Fixer les principes de scalabilité, industrialisation et performance 🔁 3. Stratégie de migration & roadmap Construire une roadmap de transformation et migration vers la cible Définir les étapes de migration des données et des usages Organiser et animer les ateliers avec les équipes IT et métiers Préparer et suivre les comités de pilotage IT Coordonner les phases de tests, recette et non-régression 🚀 4. Accompagnement des premières phases de delivery Accompagner le démarrage des premières implémentations Garantir la cohérence entre architecture cible et réalisation Assurer un rôle de référent auprès des équipes de delivery
Freelance

Mission freelance
249593/Product Owner DATA SUR DES DONNEES RH - Expertise dans la création de Datalake RH

WorldWide People
Publiée le
Data Lake

9 mois
Saint-Denis, Île-de-France
PO DATA SUR DES DONNEES RH - Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP • Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Sénior PRO_OWN-3 Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP • Compétences demandées Compétences Niveau de compétence donnée rh : GA / PAIE / GT / FORMATION Confirmé standard adp Confirmé Power BI Confirmé datalake rh Confirmé
Freelance
CDI

Offre d'emploi
Consultant Data Governance & Data Migration (H/F)

Deodis
Publiée le
Data governance
Data Lake

1 an
38k-50k €
430-600 €
Île-de-France, France
En tant que Consultant Data spécialisé en gouvernance et migration, vous intervenez au cœur d’un programme stratégique de transformation visant à structurer, fiabiliser et harmoniser les flux de données dans un environnement complexe. Intégré(e) au Data Office, vous jouez un rôle clé dans la définition des besoins métiers, la conception des flux de données et le pilotage des livraisons, tout en garantissant la qualité, la traçabilité et la conformité des données. À ce titre, vous animez des ateliers avec les équipes métiers et IT afin de recueillir et formaliser les besoins data, réalisez des analyses d’écart entre les systèmes existants et les solutions cibles, et concevez les data lineage de bout en bout. Vous participez activement aux ateliers de conception fonctionnelle et technique, en apportant votre expertise sur les enjeux de gouvernance, de qualité et d’architecture des données. Vous êtes également en charge du pilotage de la roadmap data, en assurant le suivi des livraisons, l’identification des dépendances critiques et la gestion des risques. Vous maintenez un backlog structuré, suivez les indicateurs de performance et contribuez à la mise en place des standards de gouvernance et de qualité définis par le Data Office. Enfin, vous agissez comme référent sur votre périmètre, en accompagnant les équipes dans l’adoption des bonnes pratiques, en produisant une documentation de qualité (data dictionaries, processus, cartographies de flux) et en contribuant aux actions de change management dans un contexte de transformation à grande échelle.
Freelance
CDI

Offre d'emploi
Architecte technique Sécurité AWS - Data (H/F)

AVA2I
Publiée le
Amazon S3
AWS Cloud
Data Lake

4 ans
Île-de-France, France
Dans le cadre de la mise en place et de la sécurisation d’une plateforme Data Cloud, vous intervenez sur des architectures basées sur AWS intégrant des composants Data Lake, Data Warehouse et des services de stockage type S3. L’objectif est de garantir la sécurité des accès, la protection des données et la conformité dans un environnement à forts enjeux. 🛠️ Environnement technique Cloud : AWS Stockage : Amazon S3 Data : Data Lake / Data Warehouse Sécurité : IAM (Identity & Access Management) Outils : CI/CD, Infrastructure as Code (Terraform/CloudFormation – souhaité 🚀 Missions 🔐 Sécurité Cloud Définir et appliquer les politiques de sécurité AWS Gérer les accès via IAM (rôles, policies, permissions) Mettre en œuvre les principes de least privilege ☁️ Architecture Participer à la conception d’architectures sécurisées Sécuriser les flux et le stockage de données (S3, Data Lake) Contribuer à la robustesse des plateformes Data 📊 Gouvernance Assurer la conformité (RGPD, normes internes) Mettre en place des contrôles et audits de sécurité Participer à la gouvernance des accès et des données ⚙️ Amélioration continue Automatiser les contrôles de sécurité Mettre en place du monitoring et des alertes Promouvoir les bonnes pratiques sécurité auprès des équipes
Freelance

Mission freelance
Consultant Architecte BI / Data – Boulogne-Billancourt (92)

Mon Consultant Indépendant
Publiée le
Azure
Azure Synapse
Data Lake

1 mois
350-400 €
Boulogne-Billancourt, Île-de-France
Consultant Architecte BI / Data – ERP M3 / Azure 📍 Boulogne-Billancourt (92) 🏢 Présentiel (5j / semaine) ⏱ 6 mois renouvelables – temps plein 💰 TJM : 550 € HT 🚀 Démarrage ASAP Objectif :Structurer une architecture décisionnelle robuste et fiabiliser les plateformes BI dans un environnement complexe. Mission : Définition et mise en œuvre de l’architecture BI / data Stabilisation et optimisation des environnements existants Intégration des flux ERP Movex / M3 , SQL Server, Netezza Déploiement data sur Azure (Synapse, Data Lake) Structuration du reporting ( Power BI, MicroStrategy ) À savoir Présence sur site requise. Mission technique et structurante, avec attendu fort sur delivery et stabilisation rapide.
Freelance

Mission freelance
Architecte Sécurité Cloud & Données (H/F)

HOXTON PARTNERS
Publiée le
Data Lake
Databricks
IAM

6 mois
650-810 €
Boulogne-Billancourt, Île-de-France
Nous recherchons un Architecte Sécurité Cloud & Données pour l’un de nos clients dans le cadre d’un programme de transformation numérique à dimension internationale. La mission s’inscrit dans la sécurisation des environnements cloud et des plateformes data au sein d’un écosystème en forte évolution. Missions principales : Concevoir des architectures sécurisées pour les environnements cloud et data (Azure et environnements hybrides) Réaliser des évaluations de sécurité sur les services et architectures data et proposer des recommandations Définir les exigences de sécurité pour les projets cloud (identité, intégration, plateformes data/IA) Mettre en place les politiques, standards et bonnes pratiques de sécurité des données Piloter des initiatives de sécurité (choix de solutions, cadrage, mise en œuvre) Accompagner les équipes dans le déploiement sécurisé des workloads et la gestion des risques
Freelance

Mission freelance
🔷 Mission de DSI à temps partagé — 2 jours / semaine

Tenth Revolution Group
Publiée le
Data Lake
Microsoft Fabric

12 mois
Lyon, Auvergne-Rhône-Alpes
Groupe industriel en croissance cherche un DSI à temps partagé. Lyon / multi-sites France + Pays-Bas — 8 entités — 50 M€ de CA — Contexte LBO. Les fondations SI sont posées : ✅ Sage X3 en production depuis 2024 ✅ OroCommerce déployé début 2025 ✅ Power BI avec Fabric et data lake en cours de structuration Le chantier reste ouvert : ▶ Migration M365 ▶ Réseau WAN groupe ▶ Consolidation des filiales encore sous Sage 100 / Cegid ▶ Facture électronique avant fin 2026 ▶ Cybersécurité ▶ Plan de continuité d'activité Le tout dans un contexte de build-up actif. Ce groupe a besoin d'un DSI qui sait travailler sans armée, qui parle aux DG comme aux équipes terrain, qui pilote des prestataires sans en dépendre, et qui rend l'IT lisible pour des décideurs non techniques.
Freelance
CDI

Offre d'emploi
Architecte Big data sur le Havre

EterniTech
Publiée le
Big Data
Data Lake
Data science

3 mois
Le Havre, Normandie
Je cherche pour un de mes client un Architecte Big data sur le Havre Missions principales : Conception, mise en place et évolution d’architectures data modernes (Data Lakes, Data Warehouses) adaptées aux enjeux métiers et aux volumes de données. Développement et industrialisation de pipelines de données (ingestion, transformation, orchestration) dans des environnements Big Data. Intégration et valorisation des données pour alimenter des cas d’usage avancés, notamment en data science et intelligence artificielle. Développement de modèles analytiques et algorithmes de data science en réponse aux problématiques métiers. Création de tableaux de bord et reporting décisionnel via des outils BI tels que Qlik et Microsoft Power BI. Mise en œuvre et optimisation de moteurs de recherche et d’indexation avancée basés sur Elasticsearch (expertise clé). Gestion, enrichissement et évolution du catalogue de données (data catalog) afin de garantir la gouvernance et la qualité des données. Activités transverses : Analyse des systèmes existants et animation d’ateliers avec les parties prenantes pour cadrer les besoins. Définition des standards techniques, bonnes pratiques et architectures cibles. Dimensionnement, chiffrage et cadrage des solutions data. Accompagnement des équipes projet dans la mise en œuvre des solutions et suivi opérationnel. Transfert de compétences et montée en autonomie des équipes internes. Rédaction de documentation technique, cahiers des charges et rapports d’études. Réalisation d’audits techniques et amélioration continue des processus data. Veille technologique et conseil stratégique sur les outils et architectures data. Environnement technique : Big Data, Data Lake, Data Warehouse, ETL/ELT, Elasticsearch, Qlik, Power BI, Data Catalog, IA / Data Science.
Freelance
CDI

Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake

EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
CDI
Freelance

Offre d'emploi
Développeur Full Stack H/F

ASTERIA
Publiée le
Angular
Data Lake
Data Warehouse

6 mois
Monaco
Nous recherchons, pour l'un de nos Clients basés sur Monaco, un Développeur Full Stack H/F. VOTRE MISSION : Notre Client recherche un Développeur Full Stack H/F capable d’intervenir sur l’ensemble de la chaîne applicative, de l’interface utilisateur jusqu’aux services backend, dans un environnement cloud natif et containerisé permettant de valoriser des volumes de données complexes. Il devra concevoir et développer des applications intégrant des interfaces utilisateurs modernes et réactives qui s'appuieront sur des API performantes et scalables pour des cas d'usage Data/IA. Il travaillera en étroite collaboration avec les équipes data/IA pour proposer des solutions innovantes et performantes. Il participera également à l'optimisation des flux de travail de données (Data Pipelines Airflow) en collaboration avec l'équipe Data Engineering. Missions principales : Participer à l’analyse des besoins avec le chef de projet et les parties prenantes (UX/UI, métiers) Concevoir, développer et déployer des applications et chaînes de traitements autour de la Data et l'IA Rédiger et maintenir la documentation technique et fonctionnelle Réaliser les tests unitaires, d’intégration et fonctionnels Mettre en place et maintenir des pipelines CI/CD Collaborer étroitement avec les équipes Data & IA et plateforme Assurer le respect des critères qualité, délais, coûts et satisfaction utilisateur Participer aux revues de code et aux bonnes pratiques de développement Contribuer à l’amélioration continue des processus et outils de développement Veiller à la sécurité des applications et à la conformité des données personnelles
23 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous