Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 701 résultats.
Mission freelance
DATA ENGINEER DDL ( profil habilitable)
Signe +
Publiée le
Python
12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
Mission freelance
Product Owner Data – Data & Analytics
SKILLWISE
Publiée le
Qlik Sense
Snowflake
3 mois
400-550 €
Île-de-France, France
Nous recherchons pour l'un de nos client un Data Product Owner qui sera chargé(e) de piloter la valorisation de la donnée au sein des équipes Retail et Supply Chain. Il/Elle coordonne le développement de produits data, assure la qualité et la fiabilité des données, et conçoit des tableaux de bord permettant une prise de décision éclairée. Travaillant en méthode agile, il/elle organise les sprints, priorise les besoins métiers, rédige les user stories et garantit la cohérence entre enjeux business et solutions techniques. Grâce à sa compréhension du retail, de la chaîne de valeur supply chain et des dynamiques saisonnières, il/elle identifie les leviers de performance et propose des évolutions continues sur les outils et produits data. Son rôle principal est de transformer la donnée en valeur : fournir aux équipes des insights fiables, des visualisations pertinentes et des solutions data qui améliorent la performance opérationnelle et stratégique de l’entreprise.
Offre d'emploi
Expert Data Gouvernance
KEONI CONSULTING
Publiée le
Hadoop
IBM DataStage
PostgreSQL
18 mois
20k-60k €
100-550 €
Paris, France
"Contexte du besoin Dans le cadre de ses missions de définition des politiques de gestion des données et du suivi de leur mise en œuvre, l'activité Gouvernance de la Donnée souhaite renforcer son équipe d'un profil confirmé en la matière. Un accompagnement assorti d'un regard éclairé dans l'exécution des différents pans des missions est demandé MISSIONS · définition des politiques de gestion des données (rôles et responsabilités; · mise en place/alimentation d'un Glossaire métier et d'un Dictionnaire des données; · modalités de suivi de la qualité des données; · modalités permettant d'assurer la sécurité et la conformité réglementaire de l'accès aux données; · articulation avec les capacités de la plate-forme Data choisie par l'entreprise); · mise en oeuvre et suivi de ces politiques, en lien avec les contributeurs nécessaires; acculturation des différentes populations de l'entreprise aux exigences et apports en lien avec la gouvernance des données; · etc.... • Participation le cas échéant au choix des outils de gouvernance des données (rencontres fournisseurs initiées; échanges en cours) • Catalogage / connaissance des données : Définir les standards et bonnes pratiques et en vérifier la bonne application en mobilisant les acteurs requis (SI, métier), assurer l’acculturation nécessaire; • Cartographie des Données : Approfondir la cartographie des données qui aura été initiée (avec les acteurs métier, SI, urbanistes) et être capable de la présenter, la faire adopter et de l’utiliser à des fins de gouvernance des données… • Conformité règlementaire : Garantir que toutes les données respectent les normes internes et externes, en particulier en matière de RGPD et de conformité légale. • Gestion des rôles et animation de la communauté Data : Identifier les relais de la gouvernance dans un contexte de responsabilités fédérées. Mobiliser les acteurs (animation de séminaires, communication…). • Gestion des habilitations : Définir la granularité des habilitations des rôles et utilisateurs identifiés. • Accompagnement de la montée en compétence des autres membres de l'équipe sur des sujets structurants devant être maîtrisés pour mener à bien les missions de l'activité" Livrables attendus "Chapitres thématiques de la politique de Gouvernance des données (rôles et responsabilités; gestion Glossaire/Dictionnaire ; gestion du Data Lineage; sécurité et droits d'accès, dont conformité juridique; Suivi de la qualité des données; process permettant l'évolution de la plate-forme Data" Environnement technique - technologique • couche stockage : TERADATA; HADOOP Cloudera; Postgre • Transformation : DataStage / Spark • BI : Power BI; SAS"
Mission freelance
Tech Lead Data (AWS/BI)
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
8 mois
Île-de-France, France
Description du contexte / projet Assurer la responsabilité technique, fonctionnelle et opérationnelle du Datalake AWS (CAP 2.0) et de l’écosystème BI du groupe. Piloter une équipe de développement internationale et garantir l’ingestion, la transformation, la qualité, la gouvernance et la mise à disposition fiable des données pour les équipes et systèmes consommateurs A. Pilotage technique du Datalake AWS CAP 2.0 ▪ Supervision complète de la plateforme data AWS ▪ Coordination et encadrement d’une équipe de 5 développeurs basée en Inde ▪ Conception et adaptation des architectures AWS selon les standards du groupe ▪ Implémentation et optimisation des services AWS : ➢ S3 ➢ Glue ➢ Kinesis ➢ Lambda ➢ EventBridge ➢ CloudWatch ▪ Suivi du fonctionnement, des performances et de la robustesse des pipelines ▪ Mise en place de mécanismes d’alerting, supervision et automatisation B. Ingestion et transformation des données ▪ Analyse des systèmes sources internes et externes ▪ Définition du flux d’ingestion de bout en bout ▪ Orchestration des pipelines d’ingestion et de transformation ▪ Consolidation et structuration des datasets ▪ Mise à disposition des données transformées dans PostgreSQL pour les systèmes consommateurs ▪ Validation de l’intégrité, cohérence, performance et fraîcheur des données C. Gouvernance, qualité et bonnes pratiques ▪ Définition et application des guidelines du datalake ▪ Mise en place des standards de gouvernance de données ▪ Suivi et amélioration de la qualité des données ▪ Gestion des accès, sécurité, conformité et règles de partage ▪ Animation des pratiques data selon les meilleures normes du marché ▪ Supervision de l’usage de Collibra pour la gouvernance documentaire D. Management de projets et méthodologies ▪ Gestion de projets data à fort enjeu stratégique ▪ Pilotage de la migration du SI BI vers un nouvel environnement : ➢ Définition du scope ➢ Planification des jalons ➢ Suivi des coûts et ressources ➢ Coordination des acteurs ➢ Organisation du passage en production ▪ Application avancée des méthodologies Agile ▪ Animation des cérémonies et des instances de pilotage ▪ Rôle hybride : Technical Lead assorti de compétences chef de projet & Business Analyst
Mission freelance
Expert Marketplace / Product Data
Okara
Publiée le
Audit
E-commerce
Gestion des risques
3 mois
400-850 €
Lille, Hauts-de-France
Le contexte : Notre client, acteur de référence de l’équipement de la maison, transforme sa Marketplace en un environnement nativement sécurisé. L'enjeu est de taille : passer d'une vigilance artisanale à une conformité industrielle. Nous recherchons un consultant senior pour piloter ce passage au "Safety by Design" . Les enjeux opérationnels : Face à la volumétrie des inventaires, la modération manuelle a atteint ses limites. Vous intervenez pour structurer des mécanismes de blocage natifs dès le référencement. Le projet s’articule autour de la cohérence des catalogues (Modèle Commun) et l’intégrité des données réglementaires avant toute mise en ligne. Votre périmètre d'intervention : Directement rattaché à la direction Marketplace, vous agissez comme un véritable partenaire stratégique pour : Audit & Challenge : Analyser la robustesse des processus actuels et arbitrer le curseur entre fluidité business et "Business Stoppers". Feuille de route : Challenger les choix de blocage (gel des offres vs blocage catalogue) au regard des réalités du marché. Sourcing technologique : Identifier et recommander les solutions de filtrage automatisé (IA, reconnaissance d’images, API de conformité) les plus pertinentes.
Mission freelance
Change Manager Data & Cloud – Secteur Assurance (H/F)
CAPEST conseils
Publiée le
Business Object
Conduite du changement
Dataiku
3 mois
Paris, France
Dans le cadre d’un programme de transformation data d’envergure chez un acteur majeur du secteur de l’assurance, nous recherchons un Change Manager Data & Cloud afin d’accompagner les équipes métiers dans l’adoption des nouveaux usages liés à la donnée. Le programme vise à moderniser l’écosystème data, notamment via la migration d’applications vers des environnements cloud et SaaS , et à favoriser une culture data-driven au sein des différentes directions métiers. Vous interviendrez à l’interface entre les équipes data, IT et métiers , avec un rôle clé de vulgarisation et d’accompagnement au changement. Vos missionsAccompagnement à la transformation data Définir et déployer la stratégie de conduite du changement autour des nouveaux outils et usages data. Identifier les impacts organisationnels et métiers liés aux migrations vers des solutions cloud et SaaS . Mettre en place des plans d’adoption pour favoriser l’appropriation des solutions data. Acculturation et vulgarisation de la data Traduire les sujets techniques en messages accessibles pour les métiers . Promouvoir la culture data et les usages analytiques dans les différentes directions. Concevoir et animer des ateliers, démonstrations et formations utilisateurs . Produire des supports de communication et de pédagogie (guides, newsletters, webinars). Adoption des outils analytiques Accompagner les métiers dans l’utilisation des solutions data et BI : Business Objects Tableau Dataiku Objectif : démocratiser l’accès à la donnée et faciliter l’autonomie des métiers dans l’analyse. Coordination avec les équipes techniques Assurer le lien entre les équipes data, IT et les utilisateurs métiers . Contribuer à l’amélioration de l’expérience utilisateur autour des outils data. Participer à la structuration des bonnes pratiques et de la gouvernance data . Profil recherchéExpérience 5 ans ou plus d’expérience en conduite du changement, transformation digitale ou data . Expérience dans des environnements BI, analytics ou data platforms . Une connaissance du secteur assurance ou financier est appréciée. Compétences Capacité à vulgariser des sujets techniques complexes . Bonne compréhension des environnements cloud, SaaS et data analytics . Expérience avec des outils de data visualisation ou BI . Excellentes capacités de communication, animation d’ateliers et gestion des parties prenantes . Qualités attendues Sens du service et orientation métier. Leadership et capacité à embarquer les équipes. Autonomie et esprit d’initiative. Forte appétence pour les sujets data et transformation digitale . Environnement de la mission Secteur : Assurance Environnement : Transformation data et migration cloud Outils : Business Objects, Tableau, Dataiku Mode de travail : interaction forte avec les équipes data, IT et métiers Quelques déplacements à prévoir occasionnellement en province.
Mission freelance
Product Owner MS Dynamics / Azure - Montpellier
Atlas Connect
Publiée le
Agile Scrum
Azure
Azure Data Factory
12 mois
580-620 €
Montpellier, Occitanie
Missions principales Construire, prioriser et piloter le backlog de l’équipe en collaboration avec les équipes métier et les architectes. Travailler avec l’équipe à la conception des solutions intégrant le CRM Dynamics , la Power Platform , et la plateforme Azure (SSIS sur VM, Synapse Link for Dataverse, Azure Functions…). Se synchroniser avec les autres équipes du train relation client pour identifier et gérer les dépendances avec les autres applications de la ligne produit. Participer activement aux cérémonies Scrum et au suivi des indicateurs de performance des projets. Contribuer à l’ innovation et à l’amélioration continue des solutions CRM et Azure. Environnement technique Dynamics 365 Power Automate Power Apps Développement de plugins C# Customisations JavaScript SSIS Azure Functions Azure Synapse Link for Dataverse Azure DevOps SonarCube
Mission freelance
Lead Data Analyst (H/F)
Cherry Pick
Publiée le
Databricks
Microsoft Power BI
Microstrategy
12 mois
550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Lead Data Analyst(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine des mousquetaires. Description 🎯 Contexte de mission Dans le cadre du renforcement du DataLab , nous recherchons un Data Analyst Lead (prestation) rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution , multienseignes et multimétiers, avec de forts enjeux : Pilotage de la performance Qualité et fiabilité des données Modélisation transverse Usages analytiques à grande échelle ⚠️ Contrainte forte : remplacement d’un prestataire sortant 📍 Localisation : France – IDF 🎓 Séniorité : Expert (>10 ans) La connaissance opérationnelle de la Grande Distribution est impérative . 🚀 Missions principales et rôle 🧠 Expertise & Conception Data Apporter une expertise avancée en data analyse Concevoir et challenger des solutions data robustes Accompagner les équipes produits / projets sur des sujets analytiques complexes Garantir la cohérence des indicateurs et des modèles 📐 Modélisation & Structuration Contribuer activement à la modélisation des données Faire vivre et évoluer le modèle de données communes Définir les contrats d’interfaces Structurer et aligner les KPI métiers 👥 Leadership & Animation Contribuer à la montée en compétence des Data Analysts Animer la communauté Data (ateliers, bonnes pratiques, retours d’expérience) Coanimer la Data Authority en lien avec la Gouvernance des données 🚀 Mise en production & RUN Préparer les documents nécessaires aux MEP et au RUN Participer à la mise en place des outils de supervision Contribuer au transfert de compétences vers les équipes RUN Participer aux cérémonies agiles 🔍 Veille & Amélioration continue Assurer une veille technologique active Contribuer à la résolution d’incidents Promouvoir les bonnes pratiques de développement (sécurité, optimisation, documentation) 📊 Objectifs Apporter un leadership analytique au DataLab Structurer les indicateurs stratégiques métiers Améliorer la cohérence et la qualité des modèles de données Accélérer la maturité data dans un contexte Grande Distribution Sécuriser la continuité et la performance suite au remplacement du prestataire sortant 🛠️ Compétences requises 🔹 Hard Skills (Impératif) Expertise confirmée en data analyse Solide expérience en modélisation de données Conception de solutions data Connaissance confirmée de la Grande Distribution : Indicateurs clés (vente, marge, stock, approvisionnement, performance magasin) Enjeux business retail Compréhension des usages métiers de la donnée
Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris
EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation
6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Mission freelance
Senior Data Engineer
Signe +
Publiée le
MySQL
12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Concevoir, développer et maintenir des data pipelines et solutions de data warehouse en environnement cloud Mettre en place et industrialiser les processus ETL / ELT et l’orchestration des pipelines en production Traduire les besoins métiers en solutions techniques data robustes en collaboration avec les équipes transverses Définir et appliquer les standards techniques et bonnes pratiques d’ingénierie data Participer à l’amélioration continue des architectures data et des performances des pipelines Expérience requise 6 à 10 ans d’expérience en Data Engineering Expérience confirmée en implémentation de pipelines data et solutions de data warehousing cloud Expérience en modélisation de données et orchestration de pipelines en environnement production Expérience de travail en équipes cross-fonctionnelles Compétences techniques Maîtrise avancée SQL Plateformes Data Warehouse : Snowflake (préféré) ETL / ELT : IICS ou équivalent Transformation data : dbt (préféré) Python pour traitement de données Cloud : AWS (préféré) Orchestration : Airflow (préféré) CI/CD : GitHub Actions Versioning : Git Infrastructure as Code : Terraform Mise en place de standards d’ingénierie et patterns techniques Soft skills Esprit collaboratif et orientation solution Autonomie et proactivité Communication efficace avec équipes techniques et métiers Formation Bachelor minimum (Master apprécié) en informatique ou domaine équivalent Langue Anglais obligatoire
Mission freelance
POT9006- Un Data Analyst Power BI confirmé sur Chécy.
Almatek
Publiée le
Microsoft Excel
PowerBI
SAS
6 mois
330-380 €
Chécy, Centre-Val de Loire
Almatek recherche pour l'un de ses clients, un Data Analyst Power BI confirmé sur Chécy. Descriptif: Contexte de la mission Dans le cadre de la mise en place et de l’industrialisation de tableaux de bord décisionnels Power BI, le client recherche un Data Analyst Power BI confirmé pour accompagner les directions métiers dans la construction et le pilotage de leurs indicateurs stratégiques. La mission s’inscrit dans un contexte assurance , avec des enjeux forts de compréhension métier, de structuration de la donnée et d’aide à la décision au niveau Direction Générale. Objectifs de la mission: Concevoir, développer et maintenir des tableaux de bord Power BI à destination de la Direction Générale Accompagner les métiers dans la transformation de leurs usages historiques (Excel, SAS) vers une logique Power BI plus industrialisée Structurer la démarche décisionnelle et garantir la cohérence des indicateurs Périmètre fonctionnel: Les tableaux de bord concernent notamment : Direction Générale Direction des Offres Direction Commerciale Direction Marketing Activités principales: Capacité à s’asseoir avec les métiers, comprendre leurs besoins et leurs usages actuels Accompagnement au changement : expliquer pourquoi une logique Excel / SAS ne peut pas être transposée telle quelle dans Power BI Définition de la logique de données et des indicateurs Rédaction de notes de cadrage, validation avec les métiers Conception et développement des rapports Power BI Mise en production et assurance du RUN (maintien, évolutions, fiabilité des dashboards) Profil recherché: Data Analyst Power BI confirmé Minimum 5/7 ans d’expérience sur des projets décisionnels Très bonne connaissance des environnements assurance, c'est obligatoire. Forte capacité de communication et de pédagogie auprès des métiers (forte compétences métier assurance obligatoire) Autonomie, structuration et sens du résultat Organisation
Mission freelance
Ingénierie Méthodes & Data Analyst (Production Data & Master Data)
Mon Consultant Indépendant
Publiée le
Data analysis
6 mois
540-590 €
Paris, France
Profil recherché : Ingénierie Méthodes & Data Analyst (Production Data & Master Data) Finalité de la mission : Dans le cadre de la mise en place du projet SAP, recherche d'une expertise Méthodes / Logistiques / Data analyst afin de : • Supporter l’équipe dans la structuration et la migration des données de production, méthodes, et logistique usine, entre notre système actuel M3 et notre futur système SAP S/4HANA • Garantir la fiabilité, la cohérence et la qualité des données de production et des « Master Data » dans SAP Missions principales : Gestion & fiabilisation des Master Data Production : • Participer à la revue des Master Data de production (nomenclatures (BOM), gammes de production, postes de charge, fiches article et vues MRP). • Vérifier que les données techniques sont complètes pour permettre la création et l’exécution correcte des OF (BOM active, gamme active, UM cohérentes, conversions d’unité, stratégies MRP…). • Garantir l’intégrité des données utilisées par la planification (MRP) et la logistique interne (PSA, staging, stockage). • Vérification de la cohérence du paramétrage interne à SAP en lien avec les règles de gestion définies • Contribuer en appui du BPO et du Data Manager à l’homogénéisation sur le paramétrage des Data entre usines (exemple pour la sous-traitance de production) • Coordonner et être en soutien du nettoyage des données sources avec les usines et les méthodes • Vérifier la cohérence des données de production vis-à-vis des règles de gestion établies • Participer à la constitution des fichiers de création, de migration et de chargement des données en lien avec notre Data Manager • Proposer éventuellement des améliorations ou des ajustements dans nos choix métiers en cours de définition pour ensuite correction lors de la phase des tests Support & gouvernance data : • Aider à la rédaction des SIT en particulier sur les données de Production, des Méthodes et de la Logistique Usine • Participer à la définition du dictionnaire de données et des règles de gouvernance. • Formaliser pour la Production et les Méthodes, et la Logistique Usine les règles de création, modification des Master Data et des données production à l'aide de procédures
Mission freelance
Chef de projet / Lead Sécurité Data & Cloud (GCP)
Inventiv IT
Publiée le
BigQuery
Data governance
DBT
6 mois
600-700 €
Niort, Nouvelle-Aquitaine
Suite à un audit interne (septembre 2024), le Data Office doit : • Structurer une roadmap sécurité Data • Renforcer la protection des données • Améliorer le maintien en condition opérationnelle (PRA/PRI) • Sécuriser la trajectoire de migration Cloud (GCP) • Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission 1. Structurer et piloter la sécurisation du patrimoine Data 2. Mettre en œuvre les exigences PCI / PRI Data 3. Revoir et fiabiliser les habilitations On Prem & Cloud 4. Renforcer la gouvernance des données sensibles 5. Sécuriser les outils Data / BI / Data Science 6. Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Expérience • 8 à 15+ ans en sécurité SI / sécurité Data • Expérience environnement Cloud GCP impérative • Expérience PRA/PCA Data • Expérience gouvernance Data / RGPD • Capacité de pilotage transverse Compétences clés • Architecture sécurité Cloud (GCP) • BigQuery security & Data masking • IAM avancé • PRA / PRI • Data Governance • Sécurité applicative Data • Environnements Hadoop / Oracle Soft skills • Leadership transverse • Capacité à dialoguer avec RSSI & CoDir • Structuration roadmap • Vision stratégique + opérationnelle
Offre d'emploi
🔎 Data Engineer – Python / Spark / Databricks / AWS
Hexateam
Publiée le
AWS Cloud
Python
Spark Streaming
1 an
Paris, France
Mission : Data Engineer Confirmé – Python / Spark / Databricks / AWS Dans le cadre de l’évolution d’une plateforme Data centralisée, nous recherchons un Data Ingénieur confirmé pour intervenir sur le développement et l’optimisation de pipelines de données dans un environnement Big Data et Cloud AWS. Stack technique : Python • Spark • Databricks • SQL AWS (S3, Airflow, Glue, CloudWatch) Git • CI/CD • Agile / Scrum ✅ Profil recherché : Expérience confirmée en Data Engineering Bonne maîtrise de Spark / Databricks Expérience Cloud AWS
Mission freelance
Data architect H/F
HAYS France
Publiée le
6 mois
450-500 €
Luxembourg
Responsabilités clés : Le département Risk a décidé de refondre ses outils de reporting réglementaire et interne pour l'ensemble du Groupe. La solution cible reposera sur la collecte des sources de données via notre Microsoft Data Platform, ainsi que sur la transformation des données et la production d'une grande partie du reporting Risques du Groupe à l'aide de l'outil WKFS RiskPro, et, pour une liste limitée de rapports, via Risk EUC et des rapports / tableaux de bord Power BI. Reporting Risques : IRRBB, Liquidité, Trading, Contrepartie. Sources de données à intégrer : rapports Cognos, Standard & Poor's, Bloomberg, Fonds de pension, Liquidité intrajournalière. Compétences techniques : Azure Synapse Analytics, Azure Data Factory, SQL/ELT, Power BI, Purview, CI/CD. Tâches principales Définir, détailler et documenter l'architecture cible Risk Définir la liste et les caractéristiques des dataflows à mettre en œuvre Concevoir le modèle de données requis pour le reporting risques (IRRBB, Liquidité, etc.) afin de faciliter l'intégration dans WKFS RiskPro Définir les règles de transformation (haut niveau) Garantir l'application des standards Groupe (sécurité, gestion des données, etc.)
Offre d'emploi
Data Engineer (H/F)
AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API
3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1701 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois