L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 950 résultats.
Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance
Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud
12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Mission freelance
Data Analyst Performance
CAT-AMANIA
Publiée le
Confluence
JIRA
Tableau Desktop
12 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Dans un contexte de pilotage de la performance IT et de suivi des activités opérationnelles, vous intervenez en tant que Data Analyst afin d’analyser les indicateurs liés au turnover IT (ressources, activité, performance, incidents) et d’identifier des leviers d’optimisation. Vous êtes en charge du suivi, de l’analyse et de la restitution des données à destination des équipes métiers et techniques, avec une forte autonomie et un rôle clé dans la prise de décision. Suivre et analyser les indicateurs de performance liés au turnover IT (entrées/sorties, staffing, charge, performance opérationnelle) Concevoir, maintenir et faire évoluer des tableaux de bord de pilotage (KPI, reporting opérationnel et stratégique) Identifier les anomalies, signaux faibles et dérives dans les données (qualité, performance, organisation) Produire des analyses détaillées et formuler des recommandations d’optimisation Consolider et fiabiliser les données issues de sources multiples Animer des réunions de restitution (comités de pilotage, comités opérationnels) Collaborer avec les équipes métiers et techniques pour activer des leviers d’amélioration Challenger les processus existants et proposer des axes d’optimisation data-driven
Mission freelance
Architecte DATA Modélisation - Assurance
CAT-AMANIA
Publiée le
MEGA HOPEX
TOGAF
UML
3 ans
550-710 €
Île-de-France, France
Nous recherchons un Architecte Data / Expert en Modélisation pour rejoindre une équipe d'Architecture Solutions SI. Votre mission consistera à définir l’architecture de données des projets stratégiques, en assurant la cohérence entre les besoins métiers et les objectifs de rationalisation du système d'information. Vos principales missions : Réaliser la modélisation fonctionnelle des objets métiers (MFC) à partir des modèles de référence. Assurer la mise à jour de la cartographie applicative et data sous Mega HOPEX . Accompagner les équipes de développement dans la déclinaison des modèles logiques (MLD) et physiques (MPD). Produire les dossiers d'architecture et porter les engagements techniques lors des comités de validation. Animer la communauté architecture et participer à l'acculturation des équipes aux normes de données. Environnement technique & méthodologique : Méthodes : TOGAF, UML, Merise. Frameworks : Scrum, Safe, Cycle en V. Écosystème : Java, Environnements Mainframe (Cobol/DB2) et Open (Oracle, PostgreSQL), Big Data (Cloudera), DataGalaxy.
Offre d'emploi
QA DATA
KOUKA
Publiée le
CI/CD
Cypress
JIRA
40k-45k €
Île-de-France, France
La définition et la mise en œuvre de stratégies de tests sur les flux de données La validation des données (contrôles SQL, cohérence, complétude, intégrité) La rédaction et l’exécution de cas de tests fonctionnels et techniques L’automatisation des tests (API, UI, data pipelines) La collaboration avec les équipes Data, Dev et Produit Le suivi des anomalies et leur résolution Langages / Data : SQL Gestion des tests : JIRA / XRAY Méthodologie : BDD – Gherkin Tests automatisés : Cypress Tests API : Postman / Newman CI/CD : GitLab Versioning : Git
Mission freelance
Data Migration & Integration Lead
Montreal Associates
Publiée le
30 mois
600-650 €
75001, Paris, Île-de-France
Bonjour, 🚫 𝐏𝐀𝐒 𝐃𝐄 𝐒𝐎𝐔𝐒-𝐓𝐑𝐀𝐈𝐓𝐀𝐍𝐂𝐄!🚫 Je recherche actuellement pour un de mes clients un profil : 🔔 𝐋𝐞𝐚𝐝 𝐃𝐚𝐭𝐚 𝐌𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 & 𝐈𝐧𝐭𝐞́𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐴𝑦𝑎𝑛𝑡 𝑑𝑒 𝑏𝑜𝑛𝑛𝑒 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑𝑒 𝑙𝑎 𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛 𝑆𝐴𝑃 𝑆𝑜𝑙𝑖𝑑𝑒 𝑒𝑥𝑝𝑒́𝑟𝑖𝑒𝑛𝑐𝑒 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛𝑛𝑒𝑙𝑙𝑒 𝑒𝑡 𝑡𝑒𝑐ℎ𝑛𝑖𝑞𝑢𝑒 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑑𝑜𝑛𝑛𝑒́𝑒 𝑀𝑎𝑖𝑡𝑟𝑖𝑠𝑒 𝑑𝑒𝑠 𝑜𝑢𝑡𝑖𝑙𝑠 𝑑𝑒 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 (𝐿𝑆𝑀𝑊, 𝑀𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝐶𝑜𝑐𝑘𝑝𝑖𝑡, 𝐸𝑇𝐿) 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑖𝑛𝑡𝑒́𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑆𝐴𝑃 (𝐼𝐷𝑂𝐶...) 𝐵𝑜𝑛𝑛𝑒 𝑐𝑜𝑚𝑝𝑟𝑒́ℎ𝑒𝑛𝑠𝑖𝑜𝑛 𝑑𝑒𝑠 𝑝𝑟𝑜𝑐𝑒𝑠𝑠𝑢𝑠 𝑚𝑒́𝑡𝑖𝑒𝑟 : 𝐹𝐼 𝐶𝑂, 𝑆𝐷 𝑀𝑀, 𝐻𝑅 🎯 𝐌𝐢𝐬𝐬𝐢𝐨𝐧 𝐈𝐧𝐭𝐞𝐫𝐯𝐞𝐧𝐢𝐫 𝐝𝐚𝐧𝐬 𝐮𝐧 𝐞𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐜𝐨𝐦𝐩𝐥𝐞𝐱𝐞, 𝐢𝐧𝐭𝐞𝐫𝐧𝐚𝐭𝐢𝐨𝐧𝐚𝐥, 𝐦𝐮𝐥𝐭𝐢-𝐬𝐲𝐬𝐭𝐞̀𝐦𝐞 (𝐒𝐀𝐏 & 𝐬𝐨𝐥𝐮𝐭𝐢𝐨𝐧𝐬 𝐭𝐢𝐞𝐫𝐜𝐞𝐬) 𝐚𝐯𝐞𝐜 𝐝𝐞𝐬 𝐞𝐧𝐣𝐞𝐮𝐱 𝐟𝐨𝐫𝐭𝐬 𝐚𝐮𝐭𝐨𝐮𝐫 𝐝𝐞 𝐥𝐚 𝐜𝐨𝐧𝐭𝐢𝐧𝐮𝐢𝐭𝐞́ 𝐛𝐮𝐬𝐢𝐧𝐞𝐬𝐬 𝐞𝐭 𝐥𝐚 𝐪𝐮𝐚𝐥𝐢𝐭𝐞́ 𝐝𝐞 𝐝𝐨𝐧𝐧𝐞́𝐞𝐬. - Assurer la cohérence et la fiabilité des intégrations - Piloter les activités de migration de données et de cutover - Garantir la continuité des processus métiers (Finance, RH...etc.) - Avoir un rôle de référent transverse 🔊 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐜𝐨𝐮𝐫𝐚𝐧𝐭 obligatoire 📍𝐈𝐃𝐅 - 2/3j semaine sur site 🕐 ASAP - 3 𝐦𝐨𝐢𝐬 𝐫𝐞𝐧𝐨𝐮𝐯. Montreal Associates is acting as an Employment Business in relation to this vacancy.
Mission freelance
Senior Data Engineer
Signe +
Publiée le
DBT
12 mois
400-580 €
Vélizy-Villacoublay, Île-de-France
🎯 MISSIONS Concevoir et déployer des pipelines ETL/ELT performants (complets, incrémentaux, historiques) Construire et maintenir des Data Warehouses, Data Marts et cubes décisionnels Intégrer des données via API, transferts de fichiers, Data Lakes Optimiser les performances SQL et gérer les incidents en production Contribuer aux phases de cadrage / data discovery avec les parties prenantes Appliquer les bonnes pratiques dev, tests et déploiement en Agile Livrables attendus : Composants data développés et déployés (code source) Documentation technique et fonctionnelle Modèles de données documentés Rapports de tests/recette + transfert de connaissances 🛠️ ENVIRONNEMENT TECHNIQUE Obligatoire : SQL Server (Database Engine, SSIS, SSAS) Power BI / Reporting Services SQL avancé, DAX, MDX Talend et/ou SSIS (ADF apprécié) CI/CD : Azure DevOps, GitLab Architecture : Data Warehouse, Data Lake, Médaillon Apprécié : DBT, Trino, MinIO GCP (BigQuery, GCS, Dataproc) 👤 PROFIL RECHERCHÉ Senior Data Engineer avec expertise confirmée Microsoft SQL Server Expérience solide en ETL industrialisé (Talend / SSIS) Bonne maîtrise des architectures data modernes Anglais courant indispensable Méthode Agile maîtrisée
Mission freelance
Expert Data Quality - Azure & IA
STHREE SAS
Publiée le
6 mois
75001, Paris, Île-de-France
🚀 Expert Data Quality / Architecte Data - Azure & IA 📍 Paris | 💼 Mission longue | 🌍 FR / EN 🎯 Contexte Nous recherchons un expert Data Quality senior pour intervenir sur une plateforme data Azure à fort enjeu métier (finance / asset management) . L'objectif : structurer, automatiser et industrialiser la qualité des données , tout en exploitant les nouvelles capacités de l'IA . 🧩 Votre mission Vous interviendrez comme référent Data Quality / Architecte , avec une vision bout‑en‑bout : 🔍 Auditer l'existant et définir une stratégie Data Quality cible ✅ Concevoir et déployer des règles de qualité (complétude, cohérence, unicité, fraîcheur…) ⚙️ Automatiser les contrôles, rejets fonctionnels, alertes et workflows 📊 Mettre en place le monitoring, le reporting et les KPI de qualité 🤖 Intégrer l' IA pour : générer des règles de qualité détecter anomalies et dépassements de seuil faciliter les contrôles en langage naturel 🧑🤝🧑 Travailler avec les équipes IT et métiers et assurer le transfert de compétences 🛠️ Environnement technique Microsoft Azure Data Platform (Data Lake, Data Factory, Synapse, Purview) PySpark / SQL Power BI (exposition des KPI qualité) Data Governance & Data Quality frameworks 👤 Profil recherché 🎓 Bac+5 (école d'ingénieur ou équivalent) 🧠 7 à 12 ans d'expérience en qualité des données / data management 🏦 Expérience en finance / banque / asset management appréciée 🏗️ Profil Lead / Architecte , autonome et structurant 🌍 Français et anglais professionnels 🌟 Pourquoi cette mission ? Enjeux data critiques et visibles au plus haut niveau Plateforme Azure moderne Forte ambition autour de l'IA appliquée à la Data Rôle clé avec impact stratégique 📩 Intéressé(e) ? Envoyez‑nous votre profil ou échangeons rapidement.
Offre d'emploi
Data Ingénieur - spécialisé ODM / IA
VISIAN
Publiée le
IA
1 an
Nantes, Pays de la Loire
Contexte Intégration au sein de l'IA Factory en qualité de Data Ingénieur spécialisé ODM, avec pour objectif de renforcer les capacités de modélisation et d'automatisation des règles métier. Dans le cadre de l'accélération de l'intelligence artificielle au sein de la banque commerciale en France d'une grande banque internationale. Missions Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée. Responsable de la mise en œuvre du pipeline d’ingestion des données brutes (Data Lake ou autre). Assurer l'industrialisation, la supervision et l'intégration des solutions ou des données en garantissant l'engagement de service de l'environnement de production. Rédaction et formalisation des règles métier. Test, recette et validation des règles métier développées. Maintenance et évolution des règles au sein des outils de Rule Designer et Décision Center. Analyse des besoins fonctionnels et modélisation des processus décisionnels. Assistance au PO proxy (aide pour planifier les ateliers, rédaction de certains documents projets…). Animation et structuration des ateliers de travail, rédaction des comptes rendus et livrables associés.
Offre d'emploi
DATA ENGINEER JAVA / SCALA ( 460€ max)
BEEZEN
Publiée le
Scala
6 mois
40k-61k €
340-460 €
Île-de-France, France
Solide expérience en développement avec des langages comme Scala et/ou Java, et une compréhension approfondie des concepts de programmation fonctionnelle. Compétences avérées dans l'utilisation de plateformes de streaming de données comme Apache Kafka, et de frameworks de traitement de données distribuées comme Apache Spark. Expérience significative dans le domaine de la Data et du Cloud, notamment sur Google Cloud Platform (GCP). Très bonne maîtrise de BigQuery et du SQL avancé, avec une expérience sur des traitements de gros volumes de données. Maîtrise de SQL pour la manipulation, l’analyse et la valorisation de données. Connaissance approfondie de DBT (Data Build Tool) pour la gestion et l’orchestration de pipelines de données. Expérience avec Pubsub pour la gestion de flux de données en temps réel. Maîtrise des outils de CI/CD, en particulier via GitLab CI/CD et Docker Compose, pour l’automatisation des workflows data. Bonne connaissance de l’environnement Linux et des outils de ligne de commande. Expérience solide avec les systèmes de gestion de version (Git). Travail en méthodologie agile (Scrum), avec une capacité à collaborer efficacement dans des équipes pluridisciplinaires.
Offre d'emploi
Product Owner Softphonie & Data Governance
UMANTIC
Publiée le
45k-60k €
Guyancourt, Île-de-France
Product Owner - Softphonie Teams & Gouvernance de la donnée (Microsoft Purview) ? Guyancourt (78) | ?? Démarrage : 01/05/2026 | ?? 6 mois renouvelables - 120 jours * * * Contexte Au sein d'un centre de compétences Digital Workplace, l'équipe Collaboration & Messagerie pilote l'intégration, l'ingénierie et l'exploitation N3 des solutions Microsoft (on-premise et on-line). Dans ce cadre, nous recrutons un(e) Product Owner chargé(e) du pilotage fonctionnel des services de Softphonie Teams et des dispositifs de gouvernance de la donnée via Microsoft Purview. Il s'agit d'un rôle fonctionnel et de coordination, non d'expertise technique. * * * Missions principales * Porter la vision produit des services Softphonie Teams et gouvernance de la donnée * Recueillir, analyser et formaliser les besoins des parties prenantes (métiers, IT, sécurité, conformité) * Prioriser et piloter les évolutions fonctionnelles en lien avec la roadmap Digital Workplace * Coordonner les équipes techniques, télécoms, sécurité, gouvernance IT et métiers * Contribuer à la mise en oeuvre de la gouvernance des usages et des données (classification, conformité, bonnes pratiques) via Microsoft Purview * Produire les livrables de cadrage : notes, présentations, reporting
Offre d'emploi
Consultants MS BI Confirmés H/F
MGI Consultants
Publiée le
Azure Data Factory
Microsoft Power BI
Paris, France
Notre client, leader de la transformation urbaine bas carbone, est un groupe français présent sur l’ensemble des métiers de l’immobilier (logement et bureaux ; activités dans les énergies renouvelables, les Datacenters et l’investissement immobilier). Avec sa capacité à porter de grands projets mixtes, il s’impose comme le premier développeur immobilier des territoires en France. Au sein de la Direction des Systèmes d’Information, le Pôle Data recherche un Consultant Microsoft BI confirmé. Sa mission principale sera de prendre en charge les développements liés au projet de reporting pour l’activité énergies renouvelables. Objectifs de la mission Concevoir des modèles de données adaptés Créer et optimiser des bases de données et entrepôts de données (SQL Server principalement) Prendre en charge les développements de rapports Power BI Prendre en charge les développements de scripts SQL/Procédures Prendre en charge les développements des pipelines Azure Data Factory Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality) Être force de propositions sur les optimisations de traitement Rédaction de la documentation (spécifications techniques), recettes Gestion du code source via Microsoft Devops et déploiement CI/CD Préparation des livrables pour les mises en production
Mission freelance
[SCH] Data Ops - 1468
ISUPPLIER
Publiée le
10 mois
300-345 €
Niort, Nouvelle-Aquitaine
Dans le cadre de ses activités Data, le client souhaite renforcer l’industrialisation et l’automatisation de l’exploitation informatique autour des flux de données et de leur orchestration. La mission consiste à mettre en place des outils et des méthodes permettant d’améliorer la gestion des pipelines Data, tout en assurant une meilleure collaboration entre les équipes de développement et d’exploitation. Le consultant interviendra notamment sur l’intégration des pratiques d’infrastructure as code dans les processus d’orchestration des données, ainsi que sur l’optimisation des chaînes CI/CD. Une attention particulière sera portée à la fiabilisation des déploiements, à la gestion des versions des configurations, ainsi qu’au monitoring des assets en lien avec les équipes d’exploitation. Le consultant participera également à la configuration des environnements, notamment via les runners GitLab, afin de garantir la continuité des déploiements. Objectifs et livrables : -Concevoir et maintenir des services d’assistance FINOPS, notamment autour de l’observabilité -Mettre en place et optimiser les pipelines CI/CD et les tests automatisés -Assurer la configuration et la gestion des runners GitLab -Garantir la gestion des versions et la reproductibilité des déploiements -Mettre en place des solutions de monitoring des assets Data -Accompagner les équipes d’exploitation sur les bonnes pratiques, outils et technologies -Rédiger et maintenir la documentation technique (configurations, processus, workflows)
Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python
IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks
8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Offre d'emploi
Consultant Data SQL / MSBI
UCASE CONSULTING
Publiée le
Cognos
Microsoft SSIS
3 ans
50k-55k €
500-600 €
Paris, France
Bonjour à tous 👋 Dans le cadre d’une mission longue en environnement bancaire, je recherche un consultant Data expérimenté sur SQL / T-SQL / SSIS , pour intervenir sur une mission stratégique. Il aura pour rôle central de consolider, fiabiliser et valoriser les données clients afin de produire des analyses stratégiques et des indicateurs clés pour l’entreprise. Il intervient sur des projets à fort impact : lancement de produits, consolidation financière, analyses de risques, pilotage de l’activité, et contribue directement à la prise de décision. Au cœur de l’écosystème data, il collabore étroitement avec les équipes Data Engineering, Data Science, Architecture, ainsi qu’avec les experts métiers Finance, Risque, Marketing. Il sera en charge de vulgariser ses analyses, comprendre les enjeux business et proposer des solutions adaptées. Livrables attendus : Challenge, cadrage, chiffrage et priorisation des besoins métiers. Exploration, analyse et fouille de données Développement et industrialisation de traitements data. Suivi opérationnel du RUN et amélioration continue. Rédaction et mise à jour de la documentation technique et fonctionnelle.
Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans
Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop
3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Offre d'emploi
Data Engineer
TEOLIA CONSULTING
Publiée le
Google Cloud Platform (GCP)
PL/SQL
12 mois
45k-50k €
400-430 €
Lille, Hauts-de-France
Dans le cadre de sa transformation digitale, notre client, grand acteur du retail, cherche à renforcer son équipe produit Data pour faire évoluer une plateforme stratégique de gestion et d’optimisation des approvisionnements. Cette plateforme traite des volumétries importantes de données et joue un rôle clé dans la prise de décision métier . 🎯 Vos missions Intégré(e) à une équipe produit agile, vous intervenez sur : 🔧 Data Engineering (GCP) Conception et développement de pipelines ETL/ELT Traitement et intégration de données (APIs, fichiers, bases) Optimisation des performances sur BigQuery Orchestration des flux (Airflow / Composer) 🛠️ Run & support Analyse et résolution d’incidents (N2/N3) Écriture de scripts Bash pour automatisation Requêtes SQL complexes pour diagnostic et exploitation 📊 Data & monitoring Garantie de la qualité et cohérence des données Mise en place de monitoring et alerting (Grafana, outils GCP) Création de dashboards de suivi ☁️ Infrastructure & industrialisation Participation à l’IaC (Terraform) Contribution à la CI/CD (GitLab CI) Amélioration continue des pipelines et process 🧰 Environnement technique Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer) Data : SQL avancé, ETL/ELT Scripting : Bash CI/CD & IaC : GitLab CI, Terraform Monitoring : Grafana, outils GCP Bases de données : BigQuery, Oracle OS : Linux
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4950 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois