L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 940 résultats.
Mission freelance
CP Data Migration SAP - MDM
Atlas Connect
Publiée le
Coupa
CRM
Data governance
12 mois
580-690 €
Paris, France
🎯 Contexte de la mission Dans le cadre d’un vaste programme de transformation finance et digitalisation, notre client renforce son dispositif autour des sujets Data Model & Data Migration sur les périmètres : Performance Opérationnelle Finance Run des applications Finance (P2P et CRM) Programme Source-to-Pay Déploiement de Sirion (France & USA) Harmonisation des outils Migration et transformation des modèles de données Intégration future dans un référentiel MDM Projet S/4HANA Environnement international avec fort enjeu de coordination. 🚀 Missions principales Le Chef de Projet Data Migration sera responsable de la coordination et du pilotage des sujets liés au modèle de données et à la migration dans un environnement multi-outils. 📌 Pilotage Data Migration Définir et piloter la stratégie de migration des données Superviser la qualité, la transformation et la cohérence des données Garantir l’alignement avec les modèles cibles Anticiper l’intégration future dans le MDM 📌 Coordination transverse Mettre autour de la table les équipes métiers, IT et intégrateurs Animer les comités projets Arbitrer et prioriser les chantiers Assurer la cohérence entre P2P, CRM, Sirion et S/4HANA 📌 Programme & Outils Contribution au programme Nexus Pilotage data sur le périmètre Source-to-Pay Harmonisation des outils finance et procurement Compréhension des enjeux autour des outils de type StoS ⚠️ Le poste n’est pas orienté technique d’implémentation : → Pas de mise en place d’interfaces → Pas de déclenchement technique d’outils → Rôle orienté pilotage, coordination, gouvernance data 🧠 Profil recherché🎓 Expérience Minimum 8 ans d’expérience en gestion de projet data / transformation Expérience confirmée en migration de données dans des environnements complexes Expérience sur des programmes internationaux fortement structurants 💻 Compétences techniques Bonne connaissance de : SAP (idéalement S/4HANA) Coupa Environnements P2P / Source-to-Pay Connaissance de Tibco : un plus Compréhension des problématiques MDM Vision data model & gouvernance 🌍 Langues Anglais obligatoire
Offre d'emploi
Expert Data Security (H/F)
KORAY-IT
Publiée le
Sécurité informatique
12 mois
65k-75k €
600-650 €
Île-de-France, France
Vos missions principales : Expertise technique avancée sur les solutions Symantec (SEP, DLP) Expertise sur les solutions Trend Micro (APEX One, Deep Security, DDEI) Expertise sur Active Identity (HID) Expertise sur Fortra – ICAP Gateway Administration et évolution de l’offre Data Security Participation aux projets d’ automatisation et de fiabilisation Support technique niveau 3 Rédaction de dossiers et d’avis techniques Élaboration de roadmaps sécurité Présentations techniques auprès des équipes projets et opérationnelles Participation aux astreintes et interventions HNO
Mission freelance
Data ingénieur Databricks & Power BI Full remote ASAP
WorldWide People
Publiée le
Databricks
6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
Offre d'emploi
Data engineer informatica expérimenté H/F
TOHTEM IT
Publiée le
40k-45k €
Toulouse, Occitanie
Pour un client, nous recherchons un·e Data Engineer Informatica expérimenté·e . Tu interviens sur un environnement data structurant avec un objectif clair : challenger les modèles de données et les flux existants, les optimiser et les rendre plus robustes . Le contexte technique évolue vers Informatica Cloud : tu seras donc amené·e, au fil des sujets, à manipuler de plus en plus IICS en complément de PowerCenter. Tes missions Analyser et challenger les modèles de données Revoir les flux ETL Informatica pour : améliorer les performances simplifier les traitements renforcer la qualité des données Concevoir des solutions pérennes et industrialisées Intervenir sur des problématiques complexes de production Travailler avec les équipes métier, architecture et data Être force de proposition sur les choix techniques ➡ Dans le cadre de la mission, tu toucheras progressivement à : Informatica Cloud (IICS) nouveaux patterns d’intégration architectures data plus modernes
Offre d'emploi
Administrateur/Ingénieur Système et Réseau
TDS
Publiée le
Active Directory
Administration linux
Ansible
1 an
38k-60k €
350-550 €
Strasbourg, Grand Est
Descriptif de mission — Administrateur / Ingénieur Systèmes (Build & Run) Secteur : Groupe industriel international spécialisé dans les solutions d’étanchéité, d’isolation et de couverture pour le bâtiment. Effectif : ~10 000 collaborateurs. Dans un contexte de forte croissance externe (plus de 140 projets d’intégration d’usines et sociétés en Europe), nous renforçons notre département Infrastructure Europe afin d’accompagner les activités Build & Run. La mission s’inscrit dans un environnement industriel exigeant, avec des enjeux forts de redondance et haute disponibilité pour des sites de production opérant en 24/7. Missions principales Renfort de l’équipe Systèmes Infrastructure Europe Participation aux activités Build & Run Contribution à la fiabilité et à la disponibilité des infrastructures critiques Accompagnement des intégrations techniques liées aux acquisitions Environnement technique Linux Active Directory Messagerie Idéalement : DNS, Rubrik, Ansible Contexte Environnement international Anglais requis
Mission freelance
Data Steward / Référent Gouvernance de la Donnée
ESENCA
Publiée le
Data governance
Data quality
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
🎯 Objectif global Accompagner les équipes produits dans l’exposition, la qualité et la gouvernance de leurs données , afin de garantir des données fiables, cohérentes et conformes aux standards définis. 🧩 Contexte et contraintes Enjeux forts de gouvernance et de qualité des données Nécessité d’une modélisation rigoureuse des données Collaboration transverse avec des équipes data et produits digitaux 📦 Livrables attendus Données exposées conformément aux règles de gouvernance définies Règles de qualité des données déployées et opérationnelles Évaluations régulières du respect des règles de gouvernance de la donnée 🛠️ Description de la mission Au sein d’une équipe data transverse, le Data Steward joue un rôle clé dans l’accompagnement des équipes produits digitaux afin d’assurer une gestion structurée, maîtrisée et cohérente des données tout au long de leur cycle de vie. 🎯 Missions principales Accompagner les équipes produits dans l’exposition de leurs données, en garantissant le respect des règles de gouvernance de données établies Contribuer à la définition, à la formalisation et au déploiement des règles de qualité des données Garantir la certification des données exposées , selon les standards et référentiels en vigueur Évaluer le niveau de conformité des données aux règles de gouvernance Participer à l’amélioration continue des pratiques de gouvernance de la donnée, en coordination avec les autres référents data Sensibiliser et acculturer les équipes aux enjeux de qualité, traçabilité et fiabilité des données 🧠 Compétences techniques requises Confirmé – Impératif Gouvernance de données Qualité des données Confirmé – Important Modélisation de données Confirmé – Souhaitable Environnements Cloud (GCP) Outils de visualisation et reporting (Power BI) 🌍 Compétences linguistiques Français courant – Impératif Anglais professionnel – Secondaire 🤝 Compétences transverses Capacité d’accompagnement et de pédagogie Sens de la rigueur et de la qualité Esprit de collaboration et travail transverse Capacité d’analyse et de synthèse Orientation amélioration continue
Mission freelance
Senior Data Analyst / Data Modeler (B2B) (H/F)
Freelance.com
Publiée le
Merise
1 an
400-520 €
Paris, France
2 jours de TT Contexte de la mission Dans le cadre d’un programme stratégique de transformation Data B2B, notre client construit une nouvelle plateforme de données cloud selon une approche Greenfield , visant à reconstruire les produits de données plutôt qu’à effectuer une migration classique des systèmes existants. La mission s’inscrit au sein d’une Core Team transverse fonctionnant en mode Agile , chargée de concevoir le socle technique et les données de référence qui permettront aux équipes métiers de développer leurs futurs cas d’usage analytiques et data science. Objectifs de la mission Le consultant interviendra en tant que référent en modélisation et connaissance de la donnée , avec un rôle clé d’interface entre les experts métiers et les équipes data engineering. Il contribuera à structurer une vision data robuste, gouvernée et orientée usage. Périmètre et responsabilités Concevoir le Core Model et modéliser les objets métiers structurants (vision client 360, contrats, facturation, parc, etc.) dans le datawarehouse cloud (modèles dimensionnels / Data Vault). Définir et prototyper en SQL les règles de rapprochement et d’unicité permettant de fiabiliser la donnée client. Analyser les sources legacy afin d’identifier les règles de gestion implicites et cartographier les écarts avec la cible. Mettre en place la gouvernance des données : dictionnaire de données, métadonnées, définitions fonctionnelles et règles de qualité. Préparer des datasets certifiés pour faciliter le travail des Data Scientists et Data Analysts. Collaborer étroitement avec les équipes métiers et le Lead Data Engineer dans un environnement Agile. Adopter une approche pragmatique orientée delivery avec une production incrémentale de valeur. Livrables attendus Modèles Logiques de Données (MLD) validés. Mapping source-to-target détaillé. Spécifications SQL des règles d’unicité client et des clés de réconciliation. Matrice de gestion des cas particuliers. Business glossary intégré au Data Catalog. Définition des règles de qualité des données. Requêtes d’analyse d’impact et datasets de test. Environnement technique Plateforme Cloud moderne BigQuery SQL avancé Data Catalog / gouvernance Méthodologie Agile / Scrum Profil recherché Expertise confirmée en modélisation de données (Merise, 3NF, Star Schema, Kimball, Data Vault). Excellente maîtrise du SQL et capacité à manipuler des jeux de données complexes. Forte compétence en analyse fonctionnelle et capacité à dialoguer avec des interlocuteurs métiers (marketing, finance, etc.). Expérience significative dans des environnements Agile . Expérience de la modélisation dans des environnements Cloud indispensable. La connaissance d’environnements B2B et de structures de comptes complexes constitue un plus. Soft skills attendues Esprit de synthèse Force de proposition Autonomie Pragmatisme Excellentes capacités de communication Informations complémentaires Compte tenu des enjeux du programme et de la criticité du calendrier, seuls les profils disposant d’une expérience solide en modélisation agile dans le cloud seront considérés.
Offre d'emploi
Responsable Master Data (H/F) - 93
Mindquest
Publiée le
Data Warehouse
ETL (Extract-transform-load)
Master Data Management (MDM)
Villepinte, Île-de-France
Je recherche pour l’un de mes clients, acteur de référence en Europe spécialisé dans la location de solutions frigorifiques et de véhicules sous température dirigée, un Responsable Master Data. Dans un environnement multi-ERP et multi-applicatif, ce poste joue un rôle central dans la fiabilité et la gouvernance des données de référence. Vous intervenez au cœur des enjeux de transformation digitale, de migration ERP (dont SAP) et d’urbanisation du SI. Véritable référent Master Data, vous garantissez la qualité, la cohérence et l’unicité des données stratégiques de l’entreprise. Mission Gouvernance & qualité des données - Définir et faire évoluer le dictionnaire de données (modèles, attributs, règles) - Garantir les standards de gouvernance et mettre en place les KPIs de Data Quality - Assurer la cohérence et l’unicité des référentiels Flux & interopérabilité - Piloter les interactions entre ERP (dont SAP) et outils métiers (CRM, WMS, BI…) - Superviser les flux ETL / ELT avec les équipes techniques - Contribuer à l’urbanisation du SI Data Migration de données - Sécuriser les projets de migration ERP - Définir les règles de mapping et de transformation - Participer aux phases de tests, validation et mise en production Management & coordination - Encadrer et faire monter en compétence une équipe de Data Stewards - Assurer l’alignement entre métiers, IT et gouvernance Data - Participer aux comités de gouvernance
Mission freelance
Ingénierie Méthodes & Data Analyst (Production Data & Master Data)
Mon Consultant Indépendant
Publiée le
Data analysis
6 mois
540-590 €
Paris, France
Profil recherché : Ingénierie Méthodes & Data Analyst (Production Data & Master Data) Finalité de la mission : Dans le cadre de la mise en place du projet SAP, recherche d'une expertise Méthodes / Logistiques / Data analyst afin de : • Supporter l’équipe dans la structuration et la migration des données de production, méthodes, et logistique usine, entre notre système actuel M3 et notre futur système SAP S/4HANA • Garantir la fiabilité, la cohérence et la qualité des données de production et des « Master Data » dans SAP Missions principales : Gestion & fiabilisation des Master Data Production : • Participer à la revue des Master Data de production (nomenclatures (BOM), gammes de production, postes de charge, fiches article et vues MRP). • Vérifier que les données techniques sont complètes pour permettre la création et l’exécution correcte des OF (BOM active, gamme active, UM cohérentes, conversions d’unité, stratégies MRP…). • Garantir l’intégrité des données utilisées par la planification (MRP) et la logistique interne (PSA, staging, stockage). • Vérification de la cohérence du paramétrage interne à SAP en lien avec les règles de gestion définies • Contribuer en appui du BPO et du Data Manager à l’homogénéisation sur le paramétrage des Data entre usines (exemple pour la sous-traitance de production) • Coordonner et être en soutien du nettoyage des données sources avec les usines et les méthodes • Vérifier la cohérence des données de production vis-à-vis des règles de gestion établies • Participer à la constitution des fichiers de création, de migration et de chargement des données en lien avec notre Data Manager • Proposer éventuellement des améliorations ou des ajustements dans nos choix métiers en cours de définition pour ensuite correction lors de la phase des tests Support & gouvernance data : • Aider à la rédaction des SIT en particulier sur les données de Production, des Méthodes et de la Logistique Usine • Participer à la définition du dictionnaire de données et des règles de gouvernance. • Formaliser pour la Production et les Méthodes, et la Logistique Usine les règles de création, modification des Master Data et des données production à l'aide de procédures
Mission freelance
Lead DATA Analyst (Expertise retail &Ventes)
Atlas Connect
Publiée le
Agile Scrum
Azure
Big Data
2 ans
540-580 €
Paris, France
Profil recherché – Data Analyst Lead (Expert) Nous recherchons un Data Analyst Lead senior (10+ ans d’expérience) disposant d’une forte expertise en analyse et conception de solutions data, dans un environnement Grande Distribution . Le candidat devra : Posséder une expérience significative en Grande Distribution (impératif) Être capable de concevoir, challenger et sécuriser des solutions data complexes Avoir une solide maîtrise de la modélisation de données Être reconnu pour son leadership transverse Savoir accompagner et faire monter en compétence une équipe de Data Analysts Être à l’aise dans l’animation d’ateliers, de communautés et d’instances de gouvernance Comprendre les enjeux business retail et les usages métiers de la donnée 🛠 Compétences techniques attendues 🔴 Compétences impératives Connaissance opérationnelle de la Grande Distribution KPI : ventes, marge, stock, approvisionnement Pilotage de la performance magasin Logiques multienseignes Compréhension des usages métiers Analyse de données (niveau confirmé / expert) Modélisation de données (niveau confirmé / expert) Conception de solutions data SQL avancé 🟠 Compétences importantes Environnements Big Data (Databricks, Azure) Python / Scala Conception de modèles de données communs Structuration et alignement des KPI métiers Data Quality / Data Observability Documentation et bonnes pratiques de développement Expérience en méthodologie SAFe / Agile 🟢 Outils & Environnement technique SQL Databricks Microsoft Azure Python / Scala Power BI MicroStrategy PowerDesigner DataGalaxy SODA Jira 🎯 Compétences comportementales (soft skills) Leadership et posture de référent Capacité à challenger et arbitrer Excellente communication transverse (IT / Métiers) Esprit structurant et rigoureux Orientation solution et performance Capacité à vulgariser des sujets complexes
Mission freelance
Senior Data Engineer – Data Platform Enabler
Gentis Recruitment SAS
Publiée le
Apache Spark
AWS Cloud
DevOps
12 mois
Paris, France
Contexte Dans le cadre du renforcement de sa Data Platform, un acteur majeur de la gestion d’actifs quantitatifs recherche un Senior Data Engineer très opérationnel pour accompagner et faire monter en compétence une communauté de plus de 50 data engineers et data scientists. Le rôle est central : interface entre les feature teams et les équipes plateforme, avec une forte dimension technique et stratégique. MissionsSupport technique hands-on Accompagnement direct des équipes sur leurs problématiques data Développement et optimisation de pipelines end-to-end Identification et réduction de la dette technique Mise en place d’outillage (tests, automation, AI agents…) Amélioration de la Developer Experience Data Platform Evangelism Promotion et adoption quotidienne de la plateforme Partage des best practices et des standards Veille technologique et diffusion interne Animation de communauté de pratique Upskilling & Transmission Évaluation du niveau des équipes Mise en place de formations, workshops, contenus techniques Création de documentation et supports techniques Feedback & Amélioration continue Collecte des besoins utilisateurs Collaboration étroite avec les équipes plateforme Validation technique des assets produits Stack TechniqueCloud AWS (S3, EMR, Glue, Athena, Lake Formation) CloudFormation / CDK Lambda, Fargate Data Engineering Python avancé Spark / Pandas Airflow Parquet Apache Iceberg DevOps CI/CD Jenkins SonarQube Conda Infra-as-Code (idéalement CDK en Python)
Offre d'emploi
Administrateur Réseaux & sécurité (F/H)
Experis France
Publiée le
33k-43k €
Angers, Pays de la Loire
Administrateur Réseaux & sécurité (F/H) - Angers 🚀 Votre mission Nous recherchons un Administrateur Réseaux (H/F) pour l'un de nos clients basé à Angers. Vos défis au quotidien : 🔹 Administration et gestion des réseaux LAN/WAN, Wi-Fi (HP Aruba) 🔹 Configuration et maintenance des firewalls (Fortinet, Palo Alto, Cisco…) 🔹 Déploiement et gestion de 100 applications dans un environnement sécurisé 🔹 Première expérience avec NSX (VmWare) appréciée 🔹 Veille technologique et amélioration continue des infrastructures réseau
Offre d'emploi
Data Engineer GCP/PYTHON
UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-600 €
Paris, France
Bonjour 😀 Nous recherchons un(e) Data Engineer GCP pour l'un de nos clients ! Contexte de la mission : Au sein de la Direction Technologie, la Data Factory est en charge du pilotage, de la conception, du déploiement et de l’exploitation des solutions technologiques répondant aux cas d’usage data et aux besoins d’automatisation, à travers des plateformes modernes et performantes. La Data Factory joue également un rôle clé dans le développement des produits data et dans la diffusion des bonnes pratiques au sein des différentes Squads, afin de renforcer la culture data et l’excellence technique. Dans ce cadre, nous recherchons un(e) Data Engineer Confirmé(e) GCP/PYTHON 🎯 Missions principales Le/LA Data Engineer interviendra sur les périmètres suivants : 🔹 Déploiement & Industrialisation Déployer des datasets normés sur les data domains suivants : Utilisateurs, Comportements, Référentiels Concevoir, développer et maintenir des pipelines data robustes, scalables et performants Organiser et structurer le stockage des données Mettre en place des infrastructures évolutives adaptées à la croissance des volumes Construire et maintenir les workflows CI/CD 🔹 Qualité & Gouvernance Mettre en place des contrôles qualité sur les datasets Garantir la fiabilité, l’intégrité et la sécurité des données Participer aux initiatives de gouvernance (Dataplex, catalogage, traçabilité) Assurer la stabilité et la sécurité des environnements 🔹 Collaboration & Support Accompagner les utilisateurs dans l’exploitation et le requêtage des données Participer activement aux phases de conception, planification et réalisation Contribuer à la documentation technique Partager les bonnes pratiques au sein de l’équipe Data Participer aux instances Data Engineering 🔹 Amélioration continue Assurer une veille technologique active Contribuer à l’évolution des standards techniques
Offre d'emploi
Data Engineer - GCP / BigQuery (H-F)
K-Lagan
Publiée le
Big Data
BigQuery
Dataiku
1 an
45k-50k €
500-550 €
Niort, Nouvelle-Aquitaine
🚀 Chez K-LAGAN, nous parions sur vous ! Vous recherchez un projet data structurant , dans un environnement moderne et orienté cloud & analytics ? Vous souhaitez évoluer sur des sujets à forte valeur ajoutée au sein d’une Data Platform ambitieuse ? Alors cette opportunité pourrait vous intéresser 👇 🔍 Nous recrutons un·e Data Engineer (F/H) confirmé Pour rejoindre l’un de nos clients et contribuer activement au développement de sa Data Fabrik , dans un environnement innovant et orienté performance. 🎯 Vos missions Définir les pré-requis techniques nécessaires aux nouveaux cas d’usage data Participer à la conception et l’implémentation de nouveaux modèles de données Développer, optimiser et maintenir les pipelines de transformation Contribuer à l’évolution des outils et bonnes pratiques Data Engineering Garantir la qualité, la fiabilité et la performance des traitements Collaborer étroitement avec les équipes Data, BI et Métiers
Mission freelance
Cloud DevOps Engineer orienté Data (GCP)
Gentis Recruitment SAS
Publiée le
DevOps
FinOps
Google Cloud Platform (GCP)
210 jours
400-450 €
Montpellier, Occitanie
Contexte Dans le cadre du renforcement d’une équipe Cloud / DevOps chez un acteur du secteur bancaire basé à Montpellier, nous recherchons un Cloud DevOps Engineer senior orienté plateformes Data. Le consultant interviendra sur la conception, l’implémentation et l’exploitation d’une infrastructure GCP containerisée destinée à supporter différents cas d’usage data (pipelines, traitements et services associés). L’objectif est d’industrialiser et d’opérer une plateforme cloud robuste, sécurisée et scalable, avec une forte culture Infrastructure as Code, GitOps et RUN. Missions principales Implémentation et administration GCP Concevoir et déployer des solutions techniques containerisées sur Google Cloud Platform Administrer et optimiser l’infrastructure GCP : GKE, GCE, GCS, Cloud SQL, VPC, Load Balancer, Private Service Connect, IAM Automatisation et industrialisation Automatiser le provisioning et la gestion des ressources cloud via Terraform et Terragrunt Concevoir et maintenir les pipelines CI/CD (GitLab CI) Standardiser les déploiements et garantir leur reproductibilité Sécurité Implémenter les bonnes pratiques de sécurité sur le cloud et Kubernetes Mettre en place la gestion des secrets et des accès (Vault, SSO) Participer au contrôle des vulnérabilités via des outils de scan (Xray, Trivy) Monitoring et observabilité Mettre en place des solutions de monitoring et d’alerting (Prometheus, Grafana, ELK) Exploiter Google Cloud Observability pour la supervision et le troubleshooting Support et RUN Assurer le maintien en conditions opérationnelles de la plateforme Opérer les déploiements et évolutions via une approche GitOps Garantir la traçabilité, la fiabilité et la conformité des déploiements Compétences indispensables Expérience significative sur Google Cloud Platform : GKE, VPC, IAM, Cloud SQL, GCS, Load Balancer Kubernetes et containerisation (Docker) Terraform et Terragrunt (niveau autonome) Git et GitLab CI Gestion des artefacts et registry : JFrog Artifactory ou GCP Artifact Registry Observabilité : Prometheus, Grafana, ELK, Google Cloud Observability Sécurité : Vault et outils de scan de vulnérabilités (Xray ou Trivy) Bonne culture réseau cloud (VPC, routage, sécurisation des flux) PostgreSQL (déploiement, administration et optimisation) Compétences appréciées Connaissance d’OpenShift Connaissance de l’orchestrateur Kestra Sensibilité aux problématiques FinOps et optimisation des coûts cloud
Mission freelance
Data Engineer
Signe +
Publiée le
Microsoft Power BI
6 mois
350-450 €
Vélizy-Villacoublay, Île-de-France
Contexte Dans le cadre des projets de transformation digitale, le consultant interviendra sur la conception, le développement et l’industrialisation de solutions data et reporting, en collaboration avec les équipes DevOps et les équipes métiers. Missions principales Participer aux différentes phases des projets Data Concevoir et maintenir Data Warehouses, Data Marts et Data Cubes Développer et maintenir des pipelines ETL (Delta / Full / Historisation) Développer et maintenir des jobs Azure Data Factory Optimiser les performances SQL, DAX, MDX Mettre en œuvre la sécurité des données (Row Level Security) Monitorer, maintenir et déboguer l’écosystème BI Mettre en place des pipelines CI/CD automatisés Rédiger la documentation technique et participer aux phases de cadrage Compétences techniques Azure Data Factory ADLS Gen2 Azure SQL DB Analysis Services Power BI GitLab / Azure DevOps SQL Server, T-SQL optimisation Data Modeling / Data Warehousing CI/CD data pipelines Profil recherché Formation supérieure informatique / data Bon relationnel et esprit analytique Capacité à travailler en environnement international
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6940 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois