Find your next tech and IT Job or contract Data Lake

Your search returns 49 results.
Contractor

Contractor job
Consultant Data

Mon Consultant Indépendant
Published on
Data Lake

6 months
570-590 €
Paris, France

Pour le compte d’un grand groupe français, nous recherchons un consultant spécialisé en data afin d’accompagner le Data Office dans la mise en conformité d’un Data Lake. La mission consiste à assurer la bonne gouvernance des données et leur alignement avec les exigences réglementaires et internes, en collaboration avec les équipes techniques et métiers. Le/la consultant(e) interviendra sur l’analyse des pratiques existantes, la définition et le suivi des plans d’action, ainsi que la mise en place de procédures garantissant la qualité, la sécurité et la conformité des données. Une bonne compréhension des environnements Big Data et des problématiques de data governance est indispensable pour réussir cette mission stratégique.

Contractor
Permanent

Job Vacancy
Chef de projet data

SARIEL
Published on
Azure
Data Lake
Databricks

3 years
40k-45k €
400-550 €
Ile-de-France, France

Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons pour notre client basé à Paris, un CHEF(FE) DE PROJET MAITRISE D'OUVRAGE – MOE - Confirmé (4-10 ans d’exp) azure - Confirmé - Impératif modelisation data - Confirmé - Impératif databricks - Junior - Important méthodo agile - Junior - Important - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Peut contribuer à l'Etude d'Opportunité (EO) pour le lancement d'un projet Est responsable de l'Etude de Faisabilité (EF) des projets qui lui sont confiés et prend en compte l'ensemble des éléments fonctionnels et techniques S'assure de l'adéquation des ressources avec les besoins du projet S'assure de l'application des directives définies en DAG (Dossier d'Architecture Général) pour structurer le projet et mobiliser les ressources nécessaires à sa bonne réalisation Contribue à la revue et à la négociation des contrats, en lien avec la Direction Juridique, les Achats Non Marchands et la Direction porteuse du projet Met en application les procédures internes ou externes Est responsable de la bonne mise en œuvre de la gouvernance du projet Pilote les actions nécessaires au respect du budget du projet Pilote et coordonne les partenaires et sous-traitants Gère et anime la communication auprès des équipes et des différentes instances Contribue à la préparation et mise en œuvre de la conduite du changement avec les métiers Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Permanent
Contractor

Job Vacancy
Data lake protection

SARIEL
Published on
Data Lake
Splunk

3 years
40k-60k €
400-550 €
Toulouse, Occitania

Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons sur Toulouse le profil suivant : Intégrer les solutions de Data Leak Protection (DLP) en établissement Contrainte forte du projet - Les livrables sont Solutions et Règles DLP Analyse des évènements générés Rapport/Tableaux de bord de l'activité Compétences techniques Outils Data Leak Prevention - Confirmé - Impératif Splunk - Confirmé - Important Développement / Scripting - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée Le département Cloud, Application, Data et Expertise Sécurité de la Direction Sécurité de BPCE-IT recherche pour le service Data Protection un expert en Data Leak Prevention de formation ingénieur pour l'accompagner dans sa mission de protection des données sensibles Au sein d'une équipe de plusieurs experts, la mission s'inscrira dans le cadre d'un projet visant à prévenir de la fuite de données. Les principales activités seront les suivantes: - Capture des besoins de protection des données sensibles métiers - Définition, paramétrages et amélioration des règles DLP - Améliorer les solutions de détections - Participer aux choix et à la mise en oeuvre des nouveaux outils - Analyse des évènement générées et optimisation des faux positifs - Suivi des rémédiations - Définition, suivi des indicateurs de l'activités - Création d'un tableau de bord Pour remplir cette mission les compétences suivantes sont demandées: - Compétences fonctionnelles et techniques sur les sujets DLP - Connaissances des outils Trellix DLP, Netskope, Splunk - Compétence de développement (PowerApp, PowerBI, Python) - Culture en SSI/Cybersécurité et en particulier sur les risques associés aux fuites d'information - Connaissances techniques générales Lieu de réalisation Toulouse Déplacement à prévoir oui - Paris, Lyon Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Contractor
Permanent

Job Vacancy
Product Owner data

1G-LINK CONSULTING
Published on
Azure Data Factory
Cybersecurity
Data Lake

6 months
Courbevoie, Ile-de-France

Nous recherchons un Product Owner expérimenté pour intervenir sur le Datalake Cybersécurité, en collaboration avec l’équipe Data de Saint-Gobain. Ce projet repose sur la dataplateforme Snowflake et PowerBI. Missions principales : Rédiger le cahier des charges et définir les plannings. Définir et analyser les KPIs avec le métier. Optimiser le calcul des KPIs et analyser les sources de données. Modéliser les données dans PowerBI et Snowflake. Définir les règles de gestion des accès et de data gouvernance. Suivre l’ordonnancement des sources et définir les règles d’historisation. Garantir la qualité et les performances des données. Gérer le backlog et les cérémonies Agile dans Jira. Réaliser les tests unitaires sur Snowflake et les tests end-to-end sur PowerBI. Rédiger la documentation fonctionnelle et technique. Mettre en place le monitoring et l’alerting des sources et de la qualité de la donnée. Assurer la communication, la formation et le support auprès des utilisateurs. Organiser des comités de pilotage et suivre le run.

Permanent

Job Vacancy
Data Analyst / Analytics Engineer (Futur Lead Data)

Agrega
Published on
Data analysis
Data Lake
Microsoft Power BI

45k-60k €
Paris, France

Sublimez l’usage de la donnée au sein de la plateforme Sincro Solutions Sincro Solutions est un éditeur de logiciels SaaS qui propose un écosystème interconnecté couvrant l’ensemble des besoins des acteurs de la prestation intellectuelle. Nos solutions VMS , ERP et SRM accompagnent la gestion des talents de bout en bout : de l’analyse de CV à la facturation, en passant par la comptabilité d’entreprise et la gestion de projet. Rejoindre Sincro Solutions , c’est participer à un projet unique, intégré et 100 % agile , dans un contexte de forte croissance. Vous évoluerez dans un environnement stimulant, qui réunit les technologies, langages, infrastructures, outils et méthodes les plus performants du marché . Missions principales Rôle et positionnement En tant que Data Analyst / Analytics Engineer , vous rejoignez le pôle Produit et intégrez l’équipe technique en charge de la construction de nouvelles fonctionnalités et de l’optimisation des performances des outils mis à disposition de nos clients internes et externes. Rattaché·e à l’ Engineering Manager , vous interviendrez principalement sur le Cloud Microsoft Azure . Ce poste représente une opportunité unique de créer la fonction Data chez Sincro Solutions et d’en devenir, à terme, le Lead Data . Analytics Engineering En tant qu’Analytics Engineer, vous jouerez un rôle clé dans le développement et la gestion du Data Lake / Data Warehouse utilisé par nos produits et nos clients. Vos responsabilités incluent notamment : Assurer la qualité des données : garantir des données propres, sécurisées et anonymisées dès leur entrée dans le système, en collaboration avec les équipes Data Engineers, ML Ops et Développement. Développer et maintenir des pipelines de transformation : concevoir et maintenir des flux de données en SQL et Python , sur BigQuery ou équivalents. Vous transformerez les données générées par nos clients et les enrichirez avec des sources tierces. Améliorer et documenter les flux de données : faire évoluer les pipelines selon les besoins métiers et techniques, tout en assurant une documentation claire et à jour sur la traçabilité des données. Data Analysis Vous soutenez l’équipe Data & Performance dans l’analyse et l’exploitation des données afin de favoriser la prise de décision stratégique et la compréhension des indicateurs clés . Vos missions principales : Création et maintenance de dashboards Power BI Explorer le Sincro Data Warehouse et concevoir des KPIs pertinents . Développer et maintenir des dashboards Power BI à destination des équipes métier et des clients. Conseiller les Product Owners et les utilisateurs sur les meilleures pratiques de data visualisation . Analyse et interprétation des données Produire des reportings et analyses pour soutenir la stratégie d’entreprise. Identifier et comprendre les dynamiques métiers : recrutement, pipeline commercial, sourcing de talents, contractualisation, facturation, comptabilité, etc. Profil recherché Expérience et formation Minimum 4 ans d’expérience en data analyse ou analytics engineering. Formation Bac +5 (école d’ingénieurs, master Big Data, mathématiques/statistiques ou équivalent). Bonne compréhension des enjeux de gestion d’entreprise . Une expérience en DataOps est un réel atout. Qualités personnelles Organisé·e, rigoureux·se, curieux·se et autonome. Excellente communication écrite et orale, esprit d’équipe et aisance relationnelle. Bon niveau d’anglais (oral et écrit). Goût pour l’apprentissage et l’autoformation, notamment sur des aspects techniques. Compétences techniques Domaine Compétences attendues BI / Data Visualisation Maîtrise indispensable de Power BI SQL Solide expérience en manipulation de données ( BigQuery, MySQL, Fabric , etc.) ETL / Data Transformation Expérience avec Azure Data Factory , dbt , Dataiku ou équivalents Comptabilité & Finance d’entreprise Connaissances en analyse de données dans ces domaines appréciées Langages Bonne maîtrise de SQL , notions de Python appréciées Machine Learning Connaissances de base bienvenues Ce que nous vous offrons Une place centrale dans la construction de la culture Data chez Sincro Solutions. Un projet stimulant , à fort impact, dans un environnement technique exigeant et bienveillant. Une autonomie réelle dans l’organisation de votre travail et vos choix techniques. Des collaborateurs engagés et une équipe attachée à la qualité, à la coopération et à la montée en compétence continue.

Contractor

Contractor job
Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Published on
Data Lake

6 months
400-500 €
Vitrolles, Provence-Alpes-Côte d'Azur

Ops Data Lake Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Contractor
Permanent

Job Vacancy
Concepteur Développeur Data (Lille : Villeneuve-d'Ascq)

Atlanse
Published on
Apache Airflow
BigQuery
Data Lake

3 years
40k-45k €
400-550 €
Villeneuve-d'Ascq, Hauts-de-France

Vous rejoindrez une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps). Vous travaillerez sur un use case dédié en collaboration avec les équipes Data et vous adopterez une approche FinOps visant à maîtriser et réduire les coûts. Votre rôle BUILD – Développement Participer aux projets data Supply en tant qu’interlocuteur.trice clé Concevoir des solutions en respectant les normes et framework data Développer et modéliser sous la gouvernance de l'architecture data Contribuer au développement d'applications Réaliser les tests Produire les reportings RUN – Maintien en condition opérationnelle Assurer le maintien en condition opérationnelle des 4 référentiels de données opérationnels (RDO) multi sourceurs et de 15 applications) Gérer les incidents et proposer des solutions correctives Mettre en production (via Git) Suivre les flux EXPERTISE Développer votre expertise sur le système d’information et la Supply Proposer des améliorations techniques et des optimisations Partager vos connaissances et bonnes pratiques

Permanent

Job Vacancy
Data Eng GCP Rouen

REDLAB
Published on
BigQuery
CI/CD
Data Lake

40k-45k €
Rouen, Normandy

Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.

Contractor

Contractor job
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Published on
Data Lake

6 months
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Ops Data Lake Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Contractor
Permanent

Job Vacancy
DATA ENGINEER AZURE / DATABRICKS F/H | MARIGNANE (13)

HIGHTEAM GRAND SUD
Published on
Apache NiFi
Azure Data Factory
Data Lake

1 year
10k-45k €
100-420 €
Marignane, Provence-Alpes-Côte d'Azur

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Configurer, structurer, déployer Azure Data Lake et DataBricks Développer et industrialiser des pipelines d’ingestion robustes sur Apache NiFi à partir des différentes sources, en tenant compte des contraintes techniques (mémoire, réseau…) Mettre en place et maintenir une instance Unity Catalog pour renforcer la gouvernance et permettre le Data self-service Environnement Technique : Azure Data Lake, Databricks, Apache NiFi, Unity Catalog, Python, Pyspark, SQL Le poste est basé en périphérie de Marignane (13) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre intégration. Vous devez impérativement être véhiculé.e pour pouvoir accéder sur site.

Contractor
Permanent

Job Vacancy
Data Analyst

Ositel France
Published on
BigQuery
Data Lake
Google Cloud Platform (GCP)

6 months
Ile-de-France, France

Nous recherchons un Data Analyst pour une mission longue, démarrage ASAP. Ses principales missions seront : Création du socle de données : Audit des nouvelles données disponibles dans le DataLake (GCP) ; Participation à la construction et à la modélisation du socle de données. Analyse et exploitation des données : Analyse des profils utilisateurs, comportements de consommation, canaux d’acquisition et rétention ; Étude de l’impact de la pression publicitaire et des nouvelles fonctionnalités sur l’expérience utilisateur ; Analyse de la distribution des contenus auprès de nouveaux partenaires (effets de cannibalisation, audience, etc.). Production d’outils de pilotage : Création, mise à jour et ajustement de Dashboards Power BI pour le suivi des objectifs, indicateurs clés et segments utilisateurs ; Proposition de nouveaux indicateurs pertinents pour le suivi de la performance et des usages.

Contractor

Contractor job
Développeur AWS (Data Lake / Python / Terraform)

Cherry Pick
Published on
AWS Cloud
C#
Data Lake

1 year
430-500 €
Paris, France

Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .

Contractor

Contractor job
Concepteur Développeur

CAT-AMANIA
Published on
Apache Airflow
BigQuery
Data Lake

3 months
100-360 €
Lille, Hauts-de-France

Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité

Permanent
Contractor

Job Vacancy
Data Engineer Azure & Databricks

CITECH
Published on
Apache NiFi
CI/CD
Data Lake

6 months
55k-65k €
420-520 €
Fos-sur-Mer, Provence-Alpes-Côte d'Azur

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer Azure & Databricks (H/F). 🏭 Entreprise reconnue dans le secteur de la sidérurgie, implantée dans de nombreuses villes en France, notre client est le plus important producteur d'acier au monde, et a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. Description du poste 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Configurer, structurer et mettre en œuvre l’environnement Azure Data Lake et Databricks afin de répondre aux besoins d’ingestion et de traitement des données. 🔸 Créer des pipelines d’ingestion robustes sous Apache NiFi , intégrant des sources industrielles variées et respectant les contraintes techniques de performance, de mémoire et de réseau. 🔸 Mettre en place et maintenir un Unity Catalog garantissant la gouvernance, la traçabilité et le Data self-service . 🔸 Veiller à la stabilité de l’environnement , à la qualité du code, à la performance des traitements et à la complétude de la documentation technique. 🔸 Promouvoir la solution auprès des utilisateurs, rédiger la documentation associée et contribuer activement au partage de connaissances au sein de l’équipe Data.

Contractor

Contractor job
Mission de Data Engineer - Retail

SKILLWISE
Published on
Apache Airflow
AWS Cloud
Data Lake

3 months
400-550 €
Paris, France

Nous vous proposons de rejoindre un grand acteur du retail pour une mission de Data Engineer. En tant que Data Engineer vous aurez un rôle clé dans l'amélioration des sales pipelines, la modélisation de nouveaux business models de données de vente et le support aux autres équipes pour une utilisation efficace des données de vente. En tant qu'entreprise de retail , des informations de vente précises et pertinentes sont cruciales, rendant cette équipe centrale pour les processus de décision opérationnels et stratégiques clés. Les responsabilités incluront la maintenance des data flows , avec un accent particulier sur la résilience des produits et l'excellence opérationnelle. Les missions : Développement et maintenance des Data Pipelines User Enablement & Support Promotion des Best Practices Operational Excellence Stack technique : Amazon Web Services (S3) Databricks Approche SQL first avec dbt et/ou Apache Spark (PySpark) Ordonnancement avec Airflow (Python) Github

Contractor

Contractor job
DevOps – Microsoft Fabric / Azure

Cherry Pick
Published on
.NET
AWS Cloud
Azure

12 months
500-550 €
Ile-de-France, France

Dans un environnement en pleine transformation digitale, vous rejoindrez une équipe dédiée à la construction, à l’exploitation et à l’évolution d’une plateforme Data & Analytics à grande échelle. Cette plateforme constitue un socle stratégique pour la valorisation, la gouvernance et la sécurité des données au sein du groupe. Nous recherchons un(e) DataOps Engineer spécialisé(e) dans l’écosystème Microsoft (Azure / Fabric / Power BI) , capable d’accompagner les équipes dans la mise en place et l’industrialisation des solutions Data. ⚙️ Missions principales En tant que membre de la squad Data & Analytics Platform, vous participerez aux activités suivantes : Coordination & animation : Animer les ateliers techniques avec Microsoft et les parties prenantes internes. Rédiger les comptes rendus et assurer le suivi des actions. Challenger les propositions techniques de l’éditeur et garantir la cohérence des solutions. DataOps / DevOps : Concevoir, maintenir et améliorer les chaînes de déploiement CI/CD pour les composants Data & Analytics. Automatiser les processus de déploiement, de supervision et de gouvernance. Participer à la sécurisation et à la surveillance de la plateforme. Administration de la plateforme Microsoft Fabric : Gérer les rôles d’administration : Fabric Administrator, Capacity Administrator, Domain Administrator, Workspace Administrator. Assurer la gestion des droits , le suivi capacitaire et le pilotage budgétaire des ressources. Administrer le portail Power BI et accompagner les utilisateurs dans les bonnes pratiques. Documentation & accompagnement : Enrichir la documentation technique et fonctionnelle à destination des utilisateurs. Diffuser les bonnes pratiques DataOps au sein de l’équipe.

49 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us