Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 846 résultats.
CDI

Offre d'emploi
Expert data H/F

HAYS France
Publiée le

Monaco
Vos missions sont les suivantes : Accompagner la modernisation de l'environnement data aujourd'hui basé sur MyReport et de nombreux fichiers Excel. Mettre en place une architecture plus fiable et automatisée pour centraliser et structurer la donnée. Participer au choix de la future plateforme data et aux premières étapes de son implémentation. Construire les premiers flux de données (ETL/ELT) et organiser les modèles de données. Produire des tableaux de bord fiables pour le comité de direction et les équipes métiers. Améliorer la qualité, la cohérence et la disponibilité de la donnée. Préparer l'arrivée de cas d'usage IA (prévisions, automatisations).
CDI

Offre d'emploi
Data analyst (Databricks) H/F

HAYS France
Publiée le

La Ferté-Bernard, Pays de la Loire
Vos responsabilités incluent notamment : Concevoir et développer un modèle de données global pour le périmètre France Exploiter les bases de données Corporate sous Databricks (couche Silver) Réaliser les transformations de données jusqu'à la couche Gold Consolider des données métiers variées : Finance, Comptabilité, Logistique, Qualité, Production, RH Participer à la conception des modèles analytiques, au développement des indicateurs, ratios financiers et KPI métiers Développer et maintenir des dashboards Power BI à destination des équipes opérationnelles et managériales Contribuer à la standardisation, à la fiabilité et à la gouvernance de la donnée au niveau France Collaborer étroitement avec le futur profil Contrôle de Gestion / BI
Alternance
CDI
Freelance

Offre d'emploi
Data Analyst F/H

AIS
Publiée le

1 mois
39k-46k €
230-460 €
Nantes, Pays de la Loire
Intégré(e) aux équipes d'une de nos clients grand compte, le projet concerné est une plateforme digitale transversale. Le projet permet une capacité de type "Talk to your data" : une interface en langage naturel permettant aux collaborateurs de poser des questions et d'obtenir des réponses sans expertise technique. La mission porte principalement sur le backend et la couche sémantique, afin de permettre à l'agent IA (LLM) de générer des requêtes SQL fiables à partir des demandes utilisateurs. Le détail de vos missions sera le suivant : Compréhension Fonctionnelle & Cohérence Produit - Assurer l'alignement entre les besoins métier et les capacités de la solution - Maintenir la cohérence fonctionnelle et la qualité du produit Coordination & Gestion des Exigences - Collaborer avec les fournisseurs de données pour clarifier les besoins et garantir la disponibilité des données - Travailler étroitement avec le Product Owner pour affiner et prioriser les fonctionnalités Contribution aux User Stories & au Backlog - Participer à la rédaction des user stories - Définir les fonctionnalités du produit et contribuer à la planification des releases - Prioriser les fonctionnalités et ajuster le périmètre à chaque itération - Garantir la préparation des user stories pour le développement - Accepter ou rejeter les résultats livrés selon les critères définis Assurance Qualité - Contribuer à la création et à l'exécution des cas de test - Valider les modèles de données et leur adéquation aux besoins analytiques - Participer aux contrôles de qualité des données et aux tests fonctionnels Environnement technique : - SQL avancé - Snowflake AI Cortex (niveau confirmé) - Modélisation de données - Data quality, testing et validation - Concepts IA / GenAI - Méthodologie : Agile - Langues : Anglais (Courant - Niveau C1)
Freelance
CDI

Offre d'emploi
Chef de projet DATA / Delivery Master DATA

DATAMED RESEARCH
Publiée le
Animation
Gestion de projet
Pilotage

12 mois
40k-65k €
450-630 €
Paris, France
Objectifs et livrables Dans le cadre de cette mission, le Delivery Master Data sera responsable de la coordination et de l’accompagnement des équipes projets afin d’assurer la bonne livraison des initiatives Data. Il occupe un rôle central à l’interface entre les équipes techniques, les chefs de projet et les parties prenantes métiers. Missions principales 1. Pilotage des projets Data Planifier et organiser les projets de bout en bout, de la phase d’étude jusqu’à la mise en production Coordonner les équipes multidisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI et mettre en place des plans d’actions correctifs si nécessaire 2. Gestion de la qualité et des délais Garantir le respect des délais et des standards de qualité Veiller à l’application des bonnes pratiques en matière de Data Governance, sécurité et conformité 3. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective…) Favoriser une culture d’amélioration continue et de collaboration 4. Communication et gestion des parties prenantes Assurer une communication fluide entre les équipes internes, les clients et les partenaires Préparer et animer les comités de pilotage et de suivi Gérer les attentes clients et accompagner les évolutions des projets 5. Optimisation des processus Identifier les axes d’amélioration des processus de delivery Mettre en place des actions d’optimisation et d’automatisation Améliorer l’efficacité opérationnelle des équipes
CDI

Offre d'emploi
Data Engineering confirmé

AVA2I
Publiée le
DBT
Microsoft Power BI

Île-de-France, France
Concevoir, développer et maintenir les pipelines de données, les modèles analytiques et les tableaux de bord décisionnels afin de garantir une donnée fiable, exploitable et performante pour les équipes métiers. ResponsabilitésData Engineering Concevoir et maintenir les pipelines ETL/ELT. Intégrer des données depuis différentes sources (API, bases SQL, ERP, CRM, fichiers, cloud). Optimiser les traitements de données et la performance des flux. Assurer la qualité, la fiabilité et la gouvernance des données. Mettre en place des tests, monitoring et alertes sur les pipelines. Participer à l’architecture data et aux choix techniques. dbt (Data Build Tool) Développer et maintenir les modèles dbt. Structurer les couches Bronze / Silver / Gold. Créer des tests de qualité et documentation dbt. Gérer les dépendances et transformations SQL. Industrialiser les déploiements CI/CD dbt. Power BI Concevoir des dashboards et rapports interactifs. Créer des modèles de données optimisés. Développer des mesures DAX avancées. Mettre en place la sécurité des accès (RLS). Optimiser les performances des rapports Power BI. Collaborer avec les métiers pour comprendre les besoins analytiques. Compétences techniques requisesObligatoires SQL avancé Power BI (Power Query, DAX, Modélisation) dbt Python ou autre langage scripting Data Warehouse (Snowflake, BigQuery, Redshift, Synapse…) Git / GitLab / GitHub ETL / ELT Modélisation de données Appréciées Airflow / Dagster Azure Data Factory / Microsoft Fabric Docker CI/CD Cloud AWS / Azure / GCP Méthodologies Agile
Freelance

Mission freelance
Senior Data Engineer - Financial

Phaidon London- Glocomms
Publiée le
Apache Airflow
Azure DevOps
CI/CD

6 mois
400-550 €
Paris, France
Concevoir et implémenter des pipelines de données robustes et évolutifs Optimiser les performances et la rentabilité (optimisation des requêtes, clustering, stratégies de stockage) Implémenter des pipelines CI/CD et des frameworks d'observabilité pour améliorer la fiabilité des données Collaborer étroitement avec les architectes et les parties prenantes métiers pour s'aligner sur les objectifs stratégiques Promouvoir les bonnes pratiques en matière de gouvernance, sécurité et conformité des données Encadrer les ingénieurs et contribuer aux bonnes pratiques et aux normes d'ingénierie Assurer le support des environnements de production, résoudre les problèmes et effectuer des analyses de causes profondes Contribuer à l'amélioration continue de la plateforme de données
CDI
Freelance

Offre d'emploi
QA DATA

KOUKA
Publiée le
Cypress
Data quality
Gherkin

6 mois
40k-53k €
400-450 €
Île-de-France, France
La définition et la mise en œuvre de stratégies de tests sur les flux de données La validation des données (contrôles SQL, cohérence, complétude, intégrité) La rédaction et l’exécution de cas de tests fonctionnels et techniques L’automatisation des tests (API, UI, data pipelines) La collaboration avec les équipes Data, Dev et Produit Le suivi des anomalies et leur résolution Langages / Data : SQL Gestion des tests : JIRA / XRAY Méthodologie : BDD – Gherkin Tests automatisés : Cypress Tests API : Postman / Newman CI/CD : GitLab Versioning : Git
Freelance
CDI
CDD

Offre d'emploi
DATA ENGINEER CONFIRME / SENIOR (H.F)

NSI France
Publiée le
Azure
Cloud
Data Engineering

6 mois
Île-de-France, France
Contexte Dans le cadre de projets de transformation et de modernisation des systèmes d'information chez de grands acteurs de la distribution et de la grande consommation, nous recherchons un Data Engineer confirmé / sénior pour intervenir sur une migration de plateforme Data vers le Cloud. Vous intégrerez une squad Agile dédiée, au sein d'une organisation Data Factory, dont la mission est de concevoir et déployer des produits Analytics innovants à destination des fonctions support, des équipes logistiques et des points de vente. Vos missions En tant que Data Engineer, vous interviendrez sur tout ou partie des missions suivantes : Analyse des traitements existants dans le cadre de projets de migration on-premise vers le Cloud Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein d'un Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) Rédaction de la documentation technique (dossiers d'analyse, release notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD Environnement technique Azure / Databricks / Spark Python / SQL CI/CD, Azure DevOps Outils Agile (JIRA)
Freelance

Mission freelance
Directeur de Projet - Mainframe

CONCRETIO SERVICES
Publiée le
COBOL
Data management

12 mois
400-600 €
Gironde, France
Dans le cadre de la transformation de son système d'information, notre client — grand compte — recherche un Directeur de Projet expérimenté pour piloter en transverse le domaine Référentiel (Tiers, Contrats, Produits). Le prestataire intégrera la DSI et assurera un rôle stratégique à l'interface des équipes métiers, des architectes et des équipes de delivery, dans un contexte de modernisation d'un patrimoine applicatif legacy significatif. Missions principales Structurer et piloter les actions du schéma directeur du domaine Référentiel Sécuriser les décisions d' urbanisation autour des objets métiers clés (Tiers, Contrats, Produits) Piloter les études d'opportunité et de faisabilité en lien avec les enjeux de modernisation Piloter les contributions DSI aux études conduites par la MOA Expérimenter un POC IA appliqué à l'analyse d'impact et à la rétro-documentation (LLM, RAG, extraction de connaissance) Assurer le reporting et la gouvernance auprès des instances DSI et métiers Organiser et coordonner le projet de migration du patrimoine Référentiel Piloter le plan de gestion de la dette technique sur le périmètre des ID, en soutien des managers Environnement technique SI legacy : applications COBOL , CICS / DB2 / MQSeries SI distribués et architectures hybrides Enjeux MDM / Data Management Architecture d'entreprise et urbanisation du SI Expérimentation IA générative (LLM, RAG, knowledge extraction)
Freelance
CDI
CDD

Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500

Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes

8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
Freelance

Mission freelance
Enterprise Architect – Data Mesh

Signe +
Publiée le
Data Mesh

12 mois
660 €
Toulouse, Occitanie
🎯 MISSIONS Implémenter une architecture Data Mesh au sein d'un SI industriel complexe Concevoir la Data Service Layer (couche de services de données) Produire les dossiers d'architecture (cibles, patterns, gouvernance) Définir les standards de la donnée orientée domaine Accompagner les équipes produit dans l'adoption du modèle Data Mesh Assurer l'alignement avec les contraintes sécurité & conformité 👤 PROFIL RECHERCHÉ Enterprise Architect confirmé – spécialisation Data Mesh Expérience sur des environnements grands comptes / industrie appréciée Maîtrise des concepts : Data Domain, Data Product, Self-serve platform, Federated governance Compétences en rédaction de dossiers d'architecture Capacité à intervenir en autonomie dès le démarrage
CDI
Freelance

Offre d'emploi
Data Ingénieur Python ELK

CHARLI GROUP
Publiée le
Elasticsearch
ELK
Python

3 ans
Paris, France
ngénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
Freelance
CDI

Offre d'emploi
Data Manager confirmé – Gouvernance Data / Data Quality / Catalogage

Inventiv IT
Publiée le
Big Data
Data governance
Développement

6 mois
48k-58k €
460-550 €
Paris, France
Nous voulons un profil polyvalent technico-fonctionnel orienté Data, Data Quality, Développement & DevOps (avec une vision globale). 20 % : Technique applicative (DevOps & Développement) 20 % : Data Gouvernance & Catalogage 20 % : Data transverse 40 % : Data Quality Confirmé : entre 3/7 ans d’expérience Contexte Au sein de la Data Factory, la mission s’inscrit dans le cadre du renforcement de l’outillage et des pratiques de Data Management sur la plateforme Data et sur les sujets de Data Quality Groupe. L’objectif est d’accompagner l’industrialisation des pratiques de gouvernance de la donnée, d’améliorer la qualité des données, de fiabiliser les mises en production et de renforcer la traçabilité et la conformité des activités data. Objectifs de la mission Le consultant interviendra pour : renforcer l’industrialisation des pratiques de Data Management sur la plateforme Data améliorer l’outillage de catalogage, de lineage et d’interconnexion entre outils, contribuer au chantier Data Quality fonctionnelle au niveau Groupe, garantir la conformité aux exigences de gouvernance data et de traçabilité, accompagner les métiers et équipes projets dans l’usage des outils et livrables de gouvernance. Positionnement Rattachement opérationnel : sous la supervision du Product Owner de la Plateforme Data Groupe Reporting hiérarchique : manager des plateformes Data Interactions fréquentes avec : référents Data métiers, équipes Gouvernance Data Groupe, squads projets, intervenants IT / DSI. Participation aux principales cérémonies Agile de l’équipe. Missions principales 1. Administration et amélioration des outils de Data Management Garantir la cohérence globale des paramétrages des fonctions Data Management dans le socle Data & IA. Administrer ou contribuer à l’administration des outils de gestion de métadonnées et de catalogage. Assurer la continuité et l’amélioration de la qualité de l’écosystème d’outils. Gérer les interconnexions pour garantir un linéage fiable entre outils, notamment Databricks et Collibra. Produire la documentation d’exploitation et les modes opératoires. Identifier des améliorations pragmatiques pour réduire les tâches manuelles et augmenter le taux de tables documentées/taggées. 2. Contribution à la gouvernance Data Groupe Apporter son expertise sur l’offre de services autour du Data Catalogue Groupe / Collibra. Contribuer à la structuration du programme Data Quality fonctionnelle : méthodologie, planning, audits, reporting, coordination avec les BU. 3. Accompagnement méthodologique des produits Data métier Accompagner les Data Owners métiers dans les ateliers de qualification des sources. Garantir la cohérence des CCD (Cadres de Confiance Data). Assister les équipes sur la production des Contrats d’Interface et Contrats de Consommation. Faire monter les équipes en autonomie sur les outils fournis, notamment via coaching et accompagnement. 4. Gouvernance, conformité et pilotage Documenter le patrimoine de données avec une vision transverse. Vérifier le bon renseignement des métadonnées techniques de la recette à la production. Contrôler et fiabiliser le linéage. Maintenir la qualité du catalogage : définitions, descriptions, tags, propriétaires, périmètres. Classifier les données selon leur sensibilité : DCP, données business sensibles, santé, etc. Fournir des tableaux de bord sur la qualité des données et la gouvernance dans la plateforme Data Suivre l’avancement sur plusieurs projets en parallèle. Tenir à jour la matrice Applications x Domaine. Rédiger des comptes rendus orientés actions / décisions. Alerter rapidement et formellement en cas de retard ou dépendance bloquante.
CDI
Freelance

Offre d'emploi
Data product Manager (H/F)

1G-LINK CONSULTING
Publiée le
PowerBI
Snowflake
SQL

12 mois
Île-de-France, France
Contexte : Intervention sur des programmes Data & BI structurants, avec pour ambition d’industrialiser la plateforme data et diffuser une culture data-driven à l’échelle de l’organisation. Missions : Définir et porter la vision data & architecture cible auprès des clients Structurer les modèles de données (modélisation dimensionnelle, data products…) Superviser la conception et l’industrialisation des pipelines de données Encadrer et accompagner les équipes data (Data Engineers, Analytics Engineers…) Garantir les bonnes pratiques (qualité, gouvernance, documentation) Faire le lien entre équipes métiers, IT et parties prenantes internationales Contribuer aux choix technologiques et à l’évolution de la stack Compétences techniques: SQL: expert SNOWFLAKE POWER BI : confirmé data / data analytics: expert data modeling : expert
1846 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous