Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 429 résultats.
Freelance

Mission freelance
Consultant Senior ETL/ Data Engineering (H/F) - Freelance

GROUPE ARTEMYS
Publiée le
Conception

6 mois
400-500 €
76600, Le Havre, Normandie
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Nous recrutons dès à présent un Consultant Senior ETL/ Data Engineering H/F en Freelance . Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions pour l'un de nos clients au Havre (76) auprès duquel vous aurez la possibilité d'effectuer les tâches suivantes : Réaliser un audit complet (état des lieux, identification des points de blocage) Formuler des recommandations concrètes sur l’architecture, les workflows et les usages Accompagner les équipes dans la mise en œuvre des préconisations Vos missions : Phase 1 – Audit : Analyse des deux environnements ETL existants Évaluation des workflows, de l’architecture et des usages Identification des axes d’amélioration Rédaction d’un audit structuré avec recommandations actionnables Phase 2 – Accompagnement : Participation à la refonte des workflows et de l’architecture Aide à la mise en œuvre des solutions recommandées Accompagnement des équipes internes (montée en compétences) Contribution à la clarification des usages ETL vs API Le profil que nous recherchons : Minimum 8 ans d’expérience en ETL / Data Engineering Forte capacité d’analyse et de prise de recul (vision architecture et workflows) Expérience sur plusieurs solutions ETL (capacité de comparaison et projection) Solide culture data engineering (architecture, conception, refonte) Bonne maîtrise des bases de données (relationnelles type MySQL et NoSQL type Cassandra) Bonne compréhension des API et capacité à distinguer les usages ETL vs outils API La connaissance de NiFi est un plus Vous êtes reconnu.e pour votre posture de conseil, votre force de proposition, votre vision stratégique, votre pédagogie et votre orientation solutions Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Échange opérationnel : Je propose votre candidature au référent (Commercial, SDM, coordinateur…) du compte client, qui échange ensuite avec vous afin de valider votre adéquation avec le besoin. Proposition de mission : Si tout colle, on propose votre CV à notre client ! Conditions de rémunération : Statut : Indépendant / Freelance TJM : Entre 400€ et 500€ (Selon votre expertise) Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance
CDI
CDD

Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500

Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes

8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
Freelance
CDI

Offre d'emploi
Senior Data Engineer GCP

Octopus Group
Publiée le
Google Cloud Platform (GCP)

12 ans
40k-45k €
400-550 €
Île-de-France, France
Contexte : Dans le cadre du renforcement d’une plateforme Data Cloud à forte volumétrie, nous recherchons un Senior Data Engineer afin d’intervenir sur la conception, l’industrialisation et l’optimisation des pipelines de données dans un environnement cloud moderne orienté temps réel et batch processing. Missions : Concevoir, développer et maintenir des pipelines de données batch et temps réel Participer à l’architecture et à l’évolution de la plateforme Data sur GCP Mettre en place les flux d’ingestion, transformation et exposition des données Optimiser les performances et la fiabilité des traitements data Industrialiser les déploiements via des pipelines CI/CD Automatiser l’infrastructure cloud avec Terraform Participer aux bonnes pratiques Data Engineering / DataOps / DevOps Développer et exécuter les tests fonctionnels des pipelines Assurer le monitoring et le support des traitements en production Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build, Pub/Sub, Artifact Registry) Terraform Python SQL CI/CD Airflow / orchestration Architecture cloud-native Contexte : Dans le cadre du renforcement d’une plateforme Data Cloud à forte volumétrie, nous recherchons un Senior Data Engineer afin d’intervenir sur la conception, l’industrialisation et l’optimisation des pipelines de données dans un environnement cloud moderne orienté temps réel et batch processing. Missions : Concevoir, développer et maintenir des pipelines de données batch et temps réel Participer à l’architecture et à l’évolution de la plateforme Data sur GCP Mettre en place les flux d’ingestion, transformation et exposition des données Optimiser les performances et la fiabilité des traitements data Industrialiser les déploiements via des pipelines CI/CD Automatiser l’infrastructure cloud avec Terraform Participer aux bonnes pratiques Data Engineering / DataOps / DevOps Développer et exécuter les tests fonctionnels des pipelines Assurer le monitoring et le support des traitements en production Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build, Pub/Sub, Artifact Registry) Terraform Python SQL CI/CD Airflow / orchestration Architecture cloud-native
Freelance
CDI

Offre d'emploi
Développeur Data (Foundry) et Fullstack (Python, Typescript)

CAT-AMANIA
Publiée le
Data Engineering
Python
SQL

1 an
58k-60k €
490-500 €
Paris, France
Nous recherchons un profil Data / Full Stack sur la plateforme Foundry de Palantir, pour mettre en place de nouveaux dispositifs data‑centrés visant à répondre aux enjeux réglementaires LCB‑FT (Lutte contre le Blanchiment des Capitaux et le Financement du Terrorisme). Mise en œuvre d’applications d’investigation et traitement d’alertes dans une équipe de développement en montée en compétence sur une plateforme Foundry de chez Palantir. Comprendre rapidement l’écosystème Foundry existant Reprendre un existant, rétro-ingénierie, corrections, améliorations Maintenir et faire évoluer les pipelines de données Pipelines ETL / data workflows Développer ou adapter des workshops Foundry Applications et écrans métier complexes orientés analystes (investigation, suivi des alertes, reporting Assurer la fiabilité, la lisibilité et la maintenabilité des traitements Collaborer étroitement avec les équipes data et métier assurance Assurer avec l’équipe le suivi Run/MCO
Freelance

Mission freelance
Chef de Projet MOA – Compliance / Front Office Surveillance

ABSIS CONSEIL
Publiée le
Agile Scrum
Big Data
Elasticsearch

1 an
570-620 €
Paris, France
Contexte de la mission Dans le cadre de programmes réglementaires à forte visibilité, une organisation spécialisée dans les activités de marchés financiers renforce un dispositif de surveillance des conduites Front Office à l’échelle mondiale. La mission s’inscrit dans un programme IT réglementaire structurant , visant à industrialiser et déployer une plateforme de monitoring des communications et des comportements (trading, ventes, communications électroniques, ordres et transactions), en remplacement d’un outil existant. Les enjeux sont forts : délais réglementaires contraints, coordination multi‑équipes, forte exposition métier et conformité , dans un environnement international et anglophone. Mission En tant que Chef de Projet MOA – Compliance / Front Office Surveillance , vous interviendrez sur la gestion et la livraison des évolutions clés liées aux données collaborateurs et communications au sein de la plateforme de monitoring. Vous travaillerez en mode agile , en lien étroit avec les équipes métier, IT et data, avec un objectif clair : livrer rapidement un maximum de valeur fonctionnelle , tout en garantissant la conformité réglementaire. Responsabilités principales Recueillir, analyser et formaliser les besoins fonctionnels , cas d’usage et spécifications Challenger les exigences avec les équipes Data et IT afin d’assurer leur faisabilité technique Collaborer avec les sponsors métier, équipes conformité, supervision de plateforme et management Coordonner les travaux avec le chef de projet et les équipes projet (interne et externe) Piloter les activités en méthodologie agile (sprints, priorisation, suivi des livrables) Contribuer à la définition et à la mise en œuvre d’une stratégie data intégrant des approches d’analyse avancée (NLP, machine learning) Superviser le développement et l’évolution de solutions logicielles (ingestion de données de communication, gestion des flux, data management) Rédiger les spécifications fonctionnelles et techniques Élaborer les plans de tests, scripts de recette , organiser et animer les sessions UAT jusqu’à validation métier Gérer plusieurs sujets en parallèle dans un contexte à forte contrainte de planning
Freelance
CDI

Offre d'emploi
Consultant.e Data Gouvernance / Anglais requis

Octopus Group
Publiée le
Data governance
Data quality

6 mois
40k-45k €
400-600 €
Île-de-France, France
Octopus Group , ESN de 100 collaborateurs est à la recherche d'un.e consultant.e Data gouvernance Dans le cadre d’un partenariat stratégique, nous accompagnons un acteur majeur du secteur du Luxe dans la structuration et la valorisation de ses actifs data à l’échelle groupe. Dans un environnement exigeant, international et orienté excellence, nous recherchons un(e) Consultant.e Data Gouvernance pour contribuer à la mise en place et à l’industrialisation des pratiques de gouvernance des données. avec un minimim de 3 ans d'expérience
Freelance
CDI

Offre d'emploi
Data Engineer SENIOR

Tritux France
Publiée le
Cloud
Data Lake
Pandas

3 ans
40k-45k €
400-470 €
Île-de-France, France
Objectif de la mission Au sein d’une équipe produit, vous interviendrez sur la conception, le développement et l’industrialisation de pipelines de données complexes, dans un environnement technique moderne et orienté performance. Votre objectif principal est de garantir des solutions data : Scalables Maintenables Alignées avec les standards d’architecture et de qualité Missions & responsabilités Ingénierie & Développement Concevoir et développer des pipelines de données robustes et performants Participer à la définition et à la mise en œuvre d’architectures data Garantir la qualité du code (Clean Code, DDD, peer review) Documenter les solutions Industrialisation Mettre en place des mécanismes d’observabilité (monitoring, logs, alerting) Optimiser les performances et les coûts (FinOps Data) Assurer la sécurité et la conformité des données Expertise & Collaboration Traduire les besoins métier en solutions techniques Contribuer aux rituels agiles et à la conception des user stories Résoudre les incidents de production et anticiper les risques Collaborer avec les équipes transverses Participer au partage des bonnes pratiques
Freelance

Mission freelance
Data Engineer / Data Platform Engineer (H/F)

INFOGENE
Publiée le
Data Engineering
Finance
Python

6 mois
Paris, France
Contexte Dans un environnement financier exigeant, CFM souhaite moderniser et fiabiliser son système de gestion des prix de marché (equities, futures, bonds, IRS…). Le système actuel, basé sur des infrastructures legacy, manque de visibilité, de performance et de robustesse, rendant les opérations complexes et peu fiables pour les équipes support et data. Objectif de la mission Concevoir et développer une plateforme centralisée de gestion et de visualisation des prix , permettant de suivre l’ensemble du cycle de vie des données et d’améliorer les opérations quotidiennes. Missions principales Concevoir une architecture cible scalable et robuste Développer une API Python exposant les données de prix et leur cycle de traitement Implémenter des services backend pour : suivi des statuts des prix gestion des événements et anomalies opérations en masse (validation, rejet, reprocessing) Mettre en place des interfaces utilisateurs : dashboard opérateur interface d’administration visualisation des workflows et historiques Améliorer la traçabilité des données (origine, transformation, blocages) Optimiser les performances et la gestion des volumes Documenter les solutions et accompagner les équipes
Freelance

Mission freelance
Architecte Modélisation Data (H/F)

Freelance.com
Publiée le
Cybersécurité

1 an
340-740 €
Île-de-France, France
2 jours de gratuité ( les deux premiers jours de mission ) Dans le cadre de l’équipe Architecture Solutions SI (Direction Stratégie SI, Architecture & Cloud), la mission consiste à accompagner les projets autour des solutions collaboratives et des enjeux de modélisation et d’architecture data . L’objectif est d’assurer la cohérence des architectures data avec les processus métiers, tout en garantissant l’alignement avec les standards SI et les objectifs de rationalisation. ⸻ 🧩 Rôle & responsabilités En tant qu’Architecte Data / Expert Data Modélisation, vous serez en charge de : Accompagner les projets dans la définition de leur architecture data Assurer l’alignement avec la stratégie SI et les processus métiers Définir, promouvoir et faire évoluer le cadre d’architecture data Réaliser la modélisation fonctionnelle des objets métiers Maintenir et enrichir la cartographie SI Contribuer à la conception des modèles logiques et physiques de données (MLD / MPD) Accompagner les équipes de développement sur les sujets data ⸻ 🏗️ Activités principales Modélisation data des solutions dans le cadre des projets Définition des architectures fonctionnelles et data, de la phase de cadrage jusqu’à la mise en production Production des livrables d’architecture et mise à jour du référentiel Présentation et validation des solutions en instances d’architecture Émission d’avis d’architecture Coordination des activités d’architecture Pilotage de l’engagement d’architecture auprès des parties prenantes
CDI
Freelance

Offre d'emploi
Business Analyst - Data (H/F)

STORM GROUP
Publiée le
SEPA
SWIFT

3 ans
55k-60k €
550 €
Île-de-France, France
· Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité · Animer des groupes de travail avec les sponsors, les business analyst du SI Paiement et les membres de la squad Flux (data viz, data engineer, business analyst) · Rédaction des livrables : spécifications fonctionnelles et techniques / user story, cahiers de recette · Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner · Formation et accompagnement des utilisateurs.
Freelance
CDI

Offre d'emploi
Data & AdTech Developpeur H/F

OBJECTWARE
Publiée le
Python
SQL

3 mois
Rennes, Bretagne
Nous recherchons un Data & AdTech Developpeur H/F pour une mission à Rennes. Missions : Organiser, fiabiliser et valoriser les données au sein de la CDP Garantir la qualité et la cohérence des données exploitées Concevoir et maintenir les flux d’ingestion et de transformation (Python, SQL) Intégrer les différentes sources de données de l’entreprise Concevoir et maintenir des dashboards de suivi Créer des solutions permettant d’accélérer les opérations marketing Intégration de solutions AdTech (alternives IDs, dsp Equativ & The Trade Desk…) Technos : Langages : Python, SQL Data & Cloud : BigQuery Data visualisation : Metabase AdTech : DSP, solutions de tracking, identity management
CDI

Offre d'emploi
Administrateur Système Réseaux 365 H/F

FED SAS
Publiée le

40k-45k €
Lyon, Auvergne-Rhône-Alpes
Fed IT, cabinet de recrutement dédié aux fonctions informatiques, recrute pour son client, industriel de 800 personnes, un(e) administrateur systèmes et réseaux H/F, pour accompagner sa croissance. Rattaché(e) au DSI, vous intégrez une équipe polyvalente de 4 personnes qui intervient sur la globalité des sites (France et Europe). Ainsi, vous : -Pilotez les migrations vers le cloud (Office 365, Outlook, SharePoint...) pour les filiales encore on-premise, -Administrez et faites évoluez les environnements Microsoft 365 (Exchange Online, Sharepoint, Teams Voice), -Gérez les interconnexions réseau entre les entités du groupe (switches, pare-feux...), -Déployez et administrez Microsoft Intune pour la gestion unifiée des endpoints (configurations, applications, politiques de sécurité), -Configurez les outils de supervision et assurez la veille sécurité, -Participez aux projets des filiales : migrations d'ERP, EDI, BI..., -Assurez le support aux utilisateurs et documentez vos procédures, Des déplacements ponctuels sont à prévoir en France et en Europe (5 découchages/an en moyenne). Rémunération : 40 à 45 K€ bruts/an (fixe selon expérience), Poste à 37,5 heures/semaine + 2 jours de télétravail possibles/semaine
Freelance

Mission freelance
Architecte modélisation data

Freelance.com
Publiée le
Architecture
Big Data

6 mois
100-600 €
Paris, France
📍 Infos pratiques 📍 Localisation : Paris (2 jours TT) 📅 Démarrage : ASAP 📆 Visibilité : mission longue (jusqu’à fin 2026) Dans le cadre d’un programme de transformation Data B2B , nous recherchons un profil orienté architecture et modélisation métier , capable d’intervenir en amont des développements pour structurer un modèle data cible robuste. 👉 ⚠️ Important : ce n’est PAS un poste de Data Engineer 👉 Le besoin est centré sur la conception, l’abstraction et la structuration de la donnée 🎯 Ce que le client attend réellement ✔ Construire une vision 360 des données B2B ✔ Définir les objets métiers clés (Client, Contrat, Parc, Facture, Usage…) ✔ Concevoir le modèle de données cible (Core Model) ✔ Définir les règles de gestion (RCU / unicité client / hiérarchies) ✔ Analyser les sources legacy et faire le lien avec la cible ✔ Structurer un dictionnaire de données (Business Glossary) ✔ Travailler en lien direct avec les équipes métier 👉 Positionnement attendu : Architecte Data fonctionnel / Data Modeler senior 🧠 Responsabilités Modélisation des données (logique & métier) Définition des règles de gestion (vision client / référentiels) Analyse des écarts entre SI existant et cible Contribution à la gouvernance (catalogue, qualité de données) Support aux équipes Data & métiers Pourquoi c’est intéressant ? ✔ Projet stratégique (transformation data complète) ✔ Forte dimension architecture & conception ✔ Impact direct sur la structuration des données du groupe
Freelance

Mission freelance
Data Analyst Opérations & Maintenance

NEXTWYN
Publiée le
Azure Data Factory
BI
Big Data

3 mois
Paris, France
Nous recrutons un·e Data Analyst Opérations & Maintenance (Paris) Dans le cadre d’un projet stratégique au sein d’un grand groupe industriel international, nous renforçons notre pôle Data & IA et recherchons un Data Analyst O&M capable de valoriser des données issues de réseaux industriels complexes (IoT, supervision, maintenance, signalisation…). 🎯 Votre mission : transformer des données opérationnelles en insights concrets pour améliorer la performance, la supervision des actifs, la sécurité et la sobriété énergétique. Vous interviendrez sur la conception de tableaux de bord (Qlik) , l’ analyse de données , la qualité , la documentation , et la collaboration avec les équipes métiers dans un environnement international. 🔍 Vos responsabilités Recueillir et prioriser les besoins métiers avec les PO, CSM et équipes opérationnelles. Explorer, auditer et qualifier les données issues des systèmes industriels. Concevoir et développer des tableaux de bord (Qlik principalement). Standardiser et rationaliser les modèles de données avec les Data Managers. Documenter les règles de gestion et maintenir le dictionnaire de données. Réaliser les recettes fonctionnelles et mettre en place des plans de tests data.
Freelance
CDI

Offre d'emploi
Architecte Data / Stratégie Plateforme Data Européenne

OBJECTWARE
Publiée le
Apache Kafka
BI
Data Lake

3 ans
40k-73k €
400-550 €
Île-de-France, France
🎯 Objectif de la mission Dans un contexte de transformation data à l’échelle européenne, vous intervenez en tant qu’ Architecte / Consultant Senior Data pour structurer, rationaliser et industrialiser la plateforme data du groupe. Vous accompagnez la définition de la stratégie cible, la gouvernance et la trajectoire de migration vers une plateforme data unifiée, scalable et conforme aux contraintes réglementaires (RGPD, localisation des données, sécurité). 🧩 Missions principales🔎 1. Diagnostic des plateformes data existantes Réaliser une cartographie complète des plateformes data existantes Analyser les architectures de bout en bout (de l’ingestion à l’usage métier) Étudier l’organisation, les rôles et responsabilités Identifier les dépendances techniques et fonctionnelles Recenser et prioriser les cas d’usage Data, BI et IA Intégrer les contraintes réglementaires (RGPD, souveraineté des données) 🏗️ 2. Définition de la stratégie data cible Concevoir une architecture cible de plateforme data pan-européenne Travailler avec les équipes d’architecture groupe Recommander les choix technologiques (cloud, data platforms, outils) Définir un modèle de gouvernance data transverse (business lines) Fixer les principes de scalabilité, industrialisation et performance 🔁 3. Stratégie de migration & roadmap Construire une roadmap de transformation et migration vers la cible Définir les étapes de migration des données et des usages Organiser et animer les ateliers avec les équipes IT et métiers Préparer et suivre les comités de pilotage IT Coordonner les phases de tests, recette et non-régression 🚀 4. Accompagnement des premières phases de delivery Accompagner le démarrage des premières implémentations Garantir la cohérence entre architecture cible et réalisation Assurer un rôle de référent auprès des équipes de delivery
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Taches principales - activités BI - Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage - Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers - Présenter les résultats aux équipes métiers - Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital - Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue Une connaissance fonctionnelle de l’analyse data dans le domaine bancaire pour apporter un regard critique et répondre aux problématiques d’analyse de donnée des métiers Evolutions des activités en temps 2 – activités data digital (tracking et data analyse associée) : - Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage - Réaliser les spécifications et recettes du tracking - Collecter et extraire les données nécessaires à l’analyse - Construire des tableaux de bord - Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. - Présenter le rendu aux squads métiers. En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI), Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées. Il sera également demandé à l’intervenant/e externe d'intervenir sur les activités Digital en lien avec la Données pour garantir la réussite du Pilotage des Parcours web : Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey, Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses. Outil de Data Visualisation (Expert) : Microstrategy étant un plus (ou connaissance Power Bi, Tableau) Langage : SQL (expert) Apprécié : Data & Digital Logiciel d'analyse de la donnée pour le Tracking (type Tag Commander, Piano Analytics) Analyse Comportementale utilisateur.
5429 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous