L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 932 résultats.
Mission freelance
Business Analyst Data / PO Senior
STHREE SAS
Publiée le
12 mois
75001, France
📍 Paris * 🧑💻 3j TT / 1j présentiel * 🚀 Début : 01/04/2026 * 🔁 Durée : 12 mois (renouvelable jusqu'à 3 ans) 🗂 Assistance technique * FR courant * EN pro - secteur : BANQUE 📊 Domaines : paiements, clients, transactions, finance, Datalake 🎯 Contexte Une personne de l'équipe arrive au terme de ses 3 ans de mission. Départ prévu en septembre, avec passation complète. Environnement à taille humaine, organisation mature, sujets data stimulants et visibilité transverse. Vous intervenez sur un périmètre riche, au cœur de la chaîne de valeur data. 🧠 Votre rôle (Business Analyst Data Senior / PO) Vous interviendrez de bout en bout : Analyse & cadrage Recueil et analyse des besoins métiers Proposition de simplifications / cibles process Rédaction des spécifications (US, AC, règles de gestion) Build & delivery Préparation du backlog et suivi des squads Dev/Ops Validation des développements Contribution aux tests, UAT, déploiement et post-prod Run / BAU Support fonctionnel (incidents & petites évolutions) Suivi de la qualité des données & investigations SQL 🔶 Mission principale : BA Data transverse Focus domaines : paiements, clients, transactions, finance , avec un fort volet spécifications + accompagnement build/BAU et une expertise migration / validation des données . 📦 Livrables Specs fonctionnelles & règles de gestion US / AC, data dictionary, schémas de modélisation Plans de tests & support UAT Support BAU ➕ Livrables additionnels (migration & qualité de données) Stratégie de migration, mapping, règles de transformation Plans de validation (comptages, réconciliations, seuils) Rapports de qualité & readiness cutover ✅ Profil recherché BA Data Senior : autonome, transverse, orienté valeur métier Excellente maîtrise : modélisation , rédaction de specs , tests Très bonne compréhension des environnements Datalake SQL confirmé pour investigations & contrôles fonctionnels Contexte bancaire apprécié (paiements / clients / transactions / finance) Expérience concrète en migration de données : mapping, transformation, qualité, réconciliations, gestion des écarts
Offre d'emploi
Coordinateur de projet Data (Luxembourg)
EXMC
Publiée le
Gestion de projet
1 an
Luxembourg
Le consultant intègrera l’équipe Data qui a en charge la mise à disposition des données pour les différents consommateurs Data du client (BI, Data Scientists, équipes métiers, etc.). Dans ce cadre, le consultant interviendra en qualité de Coordinateur de Projet sur la gestion « end-to-end » des projets Data, depuis l’analyse et la formalisation des besoins métiers jusqu’à la livraison finale des données, en coordination avec les équipes techniques et métiers concernées. · Planifier, organiser et diriger les projets de l’initiation à la clôture. · Assurer le suivi de l’avancement des projets et la gestion des risques. · Coordonner les équipes internes et externes, veillant à une communication efficace et à la collaboration entre les parties prenantes. · Assurer la liaison entre les équipes techniques et les utilisateurs pour garantir une compréhension mutuelle des exigences et des solutions. · Collaborer avec les équipes de développement pour s’assurer que les solutions proposées sont mises en oeuvre conformément aux spécifications. · Proposer des solutions adaptées aux points bloquants identifiés et participer à leur validation. · Faciliter les réunions de travail de projet, les ateliers de travail et les sessions de revue. · Préparer et présenter des rapports d’avancement aux parties prenantes.
Offre d'emploi
Delivery Manager Data
VISIAN
Publiée le
Architecture
Big Data
Databricks
1 an
Paris, France
Contexte de la mission Le programme vise à doter le reporting financier de capacités de pilotage et d'analyse de la marge, de prévisions financières, de gestion du budget et des opérations de clôture. La solution s'appuie sur une plateforme Data centralisée agrégeant les flux provenant des systèmes de facturation, de pricing et de sourcing d'énergie. Le programme est structuré autour de trois familles d'équipes : 3 équipes en charge de la visualisation des chiffres et de l'expérience utilisateurs Contrôle de Gestion 2 équipes Data en charge de l'ingestion, de la transformation et de la qualité des données Une équipe Plateforme assurant la maintenance du socle technique, l'orchestration des traitements et leur monitoring La solution est aujourd'hui incomplètement industrialisée et un plan d'action visant à finaliser la mise en place des flux, à sécuriser les données, à consolider l'approche transverse bout-en-bout du programme et à assister les équipes dans leurs pratiques agiles est en cours. Le Delivery Manager est le pilote de ce Plan d'action en étroite collaboration avec la Direction de Programme Métier et les Data Providers.
Mission freelance
Data Product Manager
DEVIK CONSULTING
Publiée le
Analyse
Data visualisation
ERP
1 an
500-750 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Data Product Manager afin de piloter le projet migration client sur le volet Data & Visualisation L’objectif étant de construire un nouveau modèle de BDD et reporting basé sur S/4HANA ainsi que d’évaluer les impacte sur les systèmes legacy. Tâches principales Organiser l’étude et collecter les éléments auprès de l’ensemble des parties prenantes Comprendre les ambitions, enjeux et objectifs métiers Organiser et animer des ateliers avec les équipes métiers Collecter l’ensemble des besoins métiers nécessaires à l’étude Documenter l’architecture fonctionnelle Réaliser la modélisation des données / concevoir les couches métiers (Silver layer) Coordonner les contributeurs Data as a Service (Architecte technique, Data Engineers, BI Engineers) Documenter la valeur de la solution Préparer le budget et le planning build/run Formaliser les propositions finales de passage en projet (« Go to project ») Compétences demandées Analyse de données : Expert ERP : Expert Data Modeling : Expert Power BI : Confirmé SAP : Expert Communication : Expert SQL : Expert Data : Expert Langues Français : Courant Anglais : Courant Requis Lieu : Paris
Offre d'emploi
Développeur PL/ SQL confirmé H/F
CELAD
Publiée le
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Développeur PL/ SQL confirmé H/F pour intervenir chez un de nos clients. Contexte : Dans le cadre de projets en cours et à venir, vous intervenez en renfort d’équipes existantes sur des applications déjà en production. Vous contribuez à la maintenance, aux évolutions et à l’optimisation d’applications critiques dans un environnement Oracle. La mission implique également des déplacements réguliers sur site client (environ 1/3 du temps selon les besoins des projets). Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Analyser les besoins et proposer des solutions techniques adaptées - Développer, maintenir et optimiser des requêtes et procédures PL/SQL - Intervenir sur des applications existantes (correctifs et évolutions) - Participer aux activités de support et de maintenance applicative - Garantir la performance et la fiabilité des traitements Oracle - Collaborer avec les équipes internes (BE, projets, support)
Mission freelance
Data Analyst sur Aix-en Provence
EterniTech
Publiée le
Hadoop
Python
1 an
400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Je recherche pour un de mes clients un Data Analyst sur Aix-en Provence CONTEXTE DE LA MISSION : Le client dans le cadre de son activité analyse de la donnée, recherche un profil analyste DATA afin d'intégrer l'équipe sur le site d'Aix-en-Provence. Le profil aura pour mission de mettre en œuvre des analyses dans le cadre de la lutte contre la fraude. Fort d'une expérience DATA, il devra prendre en compte toutes les données du SI afin d'étudier leur cohérence et leur impact dans les processus métiers sensibles. DESCRIPTION DE LA MISSION Définition des missions et des obligations afférentes (obligation de conseil et/ou obligation de résultat) au Titulaire - Définition de la prestation attendue : - Rattaché à l'équipe Analyse de la donnée, l'intervenant aura pour principales missions : - Prise en compte des données du domaine "Individu Allocataire" et assimilation de leurs impacts dans le SI - Mise en œuvre de cas d'usage métiers orientés lutte contre la fraude par croisement des données (ciblage, analyse de donnée ou prédiction) - Développement et maintenance de produits DATA réutilisables - Respect des normes et bonnes pratiques au sein de l'équipe
Mission freelance
Tech Lead Data GCP
UCASE CONSULTING
Publiée le
DBT
GenAI
Google Cloud Platform (GCP)
1 an
400-600 €
Île-de-France, France
📢 Poste à pourvoir – Tech Lead Data GCP/Python (H/F) Bonjour à tous 👋 Je recherche un(e) Tech Lead Data Senior pour intervenir sur une mission stratégique autour d’une Data Platform moderne orientée Cloud & innovation 🚀 🎯 Contexte Dans le cadre d’un programme de transformation ambitieux, vous intégrerez une Data Factory en charge de : Construire et faire évoluer une plateforme data cloud Industrialiser les workflows data Déployer des solutions innovantes autour de la data et de l’automatisation Diffuser les bonnes pratiques data au sein des équipes 👉 Environnement dynamique avec une forte culture produit et innovation 🚀 Missions principales : Concevoir et développer des data products (jusqu’à 80% de dev) Participer au cadrage technique et aux études d’impact Mettre en place des architectures data robustes et scalables Assurer la qualité du code (review, bonnes pratiques) Accompagner et challenger les Data Engineers Gérer les incidents complexes (niveau 3) Documenter les solutions (architecture, flux, data models) 🛠️ Stack technique : Langages : Python, SQL, Shell Data & Cloud : GCP (BigQuery, Dataflow, Cloud Storage), DBT Streaming / ingestion : Kafka, Kafka Connect, SFTP DevOps / CI-CD : Docker, Kubernetes, Terraform, GitLab BI / Restitution : Looker + Bonus : Automatisation / IA (n8n, outils GenAI) ✨ Les + Projet structurant avec forte visibilité Environnement moderne (Cloud, Data, IA) Forte autonomie et impact technique Équipe orientée innovation ⏱️ Mission 📅 Démarrage : ASAP 📌 Télétravail : 50% 📍 Localisation : Île-de-France
Offre d'emploi
Data Engineer TERADATA ET DATAVIZ
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions sous technologie Teradata, en étroite collaboration avec les autres membres de la squad et de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage, traitement et usages, mise à disposition : une expérience des environnements Unix, une forte expertise SQL et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous interviendrez à la fois sur des activités projet mais aussi sur du RUN (suite des traitements de production, analyse/résolution d’incidents, optimisations, amélioration continue). Ces interventions sont primordiales, chaque membre de la squad participe au traitement des incidents et à l’amélioration continue du périmètre applicatif.
Offre d'emploi
Consultant Privacy & protection des données - Environnement IT - TOULOUSE
Ewolve
Publiée le
Data privacy
DORA
IA
2 ans
40k-45k €
400-500 €
Toulouse, Occitanie
Au sein d’un acteur majeur du secteur bancaire, vous intervenez dans un environnement SI complexe, multi-plateformes et à forts enjeux réglementaires. Intégré(e) à une équipe Privacy en lien étroit avec les équipes IT, Sécurité et Métiers, vous accompagnez les projets digitaux, data et IA sur l’ensemble du périmètre Banque & Assurance. Poste basé à Toulouse, 50% de télétravail. Vos missions - Privacy by Design & Accompagnement projets IT Intervenir dès les phases de cadrage projet pour identifier les traitements de données personnelles Analyser les flux de données et architectures applicatives Identifier les données à caractère personnel et qualifier les risques associés Définir et formaliser les exigences RGPD en lien avec les architectes, RSSI et équipes sécurité Participer à la recette des exigences (durées de conservation, habilitations, traçabilité, purges…) Documenter les livrables RGPD selon les standards internes et référentiels CNIL - Analyses d’impact & gestion des risques Rédiger et piloter les AIPD / PIA en coordination avec les Métiers, DPO et filières juridiques Évaluer les risques en matière de protection des données Proposer des plans de remédiation opérationnels Assurer le support en cas de violations de données et demandes d’autorités - Projets Data & Intelligence Artificielle Accompagner les projets intégrant des solutions d’IA (chatbots, scoring, outils d’aide à la décision…) Contribuer à l’analyse des risques au regard du RGPD et du futur cadre IA (IA Act) Participer à la qualification des systèmes à risque Contribuer à la mise en place de dispositifs de transparence et de gouvernance des modèles - Cookies & outils digitaux Analyser les dispositifs de traceurs (tags, scripts tiers, outils de consentement) Vérifier la conformité des implémentations techniques Accompagner les équipes digitales dans le paramétrage et la gouvernance des outils - Veille & sensibilisation Assurer une veille active sur les évolutions réglementaires (RGPD, IA Act, DORA, eIDAS v2…) Contribuer à la diffusion des bonnes pratiques en matière de protection des données Participer à la montée en compétence des équipes projets et métiers
Mission freelance
Développeur d'appli. à forte connotation Data
Codezys
Publiée le
API
Azure
Azure DevOps Services
12 mois
360-410 €
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service « systèmes connectés » gère un portefeuille de projets couvrant plusieurs applications, dont certaines sont en phase de développement ( BUILD ) et d'autres en exploitation ( RUN ). Nous recherchons un profil expérimenté pour assurer la responsabilité d’un projet existant. Ce projet, récemment mis en production, a pour objectif de fournir des indicateurs via une interface Grafana. Le système comprend une couche « d’ingestion » qui enregistre les données dans une base ElasticSearch, dans un format adapté. Cette étape d’ingestion est orchestrée avec du code Java. Les indicateurs produits permettent au métier de suivre les modules de télérelève et de radio-relevé client (plus d’un million de modules, avec un index quotidien sur trois ans). La mission comprend notamment : La maintenance de l’existant L’analyse des incidents et des questions remontés par le métier afin d’expliquer ou corriger les résultats affichés L’ajout de nouveaux objets métier selon les besoins. Objectifs et livrables Le candidat retenu devra prendre en charge les projets suivants : Projet « Supervision Télérelève » : basé sur une architecture technique Java/ELK/Grafana, il vise à fournir une solution de reporting des données de télérelève aux experts et aux collectivités. Le socle technique étant déjà en place, il sera nécessaire de le maintenir, le faire évoluer en intégrant de nouveaux objets, et de collaborer avec d’autres équipes sur la mise en œuvre de fonctionnalités d’authentification, afin d’intégrer la solution dans d’autres projets. Il est également possible qu’à moyen terme, une migration vers Databricks soit envisagée. Le rôle du consultant sera celui de TechLead et de développeur : il analysera l’existant, assurera des activités de débogage, suivra le backlog et communiquera régulièrement avec le métier, le Product Owner (PO) et, si nécessaire, avec les architectes. En tant que seul acteur technique sur ce projet, le consultant devra faire preuve d’une grande autonomie pour la gestion des sujets techniques.
Offre d'emploi
Chef de projet data Confirmé
VISIAN
Publiée le
Budget Management
Data management
Data quality
1 an
40k-55k €
400-600 €
Paris, France
Descriptif du Poste Nous recherchons un chef de projet confirmé pour planifier, coordonner, et faire le suivi opérationnel du déploiement mondial des Data products au sein d'une division dédiée à la gestion de l'énergie. Le projet consiste à définir avec plusieurs métiers et pays (UK, US, Italie, Espagne au moins) un planning d'adoption de 3 à 4 solutions data (gestion des données fondamentales, gestion des données de production des centrales éoliennes et solaires, gestion des données de marché...) puis à coordonner ces déploiements avec les chefs de projets de chacun de ces produits et les pays concernés. Il faudra aussi coordonner les travaux d'une équipe dédiée à ces déploiements (3 à 4 personnes réparties dans les différents projets). Le chef de projet confirmé devra assurer le reporting, la gestion des risques, les budgets de déploiement.
Offre d'emploi
Senior Data Engineer Python / Kafka / Flink (On-Premise)
Deodis
Publiée le
Apache Kafka
Python
1 an
40k-45k €
400-500 €
Île-de-France, France
Nous recherchons un(e) Senior Data Engineer pour concevoir, déployer et maintenir une plateforme de données robuste et performante dans un environnement entièrement on-premise. Vous serez responsable du développement de pipelines batch et temps réel en Python, de l’orchestration via Apache Airflow et du traitement de flux avec Apache Flink, tout en assurant l’exploitation de Apache Kafka pour le streaming à grande échelle. Vous contribuerez également à l’observabilité et à la qualité des données via la stack Elasticsearch / Logstash / Kibana, en collaboration étroite avec les équipes Data et DevOps. Ce rôle clé implique un haut niveau d’exigence technique, la fiabilité des systèmes en production et l’accompagnement des ingénieurs plus juniors
Mission freelance
SAP BW Data Extraction Azure Consultant - Toulouse
Signe +
Publiée le
Azure
SAP BW
6 mois
400-710 €
Toulouse, Occitanie
Dans le cadre du développement de sa plateforme Data Azure, notre client recherche un(e) Analyste SAP Data Ingestion pour gérer l’intégration des données SAP vers Azure, en lien avec les équipes SAP, Data et Gouvernance. Missions : Recueillir et analyser les besoins d’extraction de données SAP Mettre en place et maintenir les pipelines d’ingestion (Azure Data Factory, Data Lake…) Assurer la qualité et la cohérence des données Gérer les incidents, corrections et le bon fonctionnement des flux Documenter les processus et flux de données Informations complémentaires : Démarrage : ASAP Durée : 6 mois renouvelable Localisation : Toulouse (2 jours de remote par semaine) TJM : Selon profil
Offre d'emploi
EXPERT COLLIBRA
Signe +
Publiée le
Collibra
24 mois
50k-55k €
358-550 €
Paris, France
Mission longue d'expertise Collibra qui vise à adresser les besoins exprimés par le Data Office à adapter la solution Collibra pour y répondre. Le prestataire contribuera également à l'onboarding des data stewards et data custodians dans leur prise en main de l'outil et dans la documentation de leur périmètre. La personne sera aussi appelée à travailler sur des sujets plus techniques, comme par exemple la connectivité entre Collibra et les autres solutions data (ex : Power BI, Dataiku,API Manager, SGBD, etc.) - Mission à Montrouge avec possibilité de 2 jours de télétravail / semaine. - Niveau d'anglais professionnel exigé. - Démarrage 1er Juin souhaité. La Data Factory chez DEC (Digital Excellence Center) est un centre d'expertise transverse qui propose des produits data autour de la data visualisation, de la BI et de la data gouvernance. L'offre Collibra a été lancée en 2020. Elle constitue l'un des piliers de la stratégie Data de CACIB qui vise à doter les métiers et l'IT de moyens leur permettant d'exploiter directement leurs données. Analyser les besoins des clients (IT et métiers) dans la documentation de leur périmètre Charger la documentation Data du métier dans Collibra et documenter le processus Paramétrer la solution Collibra pour adapter son usage aux besoins des utilisateurs (création de dashboards, vues, etc.) Présenter l'offre de service aux clients et les accompagner dans la prise en main de l'outil Tester les nouvelles fonctionnalités de Collibra, déterminer leur pertinence et les intégrer dans l'offre de service Donner des ateliers de formation et animer des ateliers de travail / des démonstrations Recueillir le feedback des utilisateurs pour adapter l'offre de service Fournir du support et de l'assistance aux utilisateurs, tester les nouvelles releases et résoudre d'éventuels incidents ou bugs Montrouge 3J/semaine Compétences techniques requises : Collibra Microsoft Power BI Dataiku Mulesoft API Manager English
Mission freelance
Développeur PL/ SQL confirmé H/F
CELAD
Publiée le
1 an
350-419 €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Développeur PL/ SQL confirmé H/F pour intervenir chez un de nos clients. Contexte : Dans le cadre de projets en cours et à venir, vous intervenez en renfort d’équipes existantes sur des applications déjà en production. Vous contribuez à la maintenance, aux évolutions et à l’optimisation d’applications critiques dans un environnement Oracle. La mission implique également des déplacements réguliers sur site client (environ 1/3 du temps selon les besoins des projets). Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Analyser les besoins et proposer des solutions techniques adaptées - Développer, maintenir et optimiser des requêtes et procédures PL/SQL - Intervenir sur des applications existantes (correctifs et évolutions) - Participer aux activités de support et de maintenance applicative - Garantir la performance et la fiabilité des traitements Oracle - Collaborer avec les équipes internes (BE, projets, support)
Mission freelance
Business Analyst Finance DATA / IA - Paris
Net technologie
Publiée le
Big Data
Elasticsearch
Méthode Agile
9 mois
Paris, France
Dans le cadre d’un programme réglementaire stratégique, nous recherchons un Senior Business Analyst pour contribuer à l’industrialisation d’une plateforme globale de Front Office destinée à renforcer la supervision des activités de trading et de sales. 🎯 Objectif : développer une plateforme de monitoring couvrant communications, ordres, transactions et données associées , intégrant des technologies d’analyse avancées (NLP / IA). 🚀 Missions Recueil et formalisation des exigences fonctionnelles et use cases Rédaction des spécifications fonctionnelles et techniques Coordination avec les Data Engineers et les équipes projet Participation aux sprints Agile et suivi des livraisons Conception de la stratégie data pour l’analyse multi-sources Organisation et pilotage des tests UAT Collaboration avec les équipes Business, Compliance et IT
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3932 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois