L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 019 résultats.
Offre d'emploi
QA Data (H/F)
SMARTPOINT
Publiée le
Databricks
JIRA
Microsoft Power BI
3 ans
40k-45k €
400-450 €
Île-de-France, France
Nous recherchons un(e) QA Data (H/F) pour rejoindre la squad Équipement de la Maison , rattaché(e) au Pôle Qualité Data . Vous évoluerez dans un environnement agile et structuré , rythmé par : Des rituels agiles cadrés et trimestriels Des cycles de réalisation de 3 semaines (Sprint Planning, Affinage, Sprint Review, Daily Meeting) Une culture d'équipe basée sur l'entraide et l'autonomie Pilotage de la qualité Définir et réaliser la stratégie de test adaptée au contexte Data Analyser et évaluer les cas d'usage et User Stories Rédiger les plans de test , identifier les prérequis et spécifier les jeux de données Identifier et réceptionner les environnements de test Maintenir et faire évoluer le référentiel de test Exécution & suivi Exécuter les cas de tests fonctionnels Réaliser des tests d'intégration 2 à 2 , des tests end-to-end et des tests de surface dans un contexte Data Créer et assurer le suivi des défauts avec les différentes parties prenantes Rédiger les Procès-Verbaux de recette Présenter les sujets en CAB (Change Advisory Board) pour le passage en production Collaboration & amélioration continue Participer activement aux ateliers et rituels agiles Contribuer à l' amélioration continue des pratiques et process qualité Être force de proposition pour gagner en efficacité et en qualité
Mission freelance
Pilote de service Power BI
Signe +
Publiée le
Agile Scrum
Azure
Microsoft Fabric
6 mois
500-580 €
Paris, France
Nous recherchons pour l'un de nos clients un Pilote de service Power BI. MISSIONS PRINCIPALES • Pilotage SLA du service Power BI, coordination de l'infogérant Atos • Gestion des incidents N3, RFC ITIL, vulnérabilités SOC • Production de la feuille de route N/N+1 du service • Études techniques sur l'industrialisation Fabric, Purview, Copilot (déploiement 2026) • Reporting et supervision des services Collaboratif & Messagerie (MyDispo, Dynatrace) • Animation agile SAFe : User Stories JIRA, PI Planning, cérémonies SCRUM
Offre d'emploi
Data Engineer SENIOR
Tritux France
Publiée le
Cloud
Data Lake
Pandas
3 ans
40k-45k €
400-470 €
Île-de-France, France
Objectif de la mission Au sein d’une équipe produit, vous interviendrez sur la conception, le développement et l’industrialisation de pipelines de données complexes, dans un environnement technique moderne et orienté performance. Votre objectif principal est de garantir des solutions data : Scalables Maintenables Alignées avec les standards d’architecture et de qualité Missions & responsabilités Ingénierie & Développement Concevoir et développer des pipelines de données robustes et performants Participer à la définition et à la mise en œuvre d’architectures data Garantir la qualité du code (Clean Code, DDD, peer review) Documenter les solutions Industrialisation Mettre en place des mécanismes d’observabilité (monitoring, logs, alerting) Optimiser les performances et les coûts (FinOps Data) Assurer la sécurité et la conformité des données Expertise & Collaboration Traduire les besoins métier en solutions techniques Contribuer aux rituels agiles et à la conception des user stories Résoudre les incidents de production et anticiper les risques Collaborer avec les équipes transverses Participer au partage des bonnes pratiques
Offre d'emploi
📩 Data Engineer – Data Quality & Governance
Gentis Recruitment SAS
Publiée le
Agile Scrum
Apache Spark
API
1 an
Paris, France
Contexte de la mission Dans le cadre du développement de son équipe Data Accelerator (DAC), notre client recherche un Data Engineer confirmé orienté Data Quality et Data Governance. DAC est une équipe transverse en charge d’accompagner les équipes métiers et IT sur l’ensemble de la chaîne de valeur de la donnée : collecte, ingestion, transformation, industrialisation, gouvernance et optimisation des performances. L’environnement s’appuie principalement sur les technologies AWS, Databricks, Dataiku et Collibra, avec un fort enjeu autour de la qualité, de la fiabilisation et de la structuration des données au sein du Data Lake. Le consultant interviendra dans un contexte stratégique avec une forte collaboration avec les équipes Data Analysts, Data Scientists ainsi qu’avec le Chief Data Officer. Missions principalesQualification et gestion des données Captation des données structurées et non structurées provenant de multiples sources Intégration et supervision des flux de données Structuration de la donnée (normalisation, sémantique, référentiel) Cartographie des données disponibles Nettoyage des données (suppression des doublons, contrôle qualité) Validation et qualification des données avant intégration dans le Data Lake Participation à la création et à l’amélioration des référentiels de données Industrialisation et performance Développement et optimisation des traitements data Amélioration des performances et maîtrise des coûts des plateformes data Participation aux développements correctifs, évolutifs et adaptatifs Contribution aux dossiers d’architecture Production des tableaux de bord de suivi Gouvernance & collaboration Participation à la définition de la politique data Respect des standards de sécurité, gouvernance et conformité Collaboration avec les équipes métiers, IT et gouvernance data Contribution à l’industrialisation des cas d’usage Data & GenAI
Offre d'emploi
Consultant BI / Data Analyst (H/F)
█ █ █ █ █ █ █
Publiée le
Python
SQL
40k-50k €
Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
PROPULSE IT
Publiée le
BI
MOE
24 mois
275-550 €
Nanterre, Île-de-France
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Offre d'emploi
Responsable Data F/H
LED'RH
Publiée le
Data Engineering
Data governance
Gestion de projet
60k-70k €
Nord, France
Envie d’avoir de l’impact sur la stratégie data d’une entreprise ? Discutons-en! Je suis Laetitia de LED’RH et accompagne les entreprises sur leurs projets de recrutements IT. Dans un contexte d’accélération autour de la Data et de l’IA, je recherche un profil en capacité de structurer et de piloter des stratégies Data, pour un client du secteur du Retail. Missions principales : Définir et mettre en œuvre la stratégie DATA et IA Assurer le lien avec les équipes de la DSI, les équipes Métiers et les différents partenaires externes. Piloter l’ensemble des projets DATA et IA, jusqu’à leur mise en production Participer au comité de pilotage Data Encadrer l’équipe technique, composée de spécialistes de la Data Garantir la qualité, la gouvernance et la sécurité des données Assurer une veille technologique et mettre en place les bonnes pratiques dans le domaine de la DATA et de l’IA.
Offre d'emploi
Data Analyste DATA/AMOA Sénior
KEONI CONSULTING
Publiée le
AMOA
Data analysis
SAS
18 mois
20k-60k €
100-600 €
Paris, France
Contexte : Business analyste pour accompagnement de l'équipe Conseil Valorisation de la Data. Dans le cadre de Solutions Data, nous avons besoins d’un profil de Business Analyst DATA/ AMOA Senior pour intervenir rapidement et venir renforcer l’équipe Conseil et Valorisation Data. MISSIONS principales missions : - Assurer une proximité et accompagner les direction métiers sur les usages autour de la donnée - Réaliser les études et apporter le bon conseil vers les métiers sur le volet Data - Assurer le support et l’assistance métier des usages Data - Contribuer à la production des livrables de niveau fonctionnel Et concrètement ? • Recueillir et analyser les besoins métiers, • Apporter le conseil nécessaire aux direction Métier sur l’exploitation de la donnée, • Participer au cadrage des projets Data (études d’impacts, faisabilité) • Contribuer aux études d’opportunité et de faisabilité sur le volet Data, • Garantir la cohérence fonctionnelle et technique du SI • Réaliser les recettes fonctionnelles, qualifier les anomalies et suivre les corrections • Produire des livrables fonctionnels (modélisations de données, SFG, SFD), • Tenir à jour la base documentaire du patrimoine, • Garantir la bonne satisfaction métier Data (qualité, engagement, cout, délai). Environnement technique • Ecosystème DATA SI Décisionnel (SAS) et plateforme Big Data (Cloudera) Pré-requis : Expérience dans des projets Data (SI Décisionnel, plateforme Big data) Sensibilité aux enjeux de gouvernance et qualité des données Connaissance du secteur assurance
Offre d'emploi
Administrateur Middleware ETL – Expert Informatica & Azure AZ‑104
Lùkla
Publiée le
Azure
IBM DataStage
Informatica PowerCenter
4 ans
40k-65k €
400-550 €
Île-de-France, France
Contexte de la mission: Au sein de la DSI d'un grand groupe bancaire international, vous intervenez comme expert Middleware ETL pour assurer l'administration, l'évolution et la sécurisation des plateformes Informatica PowerCenter / IDMC et IBM DataStage. La mission s'inscrit dans un contexte de modernisation des infrastructures ETL, incluant une migration vers Informatica 10.5, un renforcement des environnements Azure (AZ104) et une industrialisation des processus d'exploitation. Vous rejoignez l'équipe Middleware & Data Engineering, en charge du maintien en conditions opérationnelles, de la performance et de l'architecture des plateformes ETL critiques pour les métiers bancaires. Objectifs de la mission: Administrer et maintenir les plateformes Informatica PowerCenter / IDMC et IBM DataStage. Assurer l'installation, la configuration, le patching et la migration vers Informatica 10.5. Gérer les environnements serveurs sous Azure (AZ104) et RHEL / Linux. Déboguer les incidents complexes liés à l'administration et au développement ETL. Fournir des recommandations et solutions architecturales pour les plateformes ETL. Assurer la sauvegarde, la restauration et la sécurisation des domaines Informatica & DataStage. Contribuer à la gestion des changements, incidents et opérations via l'outil ITSM. Gérer des problématiques environnementales complexes dans un contexte bancaire exigeant.
Mission freelance
Chef de Projet MOA – Compliance / Front Office Surveillance
ABSIS CONSEIL
Publiée le
Agile Scrum
Big Data
Elasticsearch
1 an
570-620 €
Paris, France
Contexte de la mission Dans le cadre de programmes réglementaires à forte visibilité, une organisation spécialisée dans les activités de marchés financiers renforce un dispositif de surveillance des conduites Front Office à l’échelle mondiale. La mission s’inscrit dans un programme IT réglementaire structurant , visant à industrialiser et déployer une plateforme de monitoring des communications et des comportements (trading, ventes, communications électroniques, ordres et transactions), en remplacement d’un outil existant. Les enjeux sont forts : délais réglementaires contraints, coordination multi‑équipes, forte exposition métier et conformité , dans un environnement international et anglophone. Mission En tant que Chef de Projet MOA – Compliance / Front Office Surveillance , vous interviendrez sur la gestion et la livraison des évolutions clés liées aux données collaborateurs et communications au sein de la plateforme de monitoring. Vous travaillerez en mode agile , en lien étroit avec les équipes métier, IT et data, avec un objectif clair : livrer rapidement un maximum de valeur fonctionnelle , tout en garantissant la conformité réglementaire. Responsabilités principales Recueillir, analyser et formaliser les besoins fonctionnels , cas d’usage et spécifications Challenger les exigences avec les équipes Data et IT afin d’assurer leur faisabilité technique Collaborer avec les sponsors métier, équipes conformité, supervision de plateforme et management Coordonner les travaux avec le chef de projet et les équipes projet (interne et externe) Piloter les activités en méthodologie agile (sprints, priorisation, suivi des livrables) Contribuer à la définition et à la mise en œuvre d’une stratégie data intégrant des approches d’analyse avancée (NLP, machine learning) Superviser le développement et l’évolution de solutions logicielles (ingestion de données de communication, gestion des flux, data management) Rédiger les spécifications fonctionnelles et techniques Élaborer les plans de tests, scripts de recette , organiser et animer les sessions UAT jusqu’à validation métier Gérer plusieurs sujets en parallèle dans un contexte à forte contrainte de planning
Mission freelance
Product Manager Data Mesh
SURICATE IT
Publiée le
Data Mesh
Product management
3 ans
400-750 €
La Défense, Île-de-France
Product Manager Data Mesh 📍 Localisation : Puteaux 📅 Type de mission : Mission longue 🏠 Télétravail : 1 jour / semaine (non négociable) 💰 TJM : 750€ Max 🏦 Secteur d’activité : Finance 🚨ATTENTION : Expérience pratique du Data Mesh obligatoire Contexte de la mission Dans un contexte de transformation data à grande échelle, notre client recherche un Senior Data Product Manager pour piloter la conception, la construction et le déploiement de sa plateforme Data Mesh (Group Data Platform – GDP). Il s’agit d’un rôle stratégique mais fortement opérationnel, avec une responsabilité directe sur la livraison, l’industrialisation et l’adoption de la plateforme à l’échelle de l’entreprise. Vos missions 🎯 Pilotage produit & amélioration continue Recueillir les besoins utilisateurs et définir la vision produit Construire et piloter la roadmap Suivre les KPIs d’usage et de valeur Améliorer en continu l’expérience utilisateur et développeur 🏗️ Delivery de la plateforme Data Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité…) Mettre en place les standards techniques et les patterns d’architecture Prendre des décisions techniques et valider les solutions ☁️ Architecture Cloud & Infrastructure Coordonner l’architecture cloud et hybride (AWS / Azure) Piloter l’intégration des systèmes on-premise Garantir la sécurité et la conformité 🚀 Exécution & delivery Piloter le cycle de vie produit (backlog, priorisation, releases) Gérer les déploiements en production Suivre performance, fiabilité et risques 📊 Déploiement & adoption Data Mesh Déployer la plateforme dans les différents domaines métiers Accompagner les équipes dans la création de data products Structurer et piloter l’adoption du modèle Data Mesh 📚 Gouvernance & documentation Formaliser les standards, processus et bonnes pratiques Assurer la conformité avec la gouvernance data du Groupe 📢 Communication & pilotage Assurer le reporting auprès des parties prenantes et du top management Produire dashboards, KPIs et supports de pilotage Animer les comités de suivi 🌟 Évangélisation & adoption Promouvoir la plateforme en interne Construire une communauté autour de la data Développer des cas d’usage et démonstrateurs Indicateurs de succès Plateforme déployée et opérationnelle en production Adoption effective par les métiers Qualité et volume des data products livrés Performance et fiabilité de la plateforme Satisfaction utilisateurs Réduction du time-to-market des cas d’usage data
Mission freelance
Développeur SAP BODS
KUBE Partners S.L. / Pixie Services
Publiée le
Sap BO
2 mois
420-750 €
Paris, France
Nous recherchons pour l'un de nos clients parisien un consultant SAP Expert BODS. Contexte : Accompagnement dans la livraison d’évolutions pour un programme de conversion de données Client dans le secteur de la Pétrochimie. Tâches : Rédaction de spécifications Développement d'objets Tests Mission hybride site/remote Début : au plus vite Durée : 2 mois renouvelables Localisation : Paris
Offre d'emploi
DATA ENGINEER PYTHON
UCASE CONSULTING
Publiée le
Azure
Azure Kubernetes Service (AKS)
Jenkins
3 ans
40k-60k €
500-580 €
Paris, France
2 DESCRIPTION DE LA MISSION 2.1 Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein pour 1 Data Engineers Python. Vous interviendrez d’un nouveau lot sur un projet déjà initié il y a un an. Vous intégrerez une équipe existante composée de 3 Data Engineers et d’un Chef de Projet. Au sein de l’équipe, vous aurez à charge la réalisation de ce lot projet. Le projet est piloté en agilité, par conséquent le delivery sera détaillé sous formes d’US. Chaque US comprend du développement, des tests, de la documentation. Les technologies associées sont Python, Pandas/Polars, Kubernetes et Azure. 2.2 Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; 2.3 Dates souhaitées de début et de fin de mission Date de début : 13/04/2026 Compétences sur les méthodes et les outils Requises • maîtrise du langage Python et de son écosystème (packaging, gestion de versions…) • maîtrise des librairies Data, en particulier Pandas et/ou Polars • maîtrise de la CI/CD sous Jenkins • maîtrise du cloud, en particulier Azure • expérience dans le développement de job batch sur Kubernetes (AKS) • bonnes pratiques de développement
Offre d'emploi
Mission – Développeur Python
OMICRONE
Publiée le
Azure
Big Data
Python
3 ans
40k-45k €
400-500 €
Île-de-France, France
📢 Mission – Développeur Python Confirmé (H/F) Dans le cadre d’un échange avec l’un de nos clients, nous recherchons un développeur Python confirmé pour intervenir sur des projets à forte valeur ajoutée. 🔹 Missions Développement et évolution d’applications data / backend Python Participation à des projets de bout en bout (design → production) Collaboration étroite avec les équipes business, infra et sécurité Contribution à des environnements cloud Azure 🔹 Profil recherché Développeur Python confirmé (5+ ans) Expérience en environnement Azure / data / APIs Capacité à intervenir en autonomie sur des sujets end-to-end Bonne compréhension des enjeux métier Anglais professionnel requis 🔹 Conditions 📍 Localisation : paris 💼 Mission long terme (pas de mission courte) 🚫 Non ouvert à la sous-traitance
Mission freelance
Data Analyst – Data Quality / Gouvernance / Dataflows
CHOURAK CONSULTING
Publiée le
Apache Kafka
Dremio
ETL (Extract-transform-load)
3 mois
400-500 €
Île-de-France, France
Nous recherchons un Data Analyst pour intervenir sur un projet de rationalisation et optimisation des flux de données au sein d’un environnement Data structuré. 🎯 Contexte de la mission La mission vise à améliorer la qualité, la cohérence et la gouvernance des données , en simplifiant les structures existantes et en réduisant les redondances. Vous interviendrez sur l’analyse des dataflows transactionnels , des objets de données et de leur utilisation afin d’optimiser les échanges entre systèmes IT et métiers. ⚙️ Missions principales Analyser les flux de données , leur structure et leur utilisation. Identifier les données redondantes, incohérentes ou inutilisées . Proposer des optimisations et simplifications des dataflows. Mettre en place des indicateurs de qualité des données . Contribuer à la définition du cadre de gouvernance Data (règles, rôles, usages). Documenter les modèles de données, règles métiers et cas d’usage. Accompagner les équipes métiers dans l’exploitation des données. Participer aux routines de gouvernance et qualité Data . 📦 Livrables attendus Analyses détaillées des jeux de données transactionnels Identification des anomalies et recommandations d’optimisation Documentation des modèles de données et dataflows Mise en place de contrôles de qualité des données Support aux équipes métiers pour la mise en œuvre des améliorations 🛠 Compétences techniques Python (obligatoire) SQL (excellent niveau) Outils Data : Dremio, Strategy, Kafka (apprécié) Concepts ETL / traitement de données Modélisation de données (entités, attributs, UML) Expérience en migration / validation de données (plus)
Mission freelance
Consultant Développeur Microsoft Dynamics 365 / Azure – Finance (Private Assets)
Deodis
Publiée le
Microsoft Dynamics
1 an
470 €
Île-de-France, France
Dans le cadre d’un environnement IT dédié à la gestion d’actifs non cotés (Private Equity et Private Debt), participation à des projets de conception et de développement d’applications métiers reposant sur l’écosystème Microsoft. Intervention sur l’ensemble du cycle de vie applicatif en méthodologie Agile, de l’analyse des besoins à la mise en production, incluant le développement d’évolutions fonctionnelles en C#/.NET, Power Platform et Dynamics 365, ainsi que la maintenance corrective et évolutive des applications et des flux de données. Le poste implique également la réalisation de tests unitaires, le support technique lors des phases d’homologation, le diagnostic et la résolution des incidents en production, l’accompagnement des utilisateurs, ainsi que la contribution à la fiabilisation et à l’amélioration continue des solutions, dans un environnement technique comprenant notamment Azure, Dataverse, SQL Server et des outils de développement tels que Git, Jenkins et Docker.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Vue CV
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Offre fictifs et offre non sérieuses
- Retour d'expérience démission-reconversion
5019 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois