Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 841 résultats.
Freelance

Mission freelance
Ingénieur Data Power BI

Publiée le
Microsoft Power BI
Power Automate

1 an
400-550 €
Blaye, Nouvelle-Aquitaine
Le consultant Data Power BI conçoit, développe et optimise des rapports et tableaux de bord avancés en s’appuyant sur une maîtrise experte de Power BI, incluant DAX et M. Il exploite ses compétences en Python, SQL et ELK pour structurer, analyser et visualiser des données complexes, et contribue à l’automatisation des processus via PowerAutomate et PowerApps. Capable d’intégrer des données provenant d’API REST et de renforcer l’utilisation des outils collaboratifs comme SharePoint et Excel (VBA), il accompagne les équipes métiers dans la compréhension, l’exploitation et la valorisation des données.
Freelance

Mission freelance
Expert BigData / Cloud Data Engineer Senior

Publiée le
Cloud

6 mois
160-650 €
Île-de-France, France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site Les astreintes (HNO, etc…) : Oui
CDI
Freelance

Offre d'emploi
Architecte Solutions Data

Publiée le
Big Data
CI/CD
SAS

2 ans
Île-de-France, France
1G-Link est une entreprise innovante en pleine croissance, au cœur de la transformation numérique. Nous accompagnons les organisations dans la valorisation de leurs données à travers des architectures scalables, modernes et performantes. Dans le cadre de notre développement, nous recherchons un(e) Architecte Solutions Data avec une expertise forte sur Snowflake et Microsoft Azure. Vos missions En tant que membre de l’équipe Data Capture, le poste requiert un bagage technique et architectural ainsi qu’une solide expérience pratique des technologies Cloud, du développement de microservices et de l’Event Driven Architecture. Il implique également une collaboration étroite avec les équipes IT Groupe/Zone, les partenaires métiers, les partenaires externes et l’ensemble des membres de l’équipe d’intégration. En tant qu’Architecte Data, vous serez au centre des projets de transformation data de nos clients. Vos responsabilités incluront : Concevoir et proposer des solutions sur la donnée en utilisant les technologies Azure Cloud dans notre cadre de référence Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » conformément aux bonnes pratiques architecturales Concevoir et développer des APIs / Microservices pour enrichir notre cadre de solutions Soutenir la stratégie d’Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l’enrichissement en self-service Participer à la modernisation et à la sensibilisation technologique au sein de l’équipe Data Capture et à travers l’organisation Data & Analytics Être le référent Cloud de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’équipe Sécurité sur les sujets concernés Contribuer à la feuille de route et à l’évolution de Data Capture Challenger et accompagner les prestataires externes Capacité à produire une restitution documentaire (dans le cadre d’un audit, d’un POC, ou selon les standards et l’architecture) Les + de l’offre Projets innovants à fort impact Culture d’entreprise basée sur la collaboration, la montée en compétence et la bienveillance Environnement de travail flexible (télétravail possible : 2 jours par semaine) Accès à un programme de certification et de formation continue
Freelance

Mission freelance
Consultant MOE MSBI socle Data ETL

Publiée le
MOE
MSBI

24 mois
275-550 €
La Défense, Île-de-France
Télétravail partiel
Consultant(e) MOE MSBI socle Data ETL Descriptif détaillé de la mission : - Assurer l'évolution et support des applications existantes (ETL, Bases de données, support niveau 3). Effectuer des études d'impacts et analyser les anomalies - Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. - Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. - Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. - Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). - Conseiller, proposer des axes d'amélioration, alerter si besoin. Environnement technique de la mission : - Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) - Reporting : COGNOS BI 10.2 et 11 & Tableau Durée estimée de la mission : 3 mois (renouvelables) Lieu de la mission : La Défense
Freelance

Mission freelance
Directeur de programme DATA/ Product Manager - Montpellier

Publiée le
Backlog management
Cloudera
Data governance

12 mois
550-670 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Démarrage : ASAP Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Freelance
CDI

Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)

Publiée le
MySQL

18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
Offre premium
CDI

Offre d'emploi
Chef de projet Data

Publiée le
ETL (Extract-transform-load)
Master Data Management (MDM)
Talend

Paris, France
Télétravail partiel
Contexte : Dans le cadre d’un projet de transformation, notre client souhaite migrer les flux ETL Talend liés à un MDM legacy vers une nouvelle plateforme MDM. Le chef de projet assurera la coordination des équipes et le pilotage des différentes étapes de migration. Missions : • Piloter le projet de migration ETL (planification, coordination, suivi, reporting) • Analyser et documenter les flux existants • Superviser la refonte et la réécriture des jobs Talend vers le nouveau MDM • Organiser et suivre les phases de tests fonctionnels et techniques en coordination avec les différentes équipes • Préparer la mise en production et accompagner la transition vers le RUN • Assurer la communication entre les équipes data, techniques et métiers
Freelance

Mission freelance
Lead Data Engineer Streaming

Publiée le
Apache Kafka
Apache Spark

12 mois
700-850 €
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du programme de modernisation de la plateforme data du Groupe, vous rejoignez la direction Data Engineering de la DSI Banque de Proximité et Assurance (BPA) en tant que Lead Data Engineer spécialisé en streaming. Vous serez responsable de la conception, de l’industrialisation et de l’optimisation des pipelines de données temps réel, en lien avec les enjeux métiers autour de la fraude, de la connaissance client, et de la supervision des parcours digitaux. Vous encadrerez une équipe de 3 à 5 data engineers et collaborerez étroitement avec les architectes, les data scientists et les équipes cloud. Stack technique & environnement Streaming & ingestion : Apache Kafka (Confluent), Kafka Connect, REST Proxy Traitement temps réel : Apache Spark Structured Streaming, Apache Flink (POC en cours) Orchestration : StreamSets, Airflow Cloud & stockage : Google Cloud Platform (BigQuery, Cloud Storage), Hadoop (legacy) Langages : Python, Scala, SQL CI/CD & Infra : GitLab CI, Terraform, Docker, Kubernetes (GKE) Monitoring : Grafana, Prometheus, Elastic Stack
CDI

Offre d'emploi
MOA / BA - Mise en place d'un Datalake Hadoop

Publiée le
AMOA
Big Data
Business Analysis

55k-65k €
Île-de-France, France
Télétravail partiel
Pour mon client bancaire, je recherche MOA / BA - Mise en place d'un Datalake Hadoop. Vous interviendrez sur les sujets liés aux métiers du Financement Structuré et du Risk Management. Recueil des besoins et animation d’ateliers avec les équipes métiers (Financing & Risk) Rédaction de spécifications fonctionnelles claires et structurées Contribution à la modélisation des données et au design fonctionnel Préparation, exécution et suivi des tests utilisateurs Présentation des livrables aux équipes métiers et rédaction de synthèses Accompagnement des utilisateurs dans la conduite du changement Suivi de la qualité de production et amélioration continue
Freelance

Mission freelance
Dev back-end sénior (Java/Springboot) - H/F - 93

Publiée le
API REST
Java
RabbitMQ

1 an
Saint-Denis, Île-de-France
La mission consiste à participer activement à la mise en œuvre et à l’évolution d’une application nationale de gestion en temps réel, dans le cadre d’une refonte complète déjà planifiée pour 2026. Le projet présente un haut niveau de complexité, tant sur le plan fonctionnel que technique, en raison de son périmètre étendu et de son intégration avec de nombreux systèmes métiers stratégiques. L’architecture applicative, en cours de modernisation, repose sur plusieurs sources de données critiques, ce qui impose des exigences fortes en matière de performance et de fiabilité. Parallèlement, le prestataire devra également assurer la maintenance évolutive et corrective de la version actuelle de l’application, toujours en production, afin de garantir la continuité du service et le traitement des anomalies ou évolutions mineures. Ce contexte requiert une expertise technique confirmée en développement back-end. Objectifs de la mission Dans le prolongement du contexte précédemment décrit et des enjeux techniques identifiés, la mission vise à renforcer l’équipe de développement par l’intégration d’un développeur back-end senior. Ce renfort a pour but de garantir la réussite du plan de travail prévu pour 2026, incluant à la fois la refonte complète de l’application (version 2) et la maintenance opérationnelle de la version actuelle (version 1). Description détaillée des activités Le prestataire aura pour principales responsabilités de : Participer aux travaux d’architecture et aux décisions techniques dans le cadre de la refonte de l’application ; Contribuer à la compréhension et à la traduction des besoins fonctionnels en solutions techniques ; Réaliser les développements back-end nécessaires à la modernisation du code ; Garantir la qualité, la performance et la fiabilité du code produit ; Accompagner éventuellement un développeur junior dans le cadre d’un stage ou d’un appui technique ; Participer à la mise en place et à l’amélioration continue de la chaîne d’intégration et de déploiement ; Assurer la maintenance corrective et évolutive de la version actuelle de l’application.
CDI
CDD

Offre d'emploi
Concepteur / Développeur Full Stack Java – Sophia Antipolis (H/F)

Publiée le
Java
Spring Data
Spring Security

3 mois
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🔍 Contexte de la mission Dans le cadre d’un projet à fort enjeu opérationnel au sein du secteur de la santé numérique européenne , la mission consiste à concevoir, développer et opérer une plateforme de services et d’intermédiation à l’échelle européenne. Ce projet stratégique s’inscrit dans un contexte international, nécessitant une maîtrise technique solide et une capacité à collaborer dans un environnement multiculturel . ⚙️ Objectif global Participer à la construction, au développement et à l’exploitation d’une plateforme innovante de services numériques dans le domaine de la santé, en garantissant la qualité technique et la conformité aux standards européens. 🧩 Missions principales Concevoir l’architecture technique et logicielle de la plateforme. Définir et mettre en place l’environnement de développement (outils, méthodes, CI/CD). Choisir la stack technique la plus adaptée aux besoins du projet. Réaliser la conception technico-fonctionnelle des modules applicatifs. Développer et intégrer les différentes briques logicielles (Java / Spring Boot / bases de données). Accompagner les développeurs full stack dans la mise en œuvre des bonnes pratiques. Participer à la rédaction des spécifications fonctionnelles et techniques , dossiers d’architecture et de migration. 📦 Livrables attendus Dossier de spécifications fonctionnelles et techniques. Dossier d’architecture technique et logicielle. Dossier de migration et de bascule opérationnelle. 💡 Compétences techniques requises Java – Niveau Expert (impératif). Spring Boot / Spring Data / Spring Security – Confirmé (impératif). Architecture logicielle – Confirmé (impératif). Base de données relationnelles (SQL) – Confirmé (impératif). Bon niveau en anglais professionnel et français courant .
CDI
Freelance

Offre d'emploi
PMO DATA (H/F)

Publiée le
Confluence
JIRA

6 mois
40k-45k €
550-600 €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Nous recherchons pour l'un de nos clients un PMO compétent sur des environnements agiles. Vos missions : Piloter et coordonner les activités Data & AI , en assurant le suivi des actions, priorités, risques et dépendances entre équipes. Préparer les comités et produire des supports stratégiques (notes de synthèse, présentations, documents de communication). Organiser et animer les rituels de gouvernance , et garantir la bonne synchronisation des parties prenantes dans un environnement multi-stakeholders. Collaborer quotidiennement en anglais et consolider les informations clés pour la direction Data & AI.
Freelance

Mission freelance
Data Engineer - Gen AI - Finance (h/f)

Publiée le

12 mois
600-700 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un ingénieur de données expérimenté, spécialisé dans l'IA générique et Python ? emagine vous offre l'opportunité de rejoindre une équipe dirigée par emagine qui fournit des solutions basées sur l'IA dans un environnement bancaire international. Are you an experienced Data Engineer with expertise in Gen AI and Python? emagine has an opportunity for you to join an emagine-led team delivering AI-driven solutions within a global banking environment. You will play a key role in building on-prem AI tools that process and model large volumes of unstructured data from sources such as legal documents and financial policies. This is a hands-on role requiring strong technical skills and the ability to design efficient data pipelines for Gen AI applications. Main Responsibilities Design and implement data ingestion pipelines for structured and unstructured data. Apply techniques such as vectorization and chunking to prepare data for LLM-based solutions. Develop Python-based tools for large-scale data processing and storage manipulation. Collaborate with Data Scientists and Business Analysts to ensure data readiness for AI models. Key Requirements 5+ years of experience as a Data Engineer in complex environments. Strong expertise in Python and experience with data modelling for AI applications. Familiarity with vectorization, chunking, and handling large datasets. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Fluent in English Nice to Have Exposure to legal or procedure-focused applications. Other Details: This position is Hybrid – on-site minimum 3 days per week in Paris 8th arrondissement . Apply with your latest CV or reach out to Brendan to find out more.
Freelance

Mission freelance
Directeur de Programme Data / IA

Publiée le
Cloudera
Data analysis
Data governance

12 mois
520-660 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Product Lead / Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Freelance

Mission freelance
Senior Data Engineer - Bruxelles

Publiée le
Databricks
SQL

1 an
500-550 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Nous recherchons un Senior Data Modeling Engineer pour concevoir et mettre en œuvre des modèles de données robustes, évolutifs et alignés sur les besoins métier, destinés à alimenter diverses analyses, reporting BI et projets de data science. Missions principales : 1. Conception des modèles de données Définir et appliquer les standards et bonnes pratiques de modélisation de données Concevoir les modèles logiques et physiques pour l’intégration de données provenant du CRM, de la facturation et d’autres systèmes opérationnels. Documenter et maintenir les tables et relations en utilisant des outils de modélisation 2. Développement des modèles de données Créer les modèles de données conformément aux standards définis et aux bonnes pratiques de la plateforme (environnements, versioning, code…). Transformer les données via des outils ETL (ex. Databricks, Dataiku) selon les spécifications. Documenter le développement en respectant les pratiques définies. Optimiser les modèles pour la performance, le coût, la scalabilité et l’usage par les équipes BI et data science. 3. Collaboration et support métier Travailler avec les data engineers et architectes pour comprendre la structure des données ingérées. Contribuer aux initiatives de gouvernance et qualité des données en garantissant que les modèles respectent les règles et définitions métier.
Freelance
CDI

Offre d'emploi
Product Owner Data

Publiée le
Azure Data Factory
Microsoft Power BI
Méthode Agile

12 mois
43k-56k €
290-390 €
Lille, Hauts-de-France
CITECH recrute ! 👌 ✨ Si vous souhaitez mettre vos compétences au service d’un projet Data innovant et à fort impact, nous avons LE poste qu’il vous faut ! Nous recherchons un(e) Product Owner Data (H/F) 🚀 ☘️ Votre mission est pour un acteur reconnu du secteur public, dans un environnement où la donnée est au cœur des décisions stratégiques. Vous intégrerez une équipe Data Factory dynamique, dédiée à la modernisation et à l’exploitation intelligente des données, dans un cadre agile et collaboratif. Rattaché(e) à la DSI et intégré(e) à l’équipe Data Factory, vous interviendrez en tant que Product Owner Data pour piloter et valoriser les produits Data de l’entreprise. 🧩 Vos principales missions : Cadrage et expression des besoins : Recueillir, formaliser et prioriser les besoins métiers auprès des différentes directions. Identifier les cas d’usage Data à forte valeur ajoutée. Gestion de produit et pilotage : Définir la roadmap produit et assurer le suivi des livrables. Prioriser les sujets selon la valeur métier et la stratégie Data. Participer activement aux rituels agiles (Daily, Sprint Review, Planning, Rétrospective). Data & Reporting : Accompagner la finalisation de la migration des rapports depuis l’ancien outil (Microsoft SSRS). Piloter la création de nouveaux rapports liés aux chantiers stratégiques (apprentissage, lutte contre la fraude, automatisation des processus…). Contribuer à l’intégration progressive de l’Intelligence Artificielle dans les rapports pour améliorer l’analyse sémantique des données. Recette et accompagnement : Réaliser la recette fonctionnelle des développements. Préparer et déployer les solutions auprès des utilisateurs. Assurer la communication et le reporting auprès du management IT et des métiers.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

1841 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous