Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 257 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer DATABRICKS

UCASE CONSULTING
Publiée le
Databricks
Python
Snowflake

1 an
40k-45k €
400-600 €
Paris, France
Bonjour 😀 Nous recherchons un(e) Data Engineer orienté DATABRICKS/PYTHON pour l'un de nos clients ! Contexte de la mission : Dans le cadre du renforcement de son équipe data, notre client recherche un Data Engineer très technique , passionné par les technologies data modernes. Focus 100 % technique , avec un fort esprit geek / builder . Missions principales En tant que Data Engineer, tu interviendras sur des projets data à forte valeur technique : Concevoir, développer et maintenir des pipelines de données robustes et performants Travailler sur des plateformes Databricks/et ou Snowflake Développer des traitements data en Python (niveau avancé attendu) Optimiser et écrire des requêtes SQL complexes Participer aux choix d’architecture et aux bonnes pratiques data Garantir la qualité, la fiabilité et la performance des flux de données Collaborer avec des profils techniques au sein de l’équipe data
Freelance

Mission freelance
Développeur Dynamics

Cherry Pick
Publiée le
C#
Microsoft Dynamics

12 mois
500-530 €
Paris, France
Mission principale: Au sein de la Direction des Systèmes d'Information, vous serez le garant de l'évolution et de la maintenance de notre plateforme CRM (Dynamics 365). Vous jouerez un rôle clé dans la digitalisation des processus d'épargne (onboarding client, gestion des contrats, conformité) en développant des solutions robustes et sur mesure alliant la puissance du standard Dynamics et la flexibilité du code C#. Responsabilités et Tâches: Analyse et Conception : Traduire les besoins des équipes métier (conseillers en gestion de patrimoine, back-office épargne) en spécifications techniques. Développement spécifique : * Conception de Plugins C# et de Custom Workflow Activities . Développement de scripts front-end (JavaScript/TypeScript). Intégration de composants via la Power Platform (Power Apps, Power Automate). Intégration & Data : Assurer l'interopérabilité entre Dynamics et le reste du SI (outils de tenue de compte, flux de marché) via des API (Web Services, Azure Functions). Maintenance & Optimisation : Garantir la performance de la plateforme, résoudre les incidents de niveau 2/3 et assurer les montées de version. Accompagnement : Participer aux phases de tests (Recette) et documenter les développements réalisés.
Freelance

Mission freelance
Data Manager Senior - Paris - Anglais

ARTESIA IT
Publiée le
Data governance

1 an
600-700 €
Paris, France
Nous recherchons un Data Manager pour un rôle transverse, axé sur l’urbanisation des données, l’architecture fonctionnelle des données et la gouvernance des données, afin de garantir la cohérence, l’interopérabilité et la fiabilité à long terme des actifs data à travers les différents domaines. 🔹 Présentation du poste • Architecture fonctionnelle des données & modélisation des données • Urbanisation des données : ownership par domaine, valorisation des actifs data et définition de la vision cible des données • Qualité des données & gouvernance des données • Travail dans un environnement Agile • Interaction avec les parties prenantes métiers et IT • Excellentes compétences relationnelles pour accompagner le changement de manière intelligente et constructive • Forte compréhension technique combinée à une solide vision métier • Profil proactif et autonome, capable de clarifier des sujets complexes et de favoriser l’alignement lorsque plusieurs équipes sont impliquées 🔹 Profil recherché • Forte expérience en modélisation des données et en pratiques de data management • Solide compréhension de la normalisation / dénormalisation, du SQL et de la traçabilité des données (data lineage) • Minimum 10 ans d’expérience professionnelle en Data Management • Maîtrise du français et de l’anglais • Présence en France requise • Basé à Paris (60 % télétravail / 40 % sur site)
Freelance

Mission freelance
Data Manager

Tenth Revolution Group
Publiée le
DBT
Snowflake

1 an
400-650 €
Paris, France
Fiche de poste – Data Manager (Transverse E-commerce & Media) Intitulé du poste Data Manager – Digital Marketing & Data Governance Mission Dans un contexte de transformation data, le Data Manager intervient sur un rôle transverse entre les domaines E-commerce, Media et autres data domains afin de garantir la cohérence, la standardisation et la qualité durable du patrimoine de données. Il/elle agit comme référent fonctionnel entre les équipes métier, produit et techniques, accompagne la conception des data products et veille à l’application des standards de data management et d’interopérabilité. Le poste nécessite une forte expertise en Digital Marketing et Web Analytics (GA4) permettant de transformer les analyses en recommandations business à forte valeur. Responsabilités principales 1. Cadrage & conception des Data Products Accompagner les équipes Marketing Digital dans le cadrage des besoins data Contribuer à la conception des data products alignés avec les enjeux métier Apporter une expertise sur : la modélisation des données la complexité et la faisabilité les impacts cross-domain Garantir l’alignement avec : les standards data existants la data architecture cible 2. Data Governance & standards Définir et maintenir les standards de data management : règles de modélisation conventions de nommage documentation Co-construire les guidelines avec les équipes en fonction des nouveaux use cases Assurer l’adoption et la bonne utilisation des standards Être le référent sur la qualité de la documentation et des pratiques de gouvernance 3. Data Urbanisation transverse Garantir la cohérence et l’interopérabilité entre les différents data domains Identifier : les doublons les overlaps la fragmentation des données (notamment autour de la donnée client) Formuler des recommandations de simplification et de priorisation Promouvoir : la mutualisation l’harmonisation la qualité long terme des données Expertise attendue – Digital Marketing & Analytics Google Analytics 4 (GA4) Analyse de trafic & parcours client Mesure de performance des campagnes Conversion rate optimization (CRO) Activation de la donnée marketing Capacité à transformer les analyses en recommandations stratégiques Soft skills Leadership fonctionnel Communication & pédagogie Esprit de synthèse Orientation valeur business
CDI

Offre d'emploi
Architecte Data (H/F)

CITECH
Publiée le
Data analysis
Microsoft Power BI
Teradata

40k-70k €
Lyon, Auvergne-Rhône-Alpes
Description de l'entreprise 🚀 CITECH recrute ! 🚀 ✨ Vous souhaitez mettre vos compétences techniques au service d’un projet d’envergure au sein d'un écosystème complexe et stratégique ? Alors cette mission est faite pour vous ! Nous recherchons un(e) Architecte Data Sénior (H/F) pour renforcer le Pôle Projets de la DSI de l’un de nos clients majeurs, acteur de référence dans le secteur de la protection sociale. 🙌🔽 Vos missions seront les suivantes : 🔸 Concevoir l'architecture cible de la plateforme Data en maîtrisant les patterns d'injection, de stockage, de transformation et d'exposition 🔸 Réaliser la modélisation des données (conceptuelle, logique et physique) dans une approche "Data Centric" 🔸 Assurer l'urbanisation des produits Data tout en garantissant l'harmonisation et la rationalisation des modèles 🔸 Définir les standards, les normes de qualité (typage, granularité) et les bonnes pratiques architecturales 🔸 Accompagner, communiquer et assurer l'alignement entre les différents acteurs métiers et techniques 🔸 Produire la documentation technique de référence (cahier des charges, schémas d'architecture) et assurer le transfert de compétences
Freelance

Mission freelance
ACHETEUR Domaine Market Data/s

WorldWide People
Publiée le
Pilotage

12 mois
Paris, France
ACHETEUR Domaine Market Data . Acheteur senior spécialisé dans les données de marché, avec une solide expérience auprès des fournisseurs de données financières et une excellente compréhension des cas d'utilisation en salle des marchés. Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Freelance

Mission freelance
Data analyst / Support analyst

UCASE CONSULTING
Publiée le
Microsoft Excel

3 ans
450-500 €
Paris, France
Bonjour, Pour le compte de notre client, nous recherchons un data anayst / support analyst. 1 – CONTEXTE ET PÉRIMÈTRE Le Data Analyst est responsable de la qualité, de la cohérence et de l’exhaustivité des données utilisateurs et des souscriptions aux services dans HERO, ainsi que de leur synchronisation et alignement avec les outils tiers (Docebo, SmartRecruiter, ServiceNow et Microsoft Entra ID). L’objectif est de renforcer la fiabilité des données de référence (master data), de réduire les écarts et d’assurer un processus de gouvernance régulier (suivi hebdomadaire + activités RUN). Ce rôle garantit que le référentiel utilisateurs HERO reste propre, dédupliqué, à jour et cohérent avec les services souscrits et les rôles attribués, tout en pilotant proactivement les actions correctives en coordination avec les équipes concernées (PS, L3, etc.). 2 – PRINCIPALES ACTIVITÉS ET RESPONSABILITÉS 1. Gouvernance du cycle de vie des utilisateurs (RUN) Identifier les utilisateurs actifs à désactiver sur la base d’analyses (date de dernière connexion et/ou date de fin de contrat) et intégrer ce contrôle dans le suivi régulier. Gérer les demandes de chargement en cours ou en attente : VPO, GM manquants, manquants et utilisateurs manquants. Intégrer dans HERO les utilisateurs résiduels mis de côté lors de la migration initiale : préparer la liste, soumettre à arbitrage (à inclure / déjà ajoutés / à exclure), exécuter le chargement et réaliser les contrôles/validations. 2. Qualité des données & complétude des identifiants S’assurer que tous les utilisateurs appartenant à des entités abonnées à Docebo ou SmartRecruiter disposent d’un ID Docebo / SmartRecruiter. En cas d’absence : collecter les identifiants et mettre à jour HERO (avec le support des équipes PS). 3. Déduplication & fiabilité des données de référence Identifier les doublons dans HERO via des investigations (nom, prénom, code, correspondances approximatives/fuzzy matching). Déterminer le compte à conserver et celui à supprimer. Effectuer la suppression après mise à jour préalable des ID Docebo / SmartRecruiter, identifiants, emails et rôles dans HERO. Suivre et valider les mises à jour dans les outils tiers (Docebo / SmartRecruiter) avec le support L3. 4. Cohérence abonnements / services / rôles Identifier les écarts entre les services souscrits au niveau entité et ceux souscrits au niveau utilisateur, puis ouvrir et suivre les demandes de correction si nécessaire. Identifier les incohérences entre rôles et abonnements, par exemple : un rôle existe alors que le service est positionné sur “Non” un rôle “power user” sans niveau spécifié un nombre de rôles attribués supérieur au maximum autorisé par le package un service souscrit dans HERO mais absent dans ServiceNow (ou inversement) 5. Complétude fonctionnelle des données Identifier les champs de données fonctionnellement obligatoires selon les services souscrits. Extraire la liste des utilisateurs pour lesquels ces champs obligatoires sont manquants. 6. Suivi & reporting de la qualité des données Produire chaque semaine les principaux KPI de qualité des données, notamment : ID Docebo / SmartRecruiter manquants incohérences services / rôles champs obligatoires manquants par service 7. Alignement Identité / Annuaire (Entra ID) Identifier les comptes nominatifs présents dans HERO mais absents du groupe Entra ID. Mettre à jour et maintenir le groupe Entra ID. 8. Contrôles globaux de cohérence HERO Détecter les incohérences structurelles, par exemple : un sans rôle GM attribué mais avec des utilisateurs rattachés un décalage entre l’email de connexion et le groupe " Nominatif / deskless” 3 – COMPÉTENCES REQUISES Hard Skills Analyse de données, qualité des données, détection d’anomalies et déduplication Forte capacité à réaliser des extractions, contrôles et réconciliations multi-systèmes (référentiels + outils tiers) Maîtrise avancée SQL / Excel (ou équivalent) et capacité à industrialiser les contrôles (scripts / requêtes / règles) Compréhension des concepts IAM (identités, groupes, annuaires) appréciée Soft Skills Grande rigueur, sens du détail et esprit d’investigation / résolution de problèmes Capacité à piloter la résolution d’incidents (collecte d’informations, relances, coordination) Communication claire (reporting, synthèse, priorisation)
Freelance

Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault

CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD

3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Python / Azure / Ops

VISIAN
Publiée le
Azure
Azure Data Factory
Python

2 ans
Paris, France
La DSI du client recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l'exploitation des données par les analystes métiers et data scientists. A ce titre, vos principales missions consisteront à : Mener les projets d'intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, domain managers, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d'optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d'optimiser les architectures Contribuer à l'amélioration de la gouvernance sur la protection et la confidentialité des données. Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l'entreprise.
Freelance

Mission freelance
chef de projet DATA ETL - Checy/su

WorldWide People
Publiée le
ETL (Extract-transform-load)
Pilotage

12 mois
370-400 €
Chécy, Centre-Val de Loire
chef de projet DATA ETL Checy Localisation : Chécy, 2 jours de TT apres 3 mois de full présentiel. Profil recherché : Consultant confirmé en gestion de projets et maintenance applicative. Expérience significative dans les activités décisionnelles (alimentation et restitution d'informations). Connaissance des fonctionnalités ETL (idéalement XDI, ODI, Talend/Sas/Azure/Snowflake). La maitrise d’un outil de gestion de projet (Clarity), de ticketing (Jira) est nécessaire. La maitrise d’un outil de recette (Squash) serait un plus. Très bon communiquant, grande rigueur, méthodologie et bon relationnel seront les atouts du candidat. Ci joint le descriptif de mission : La mission consiste à gérer les projets et la maintenance sur le périmètre métier «Décisionnel» en délégation du pilote de projets référent du domaine. Il interviendra en tant qu’interlocuteur privilégié de l’AMOA Décisionnel pour l’exécution des projets et de la maintenance applicative du domaine. Le chef de projet participera à toutes les phases, du cadrage à la préparation de la mise en production. Il prendra en charge la mise à jour hebdomadaire du planning, le suivi des charges et le reporting associé. Il assurera la préparation et le passage en Comité d’architecture en collaboration avec l’équipe d’architectes Thélem. Il assurera également le pilotage quotidien de l’avancement auprès des équipes de réalisation et de recette, préparera et animera les ateliers et instances de pilotage (COMOP, daily, …). Profil recherché : Consultant confirmé en gestion de projets et maintenance applicative. Expérience significative dans les activités décisionnelles (alimentation et restitution d'informations). Connaissance des fonctionnalités ETL (idéalement XDI, ODI, Talend/Sas/Azure/Snowflake). La maitrise d’un outil de gestion de projet (Clarity), de ticketing (Jira) est nécessaire. La maitrise d’un outil de recette (Squash) serait un plus. Très bon communiquant, grande rigueur, méthodologie et bon relationnel seront les atouts du candidat. Début de mission : Début mars 2026
Freelance

Mission freelance
DATA INGENIEUR STAMBIA DBT SNOWFLAKE

HAYS France
Publiée le
DBT
Semarchy
Snowflake

3 ans
100-400 £GB
Lille, Hauts-de-France
Missions principales Le/la Data Engineer interviendra sur un périmètre large comprenant notamment : 🔹 Ingénierie de données Conception, développement et optimisation de pipelines de données. Intégration et transformation de données via Stambia et DBT . Modélisation et alimentation d’entrepôts de données dans Snowflake . Mise en place de bonnes pratiques de développement (versioning, tests, CI/CD). 🔹 Industrialisation & performance Maintenance, optimisation et monitoring des jobs ETL/ELT. Amélioration continue des performances Snowflake et des modèles DBT. Renforcement de la qualité, de la fiabilité et de la documentation des flux. 🔹 Collaboration & expertise Travail en étroite collaboration avec les équipes Data, Finance et Supply. Analyse des besoins métiers et traduction en solutions techniques. Participation à la roadmap Data (évolutions, migrations, outils). 💼 Compétences techniques recherchéesCompétences indispensables Stambia (développement de mappings, process, intégration). DBT (modèles, tests, documentation, sources, exposures). Snowflake (modélisation, optimisation, SQL avancé). Maîtrise des concepts ETL/ELT, data modelling, gestion de la qualité. Compétences appréciées (nice-to-have) Tableau Software (lecture + compréhension des besoins côté viz). Streamlit (petites apps internes pour exposer des données). Connaissance de la Data Vault ou d’architectures modernes DataOps. Sensibilité aux environnements agiles. 👤 Profil recherché 3 à 5 ans d’expérience minimum en tant que Data Engineer. Capacité à être rapidement opérationnel·le sur des sujets variés. Bonne communication et autonomie. Volonté d’intervenir sur des problématiques Finance & Supply.
Freelance

Mission freelance
Data Custodian

Signe +
Publiée le
Data management

10 mois
460-500 €
Nantes, Pays de la Loire
Bonjour, Je recherche pour l'un de mes clients un consultant Data Custodian pour couvrir les activités présentées ci-dessous, dans une optique de : Tenir le rôle, Aider à structurer les actions / responsabilités qui seront portées par les DC Le Data Custodian est garant de la visibilité et de la fiabilité des données du RAW. Ses objectifs : Garantir la disponibilité, la qualité et la traçabilité des données issues du RAW pour les zones socles. Assurer la complétude des sources. Assurer la visibilité sur les données brutes et leurs transformations. Assurer la cohérence pour les équipes métiers et techniques. Être le point de contact prioritaire vis‑à‑vis des systèmes sources.
CDI

Offre d'emploi
Data Engineer | Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
CDI
Freelance

Offre d'emploi
Chef.fe de projet Data senior

Atlanse
Publiée le
Agile Scrum
Gestion de projet
Méthode Agile

6 ans
55k-65k €
400-550 €
Paris, France
En tant que Chef.fe de projet Data senior – flux de données, vous pilotez la structuration, l’intégration et la fiabilisation des flux alimentant une base annuaire centrale. Votre rôle Cadrage et structuration des flux data · Piloter les études de cadrage avec les partenaires internes et externes · Formaliser les besoins fonctionnels et les exigences en matière de qualité de données · Challenger les demandes du commanditaire au regard des contraintes techniques et d’architecture · Définir les formats d’échange et standards d’intégration (API, fichiers, JSON…) · Identifier les risques (techniques, organisationnels, partenaires) · Définir la feuille de route projet en cohérence avec les enjeux stratégiques et politiques Organisation et fiabilisation des intégrations · Structurer une base annuaire alimentée par des flux multiples (API, fichiers, imports batch…) · Superviser l’intégration progressive de nouvelles sources et fournisseurs de données · Mettre en place ou cadrer les processus de nettoyage, normalisation et déduplication · Définir les mécanismes d’automatisation et de contrôle des flux · Garantir la qualité, la cohérence et la traçabilité des flux intégrés Pilotage projet et coordination transverse · Coordonner les équipes métiers, techniques et partenaires externes · Arbitrer les priorités, suivre les charges, délais et budgets · Organiser les phases de recette et valider la conformité aux exigences définies · Assurer la gouvernance projet et le reporting auprès des instances décisionnelles · Défendre les contraintes techniques et les positions du client face aux parties prenantes Supervision et cohérence globale · Challenger les choix d’architecture en lien avec les équipes techniques · Veiller à la robustesse et à la performance des flux de données · Superviser les mécanismes d’échanges inter-applicatifs · Assurer la cohérence globale entre l’application centrale et les applications connectées
Freelance
CDI

Offre d'emploi
Analyste DATA et DATASCIENCE

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Bordeaux, Nouvelle-Aquitaine
Prestation d'analyse DATA et DATASCIENCE Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ Fort d'une expérience DATA, le prestataire devra également montrer une appétence particulière dans le domaine fonctionnel Définition de la prestation attendue : Rattaché à l'équipe Analyse de la donnée, l’intervenant aura pour principales missions : Mise en oeuvre de cas d'usage métiers par croisement de la donnée (ciblage, analyse de donnée ou datascience ) Développement et maintenance de produits DATA réutilisables Publication des résultats d'analyse avec de la DATAVIZ Respect des normes et bonnes pratiques au sein de l’équipe Accompagnement et acculturation des équipes métiers ou autres Python, Pyspark,SQL,Dataviz, Datascience Plateforme : BIG DATA Hadoop (CLOUDERA) Langages : Python, PySPARK, SQL Restitution : PowerBI (dataset, dataflow, rapports)
3257 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous