Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 394 résultats.
Freelance

Mission freelance
Concepteur Développeur IBM DataStage

Publiée le
BI
Data governance
ETL (Extract-transform-load)

12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre d’un projet décisionnel au sein du secteur bancaire , le Concepteur Développeur IBM DataStage intervient sur l’alimentation des bases DRE et Datamart . Il participe à la conception, au développement et à la maintenance des flux ETL, et accompagne les équipes BI dans l’écriture et l’optimisation des scripts SQL. 📍 Lieu de mission : Joinville-le-Pont Intitulé du poste Concepteur Développeur ETL IBM DataStage Missions principales Concevoir, développer et maintenir les traitements ETL sous IBM DataStage Alimenter les bases de données décisionnelles ( DRE et Datamart ) Analyser les besoins métiers et techniques liés à l’alimentation des données Optimiser les flux de données (performances, volumétrie, qualité) Rédiger et maintenir la documentation technique Accompagner les développeurs BI dans : l’écriture et l’optimisation des scripts SQL la compréhension des modèles de données Participer aux phases de tests, recettes et mises en production Gérer les incidents et assurer le support sur les chaînes d’alimentation Environnement technique ETL : IBM DataStage Bases de données : Oracle / DB2 / SQL Server Langages : SQL avancé Décisionnel / BI : Datamart, DRE Systèmes : Unix / Linux Outils : ordonnanceur, outils de supervision, versioning Compétences requises Techniques Maîtrise confirmée de IBM DataStage Très bonnes compétences en SQL (requêtes complexes, optimisation) Connaissance des architectures décisionnelles Compréhension des flux ETL/ELT Sensibilité aux problématiques de performance et de volumétrie Fonctionnelles Compréhension des enjeux data et BI en environnement bancaire Capacité à traduire un besoin métier en solution technique
CDI

Offre d'emploi
Architecte Data spécialisé Databricks (F/H)

Publiée le

80k-90k €
Paris, France
Télétravail partiel
Data Architect spécialisé Databricks (F/H) - CDI - Paris 12 - 80-90K€ Contexte Vous rejoindrez la Data Factory , une structure d'excellence au sein du département "Fabrique Digitale" de notre client. Cette équipe accompagne des projets complexes de transformation data en rassemblant l'ensemble des compétences nécessaires : BI, Big Data, Data Analytics, Dataviz et Data Science. La Data Factory adresse des enjeux stratégiques majeurs : construction de référentiels de données, datawarehouses opérationnels, outillages de simulation et prévisions, datalakes, algorithmes prédictifs et tableaux de bord décisionnels. Vous piloterez le déploiement de la plateforme data groupe qui repose sur des concepts architecturaux innovants dont la notion de Data Mesh et des offres de self-service métier. De nouveaux concepts architecturaux structurent la plateforme. Votre expertise sera mobilisée pour : Fournir une expertise d' Architecte Solution orientée usages métiers, avec une connaissance approfondie des projets data en cloud public Servir de référent technique auprès des squads métiers en mode Agile pendant les phases de build et transition vers le run Challenger les besoins et imposer les bonnes pratiques du cadre de cohérence technique Assurer un relationnel excellent avec les équipes projets et les métiers Vous cumulerez les responsabilités d'un architecte opérationnel et d'un super-tech-lead, avec une implication quotidienne auprès des équipes de développement. Missions : Pilotage technique et accompagnement des projets Fournir l'expertise technique plateforme aux squads projets, du cadrage jusqu'à la mise en service Représenter la plateforme data groupe lors des cérémonies Agile (Go/NoGo, réunions stratégiques) Assister les tech leads dans leurs choix architecturaux et la rédaction des DAT (Document d'Architecture Technique) Identifier et évaluer les risques techniques (fonctionnalités manquantes, impacts planning Onboarding et accompagnement des équipes Réaliser l'onboarding des squads projets pour l'architecture plateforme et les bonnes pratiques Assister aux entretiens de recrutement des tech leads et développeurs métier Coacher les équipes pour optimiser les solutions et mettre en place des méthodologies de monitoring Sensibiliser à la gouvernance des données, en particulier données sensibles et données à caractère personnel Supervision et coordination Superviser les interventions des Data Ingénieurs plateforme (ingestion, exposition de données) Coordonner avec les leads de pratique (Data Management, Dataviz, ML Ingénieur) S'assurer de la validation architecturale de bout en bout avec les autres SI Participer aux phases de VSR (Verification & Service Readiness) Support et exploitation Contribuer au MCO (Maintien en Condition Opérationnelle) en tant que support N3 Participer à la résolution d'incidents en production Réaliser les actes de restauration du service Conduire l'analyse des root causes des dysfonctionnements Documentation et qualité Vérifier la complétude des contrats d'interface fournis par les squads projets Garantir la qualité technique et documentaire des livrables Contribuer à l'amélioration des briques socle et leur cadrage technique Contributions transversales Apporter votre expertise de data engineer et d'architecte opérationnel à la Data Factory Contribuer à des PoC et études ciblées Participer aux cérémonies Scrum Agile Réaliser des démos et présentations auprès des clients Livrables attendus Développements et scripts demandés Documents de cadrage, DAT et rapports d'avancement Macro estimations budgétaires et offres de solution technique Analyses de risques techniques et audits de faisabilité Cahiers de tests et procédures d'installation en production Documents de paramétrage et procédures de maintenance Rapport de fin de mission détaillant la démarche, développements réalisés, difficultés et solutions apportées
CDI
Freelance

Offre d'emploi
Data Engineer

Publiée le
Apache Hive
Apache Kafka
Apache Spark

6 mois
Vannes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé : Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Freelance
CDI

Offre d'emploi
Spécialiste Informatica IDMC sur Paris

Publiée le
Apache Kafka
Informatica
Master Data Management (MDM)

3 mois
Paris, France
Télétravail partiel
Je recherche pour un de mes clients un Spécialiste Informatica IDMC sur Paris Mission: Contexte Le client utilise la plateforme Informatica, à la fois en version OnPrem et SaaS (IDMC). La mission actuelle concerne uniquement la partie SaaS, où quatre référentiels sont déjà en production. Ces référentiels exploitent les composants suivants : CAI (Cloud Application Integration), CDI (Cloud Data Integration), MDM (Master Data Management), R360 (Reference 360), et B360 (Business 360). L’intégrateur aura pour mission de : Répondre aux demandes d’anomalies et d’évolutions pour chaque référentiel (TMA). Conseiller sur les possibilités et limites de la plateforme IDMC. Principales Tâches Travaux sur IDMC : Gestion et maintenance des composants de chaque référentiel sur B360, R360, CAI, CDI, et MDM. Intégration et traitement des données via Kafka. Diffusion des données des référentiels via Kafka. Taille de l'Équipe d'Intervention 1 personne en interne (ICDC) assurant le bon fonctionnement technique du socle. 1 personne en interne sur la partie pilotage projet 1 personne en externe sur la partie dev Expertise Requise Expérience minimale : 2 ans sur IDMC. Compétences techniques : Maîtrise des composants CAI, CDI, MDM, R360. Expérience avec Kafka pour l’intégration et la diffusion de données. Qualités Recherchées Capacité à travailler en autonomie et en collaboration avec l’équipe interne. Rigueur et réactivité dans la gestion des anomalies et des évolutions. Bonne communication pour conseiller et orienter sur les possibilités de la plateforme IDMC. Environnement de Travail Plateforme SaaS d’Informatica (IDMC)
Offre premium
CDI

Offre d'emploi
Ingénieur DATA / DEVOPS (F/H)

Publiée le
AWS Cloud
Data analysis
DevOps

Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
Mission sur SOPHIA ANTIPOLIS 4 jours de présentiels (préférable d'habiter la région Alpes maritimes) En vue d'embauche en CDI Notre client, une start-up dans l'énergie, recherche un tech lead pour accompagner les équipes dans le développement de leur solution de prévision météo. Mission principale : Assurer le pilotage technique et la mise en production des solutions de prévision solaire développées, en garantissant la robustesse, la scalabilité et la fiabilité de l’infrastructure data et logicielle. Responsabilités clés : Data Engineering : maintenir et optimiser les pipelines de données (météo, satellite, capteurs PV) pour les modèles de prévision. Infrastructure & DevOps : Déploiement et gestion des environnements cloud (AWS). Mise en place et maintenance de l’Infrastructure as Code (Terraform). Automatisation et optimisation des déploiements via CI/CD (GitHub Actions). Orchestration des tâches : concevoir, monitorer et optimiser les workflows de données et de calcul via Dagster. Opérations métiers : garantir la bonne exécution des codes de prévision (algorithmes, modèles, calculs intensifs) en production. Onboarding & Process : structurer et gérer les procédures d’onboarding technique des nouveaux clients et des PoCs. Qualité & Sécurité : veiller à la résilience, à la sécurité et à la performance des systèmes déployés. Compétences attendues : Solide expérience en Data Engineering et/ou DevOps. Maîtrise de AWS et des outils Terraform. Connaissance des bonnes pratiques CI/CD et expérience avec GitHub Actions. Expérience en orchestration de workflows de données (idéalement Dagster, sinon Airflow ou équivalent). Compétences en scripting (Python, Bash) et monitoring. Capacité à travailler dans un environnement agile, en lien avec des data scientists et des équipes projet. Esprit de structuration et sens des responsabilités pour accompagner la croissance d’une scale-up deeptech.
Freelance
CDI

Offre d'emploi
Data Engineer (H/F) - Lyon

Publiée le
Apache Airflow
MLOps
PySpark

1 an
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Notre client, acteur majeur du secteur [énergie / distribution], recherche un.e Data Engineer confirmé.e pour renforcer ses équipes Data. Le poste combine Data Engineering et MLOps , avec une implication sur l’ensemble du cycle de vie des pipelines de données et modèles ML. Missions principales : Data Engineering (intervention sur 2 projets) Concevoir, développer et maintenir les pipelines de données pour 2 applications disctinctes. Assurer l’ingestion, la transformation et le stockage de données à grande échelle. Optimiser les traitements pour garantir des performances adaptées aux volumes traités. Mettre en place des mécanismes de qualité des données (contrôles, alertes, monitoring). Collaborer avec le pôle Développement pour définir les interfaces de données (API, bases de données). Documenter les flux de données et maintenir le catalogue de données. MLOps (Intervention sur 1 des 2 projets) Industrialiser l’entraînement des modèles ML pour l’optimisation du dimensionnement des groupes électrogènes. Déployer des pipelines CI/CD pour les modèles ML (versioning des données et modèles, automatisation de l’entraînement). Assurer le monitoring des performances des modèles en production (drift detection, métriques de performance). Collaborer avec les Data Scientists pour faciliter le passage des modèles du développement à la production.
Freelance

Mission freelance
Asset Manager

Publiée le
Intune
Master Data Management (MDM)
Microsoft Excel

6 mois
480-520 €
Massy, Île-de-France
Télétravail partiel
Bonjour, Pour un de nos clients, nous sommes à la recherche d'un Asset Manager habilitable (H/F). Lieu : Massy Date : début Janvier Durée : Longue mission TJM : 520€/J Mission : Les objectifs sont : Mettre en place une solution de gestion centralisée du parc informatique et mobile de l'entreprise Optimiser l'administration et le suivi des actifs PC et smartphones Piloter l’inventaire : recenser et suivre l’état du matériel, des smartphones et des licences associées Améliorer la sécurité et la conformité des équipements Mettre à jour les logiciels et anticiper le renouvellement du matériel obsolète pour maintenir la performance. Optimiser les coûts liés à la gestion, à l’achat et à la maintenance du parc (PC, smartphones, accessoires). Rédiger et appliquer les procédures standards, former les utilisateurs et diffuser les bonnes pratiques Assurer la gestion administrative : contrats de maintenance, équipement, suivi budgétaire. Afin de mener à bien cette mission, voici les compétences souhaitées : Gestion des actifs Inventaire automatisé du matériel et des logiciels Suivi des affectations, contrats et garanties Gestion du cycle de vie des équipements Maitrise d'Excel, des outils SCCM, MDM et Intune (SCCM: pouvoir chercher des infos) Maitrise du suivi et gestion de l’inventaire des équipements, licences et accessoires. Support hardware et software Production de rapports et analyse des données pour le suivi du parc et l’optimisation des coûts. Assistance technique et relation client : capacité à accompagner, former et supporter les utilisateurs. Rédaction de procédures et documentation technique, suivi des interventions et gestion administrative. Sens de l’organisation, rigueur, autonomie et réactivité face aux incidents ou aux évolutions nécessaires. 2.3 Prestations attendues La prestation demandée consiste à apporter une expertise sur la gestion de parc PC et smartphone, gérer les incidents, la coordination et la gestion des actifs informatiques, optimiser et automatiser les processus de gestion de parc
CDI

Offre d'emploi
Data Engineer H/F

Publiée le

30k-50k €
Strasbourg, Grand Est
Télétravail partiel
Notre client, société financière, recherche un Data Engineer pour rejoindre sa Data Factory. Responsabilités : Au sein d'une équipe dynamique, vous interviendrez sur l'ensemble des étapes des projets décisionnels : - Recueil et analyse des besoins (échanges avec la MOA et les utilisateurs) ; - Rédaction de spécifications fonctionnelles et techniques ; - Modélisatnique ; - Mise en production et suivi.
CDD
CDI

Offre d'emploi
Proxy Product Owner Senior - Sophia Antipolis

Publiée le
MySQL
Spring

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte & Enjeux Dans le cadre d’un projet au sein d’une équipe multisite , nous recherchons un Proxy Product Owner Senior capable d’assurer la continuité opérationnelle et la coordination fonctionnelle entre les équipes métiers, techniques et produit. 🛠️ Missions principales Collaborer étroitement avec le Product Owner et le Product Manager pour construire et affiner la vision produit. Rédiger des User Stories claires et détaillées. Gérer et maintenir le backlog de l’équipe : priorisation, organisation, cohérence globale et roadmap. Garantir la bonne compréhension de chaque User Story tout au long de son cycle de vie : présentation pour estimation, support aux développeurs, validation fonctionnelle, suivi de la stratégie d’automatisation des tests, support aux analyses d’incidents en production. Assurer une synchronisation fluide avec les autres équipes du programme (feature teams, exploitation technique) via : PO Sync, ateliers de conception, comités d’architecture, PI Planning. 📄 Livrables attendus User Stories Dossier de spécification (Confluence) 🧩 Compétences requises Techniques : SQL : Confirmé – indispensable Spring : Junior – un plus apprécié Linguistiques : Français : courant – impératif Anglais : professionnel – souhaité
Freelance

Mission freelance
Product Lead Data / Directeur projet (Montpellier)

Publiée le
Data governance
Product management

12 mois
600 €
Montpellier, Occitanie
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Product Lead Data / Directeur projet" pour un client dans le secteur des services Description 🎯 Contexte de la mission La Direction Data renforce ses équipes dans le cadre de la montée en puissance du domaine Data, Analytics & AI . Afin de garantir la qualité, la cohérence et la performance des livrables Data à l’échelle du groupe, le client recherche un Product Lead / Directeur de projet expérimenté . Placé directement sous la responsabilité du Responsable de Domaine , le Product Lead jouera un rôle clé dans la gouvernance, la stratégie et le delivery des Data Products , tout en assurant la tenue des engagements métiers et techniques. ⚙️ Rôle et responsabilités En tant que Product Lead, vous serez le garant du delivery, de la performance technique et de la qualité des composants de la ligne de produit Data, Analytics & AI. Vos principales missions : Piloter la ligne de produit Data, Analytics & AI sur les volets fonctionnels, techniques et stratégiques. Collaborer étroitement avec les Delivery Owners , Directeurs de programme et le Responsable de ligne de produit pour garantir la cohérence globale et la qualité des solutions. Contribuer à la stratégie de la ligne produit : dimensionnement des équipes, choix technologiques, modèle de coûts, sourcing et plan de delivery. Superviser la production et la maintenance des produits Data (disponibilité, performance, fiabilité). Assurer le suivi opérationnel : calendrier des évolutions, publications, roadmap technique et fonctionnelle. Définir et appliquer la politique d’industrialisation et de maintenance de la ligne de produit (qualité, CI/CD, automatisation). Accompagner et soutenir les Feature Teams dans la montée en compétence et la réalisation des objectifs. Collaborer avec les équipes agiles pour suivre les charges, les alertes et le staffing. Maintenir la documentation technique et fonctionnelle (Wiki, SharePoint, Teams). Contribuer à la pérennité technologique du patrimoine Data en réduisant la dette technique et en garantissant la conformité DSI. Assurer la coordination avec la DEXO (gestion de crise, gestion de la proximité avec les partenaires).
Freelance

Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote

Publiée le
Data quality
ETL (Extract-transform-load)
Linux

12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
CDI
Freelance

Offre d'emploi
Consultant(e) Data Analyst F/H-Niort

Publiée le
LCB-FT
Python
SQL

120 jours
38k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Data Analyst pour notre cabinet à Niort🚀 En tant que Consultant(e) Data Analyst , vous interviendrez : Chez les clients, selon le cadre et les objectifs définis : Concevoir et mettre en œuvre des scénarios LCBFT (algorithmes de détection d’alertes LCBFT) et assurer leur maintenance. Participer à l’exploration des données pour : Identifier les sources pertinentes. Évaluer la qualité et la cohérence des données. Définir les indicateurs et règles métier avant la mise en production Au sein du cabinet : Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat), Participer à des projets internes relatifs à nos activités évènements, QVT, RSE… Mener et réaliser des projets associatifs (Mécénat auprès de nos associations partenaires). 🚀 L’aventure Argain, c’est : Un suivi et un accompagnement au quotidien par un trinôme (business manager, référent métier, référente RH), Un processus d’intégration personnalisé (individuel puis collectif), Des formations certifiantes (au minimum 1 formation tous les deux ans), De nombreux évènements : 2 évènements au minimum par mois (afterwork, soirée cuisine, cours de sport, karaoké), La possibilité d’évoluer en interne (rôle d’ambassadeur, key account leader, consultant manager), Un variable attractif et déplafonné (prime de cooptation, d’ouverture de compte, d’apport d’affaire), Un package (prime vacances, prime d’intéressement, avantages CSE, RTT, prise en charge de 60% des tickets restaurant). Si vous souhaitez savoir ce que nos argainers pensent de nous :
Freelance

Mission freelance
Senior Data Scientist Python / ML / LLM / Agentic AI

Publiée le
Large Language Model (LLM)
MLOps
Python

12 mois
400-550 €
Paris, France
Télétravail partiel
Contexte Développement de solutions IA avancées pour le projet du client Missions Concevoir, entraîner et optimiser des modèles ML et LLM Implémenter des architectures Agentic AI Industrialiser les modèles (MLOps, monitoring, performance) Collaborer avec les équipes produit et tech Garantir la robustesse et l’éthique des modèles en production Profil recherché 10+ ans d’expérience en data science Excellente maîtrise de Python et des frameworks ML Expérience réelle de LLM et Agentic AI en production Forte capacité d’abstraction et de vulgarisation Experience en IA / AI en production ANGLAIS ASAP
Freelance
CDI
CDD

Offre d'emploi
Expert Kubernetes / Anthos Projet Cloud & Edge Computing-ile de France (H/F)

Publiée le
Agile Scrum
Ansible
Cloud

1 an
Île-de-France, France
Contexte du besoin Dans le cadre d’un projet stratégique de mise en place d’un Cloud hybride basé sur Anthos / Kubernetes , nous recherchons une expertise senior afin d’accompagner le déploiement, l’industrialisation et le support de la plateforme sur des infrastructures Edge. Mission L’expert interviendra au sein d’une équipe Cloud en méthodologie Agile, et sera responsable de : La mise en œuvre d’Anthos / Kubernetes sur des infrastructures Edge Computing hybrides (cloud public + infrastructures locales). Le déploiement complet des environnements , du développement jusqu’à la production. La mise en place de l’automatisation via Ansible et Terraform . La rédaction des documentations techniques et la montée en compétences des équipes infrastructure. Le support opérationnel de la solution en production. L’ accompagnement des équipes projets sur les bonnes pratiques Kubernetes / Anthos. Livrables Environnements déployés (dev → prod) Services automatisés et monitorés Documentation technique complète Compétences & Expertise recherchées +5 ans d’expérience confirmée en Kubernetes , Anthos , et environnements Cloud / DevOps . Très bonne maîtrise de Google Anthos . Excellente connaissance de Terraform et Ansible . Bon niveau sur les outils CI/CD ( GitLab CI ). Compétences solides en virtualisation , Linux et scripting . Connaissance des méthodes Agile (Scrum) . Anglais professionnel dans un contexte international.
CDI

Offre d'emploi
Data Scientist

Publiée le
Data science
Machine Learning

40k-62k €
Levallois-Perret, Île-de-France
Télétravail partiel
l’Assistant(e) Externe / Datascience & AI Business jouera un rôle clé dans la conduite et le développement des projets d’intelligence artificielle, depuis le cadrage des besoins métier jusqu’à la mise en production des solutions. Votre mission consistera à allier compétences en gestion de projet et savoir-faire technique en datascience pour garantir la réussite des initiatives IA menées au sein de Personal Finance. Vous interviendrez en appui stratégique et opérationnel, en lien étroit avec les équipes Datascience, IT, et les directions métiers. Vos principales responsabilités incluront : • Piloter et coordonner les projets IA / Data : cadrage, suivi des livrables, reporting et animation des points d’avancement. • Analyser les besoins métiers et les traduire en cas d’usage data exploitables. • Contribuer aux travaux de data science : préparation et analyse de données, validation et suivi de modèles (ML, NLP, IA générative). • Produire des livrables de synthèse (dashboards, rapports, présentations) à destination des équipes métiers et du management. • Assurer la communication transverse entre les équipes techniques et métiers, et participer à la documentation et la capitalisation des bonnes pratiques.
Freelance

Mission freelance
Data analyst

Publiée le
SQL

12 mois
400-500 €
Paris, France
Télétravail partiel
Cherry pick est à la recherche d'un Data analyst pour l'un de ses clients dans le secteur de l'énergie. 🎯 Objectifs de la mission Travailler en collaboration directe avec le Data Lead TGP , les BPO , les Data Domain Owners et les équipes achats afin de : Développer et maintenir le backlog des cas d’usage Data Quality . Paramétrer l’outil Tale of Data pour identifier les anomalies, rapprocher les données provenant de différents systèmes achats et produire les outputs attendus. Suivre et améliorer en continu le niveau de qualité des données à l’aide d’indicateurs fiables et automatisés. Accompagner les équipes dans la conduite et le pilotage des campagnes de nettoyage . Être force de proposition sur l’amélioration des processus, formats et traitements des données. 📌 Responsabilités & Livrables attendus 1. Gestion des cas d’usage Data Quality Identifier et co-construire les cas d’usage avec les BPO et Data Domain Owners. Maintenir et prioriser le backlog (nouveaux besoins, évolutions, corrections). 2. Paramétrage de l’outil Tale of Data Configurer les règles de contrôle qualité (contrôles automatiques, seuils, business rules). Réaliser les rapprochements de données entre les différents outils achats. Produire les livrables opérationnels : listes d’erreurs, fichiers de référentiels, exports de données, emails d’alertes automatiques. 3. Production de KPI Data Quality Définir et documenter les indicateurs de qualité par périmètre. Construire des dashboards permettant le suivi régulier de la qualité des données. 4. Support aux campagnes de nettoyage Préparation et communication des jeux de données à nettoyer. Suivi de l’avancement et relances auprès des équipes concernées. Consolidation des résultats et reporting. 5. Amélioration continue & Expertise Recommander des améliorations sur la structuration des données, les processus de traitement ou la gouvernance. Proposer des optimisations sur l’utilisation de l’outil Tale of Data.
394 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous