Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 463 résultats.
Freelance

Mission freelance
Data Architecte AWS / Iceberg

Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Freelance

Mission freelance
Business Data Analyst – Référentiel produits (F/H)

CELAD
Publiée le

1 an
400-500 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Clermont-Ferrand - Expérience de 5 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Business Data Analyst – Référentiel produits pour intervenir chez un de nos clients, dans le secteur industriel. Contexte : Dans le cadre d’un programme qui refond les référentiels produits et services du groupe, vous participerez à la construction et au déploiement d’une application stratégique pour la gestion du portefeuille produit Marketing. Voici un aperçu détaillé de vos missions : - Recueillir les besoins des partenaires et concevoir les processus et outils adaptés - Structurer l’étude et piloter le projet selon la méthodologie projet (General Design, Detail Design, Plan de tests). - Suivre la construction des référentiels et accompagner la migration des données (préparation, réalisation, analyse et traitement des écarts). - Produire les documents de changement, former les key-users et adapter la gestion du changement au contexte local - Assurer la qualité des données et coordonner les tests et validations avec l’architecture et les Data Owners
CDD
CDI
Freelance

Offre d'emploi
Architecte DATA  Sénior

KEONI CONSULTING
Publiée le
Big Data
SQL
Teradata

18 mois
20k-60k €
100-600 €
Lyon, Auvergne-Rhône-Alpes
"Contexte du besoin Nous recherchons un profil senior en architecture Data afin de nous accompagner dans la définition de l'architecture Data cible, la mise en oeuvre de la nouvelle plateforme Data dans un ecosysteme exisant. Le profil devra accompagner à la définition de l'architecture Data cible, la définition des standards, normes et bonnes pratique sur l'ensemble des socles Data et la mise en œuvre de la nouvelle plateforme Data. MISSIONS - Définir l’architecture cible Data : concevoir l’architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). - Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). - Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. - Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. - Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance). Le profil devra justifier : - d’une expérience confirmée dans la conception et la mise en œuvre de plateformes Data modernes, - d’une expertise en architecture Data (modèles de données, intégration, scaling, sécurité, qualité), - d’expériences significatives sur des projets incluant : la définition d’architectures cibles, la conception de modèles de données complexes, l’accompagnement de trajectoires de migration (Hadoop, Teradata ou plateformes équivalentes), la mise en place de data products et d’approches orientées produit." Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python" Livrables attendus Dossiers d'architecture cible, générale et détailée Cartographie des flux et sources de données Schéma d'intégration avec l'écosystem existant Documents de description des standards, principes et bonnes pratiques Feuille de route et trajectoire cible Ateliers et comptes rendus Support de présentation architecture et dossiers d'arbitrages Environnement technique - technologique Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python Compétences Data Conception d'architecture plateforme Data : - maitrise des architectures Data - maitrise patterns d'ingestion, stockage, transformation, exposition, - capacité à concevoir une architecture cible cohérente avec le SI existant" Modélisation des données : - concevoir des modèles conceptuels, logiques et physiques ; -harmoniser et rationaliser les modèles dans une logique Data Centric ; - appliquer des standards et bonnes pratiques (normalisation, typage, granularité, qualité)." Définition, conception et urbanisation de Produits Data Définition des standards, normes et bonnes pratiques Accompagnement, communication et alignement multi-acteurs "Compétence liée à l'environnement " "Expérience dans l'écosystème de la protection sociale (Retraite Complémentaire idéalement)"
Freelance

Mission freelance
Product Owner - Transaction Regulatory Reporting

NEXORIS
Publiée le
Data quality

1 an
560-650 €
Île-de-France, France
Notre client, Banque de Finance et d'Investissement, recherche un Product Owner Transformation Reporting Réglementaire – Capital Markets (H/F) dans le cadre d'une longue mission. Dans le cadre d’un programme pluriannuel de transformation et de sécurisation des reportings réglementaires transactionnels au sein des activités de marchés, la mission consiste à piloter la backlog et garantir la conformité réglementaire (MIFID II, EMIR, SFTR…) dans un environnement international. Rôles stratégiques : - Traduction des exigences réglementaires (MIFID II, EMIR, SFTR…) en user stories et critères d’acceptation métier - Priorisation des livrables selon les échéances réglementaires, l’impact business et les risques - Coordination des parties prenantes : IT, Compliance, Front Office, Middle & Back Office Rôles opérationnels : - Gestion et priorisation de la backlog, animation des cérémonies agiles - Définition et validation des solutions fonctionnelles de reporting - Contrôle du respect des formats techniques (ISO 20022, FpML) et des délais de transmission réglementaire - Encadrement des Feature Owners et des équipes en charge des expressions de besoins et des recettes - Pilotage des dépendances entre systèmes Front Office, post-trade et outils de reporting Rôles de pilotage : - Définition et suivi des KPIs (taux de rejet, complétude des données, délais de soumission) - Reporting aux instances de gouvernance (avancement, risques, alertes) - Accompagnement au changement et support aux équipes de production Livrables - Backlog priorisée et roadmap de transformation - User stories et critères d’acceptation formalisés - KPIs de pilotage et tableaux de bord - Documentation fonctionnelle et supports d’accompagnement au changement
Freelance

Mission freelance
Master Data SAP Junior (H/F)

Freelance.com
Publiée le
Master Data Management (MDM)
Microsoft Excel
SAP MM

3 mois
100-350 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Mission freelance | Démarrage ASAP | 3 à 6 mois renouvelable Localisation : Aix-en-Provence (hybride / télétravail possible) 1. Description du poste Dans le cadre d’un projet de recodification massive du référentiel articles dans SAP , nous recherchons un consultant freelance Master Data SAP Junior afin de renforcer l’équipe en charge de la mise à jour et de la qualité des données. La mission a pour objectif de participer à la mise à jour, à la fiabilisation et à la recodification du référentiel articles SAP , afin d’améliorer la qualité et la cohérence des données. Missions principales Création, modification et mise à jour des fiches articles dans SAP Application des règles de recodification définies par l’équipe Master Data Réalisation d’opérations massives de mise à jour de données Vérification de la qualité et de la cohérence des données Contrôle des informations issues des fichiers de migration ou d’inventaire Participation aux tests de cohérence et à la validation des données Documentation des anomalies et incohérences détectées Suivi des opérations dans les outils de pilotage Coordination avec les équipes : Supply Chain IT / SAP Référents Master Data Livrables attendus Mise à jour du référentiel articles selon les règles définies Contrôle qualité et fiabilisation des données
Freelance

Mission freelance
Data Engineer (H/F)

Trust IT
Publiée le
Bash
Cloudera
DevOps

1 an
450-510 €
Charenton-le-Pont, Île-de-France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons pour notre client, un Data Engineer (H/F) Contexte : Des tâches quotidiennes liées au maintien de la production en condition opérationnelle. Vos interlocuteurs privilégiés seront les équipes de production applicative, les équipes infrastructures, les plateformes internationales, mais également les équipes métiers pour lesquelles vous apporterez votre support et votre expertise technique. Missions : Conception et mise en œuvre de l'ingestion et du stockage de données : Identifier et formaliser les besoins des métiers en matière de collecte et de stockage de données. Développer des solutions d'acquisition de données via API. Concevoir et implémenter des architectures de stockage de données robustes (Ex: Ozone, Hadoop, Druid, Clickhouse…). Valider la qualité des développements par des tests unitaires et d'intégration. Automatiser les traitements de données via la mise en place et la maintenance de batch. Valorisation et sécurisation des données : Industrialiser les processus de nettoyage et de transformation des données. Gérer et documenter des bases de données hétérogènes, en intégrant diverses sources de données. Veiller à la conformité RGPD dans la gestion du cycle de vie des données. Superviser l'exploitation et assurer la maintenance corrective et évolutive des systèmes de données. Intégration et suivi des modèles prédictifs : Industrialiser le déploiement de modèles statistiques et de machine learning. Mettre en place des dispositifs de validation et de monitoring des modèles. Assurer le suivi opérationnel et la maintenance des modèles intégrés aux applications. Contribution au pilotage projet : Définir les spécifications techniques précises en appui de l'analyse des besoins. Environnement technique : Les composants basés sur le logiciel de l’éditeur Cloudera CDP 7.1 :Hbase, Hive, Kafka, Solr, Knox, Spark,Ranger, Zookeeper, Kerberos LDAP... •Être force de proposition sur les évolutions techniques du périmètre Data avec la nouvelle offre containérisée : Cloudera Data Services (Infra Openshift K8s) •Contribuer à l'élaboration et à l'exécution des stratégies de migration des clusters Hadoop Cloudera. •Aisance avec l’écosystème Apache (Outils OpenSource),Build (Java, Maven, Gradle...), Automatisation avec Ansible •Connaissance Trino/Starburst, AirFlow, Flink •Participer à la résolution de problèmes complexes sur les plateformes Data (Capacité d’analysedes incidents applicatif de type Hive, Yarn, Spark...) •Apporter un support quotidien aux équipes applicatives et métiers dans leurs études de cas d’usage, leurs problématiques de développement ou de montée en charge. •Le poste est soumis à astreintes et interventions hors périodes ouvrées par rotation .Couverture horaire de l’équipe : 8h/19h
CDI

Offre d'emploi
Data Architect H/F

OBJECTWARE
Publiée le
Azure Data Factory
Microsoft Fabric
Microsoft Power BI

60k-65k €
Bordeaux, Nouvelle-Aquitaine
Résumé du poste Notre client recherche un Data Architect expérimenté pour rejoindre une équipe Data Fabric et contribuer à la conception et à la mise en œuvre de l’architecture data à l’échelle de l’entreprise. Le rôle se concentre sur la création de produits de données réutilisables pour les domaines métiers , en travaillant étroitement avec les équipes Master Data Management (MDM), Data Engineers, Data Analysts, Information Security ainsi que les parties prenantes métiers. Le poste combine leadership architectural et travail opérationnel , incluant la modélisation de données, la conception d’intégrations, la mise en œuvre de la gouvernance et la configuration de la plateforme . Principales responsabilitésArchitecture de données & gouvernance Identifier et formaliser les domaines de master data à l’échelle de l’entreprise (Customer, HR, Finance, etc.). Collaborer avec l’équipe MDM pour concevoir les structures de golden record, la logique de consolidation et les flux d’intégration . Concevoir et documenter des produits de master data réutilisables (schémas, contrats, modes d’accès, APIs). Contribuer à la modélisation des données aux niveaux conceptuel, logique et physique sur les différents domaines de données. Travailler avec les Data Engineers pour traduire l’architecture en medallion layers, zones curées et pipelines d’intégration . Définir des standards de gouvernance incluant ownership, stewardship, lineage, classification et gestion du cycle de vie des données . Configurer les standards de métadonnées et les structures du catalogue de données afin d’assurer la découvrabilité et la réutilisation . S’assurer que les décisions architecturales sont clairement documentées et exploitables . Évolution de la plateforme, qualité & gouvernance Concevoir et mettre en œuvre des modèles de sécurité des données (RBAC, classification, masquage, contrôles de confidentialité). Participer à la mise en œuvre et à l’exploitation des outils de gouvernance des données (ex : Microsoft Purview), incluant scans, validation du lineage et classification . Définir des standards pour la documentation, la découvrabilité et l’enregistrement des data products dans la plateforme . Examiner les implémentations des domaines de données afin d’éviter la duplication ou la fragmentation des master data . S’assurer que la gouvernance et les métadonnées sont intégrées dans les processus CI/CD et de déploiement . Identifier et réduire les risques liés à l’incohérence des données, aux shadow master data ou à la prolifération non contrôlée des données . Contribuer à l’évaluation de nouvelles technologies et analyser leurs impacts en matière de gouvernance et d’intégration . Support et accompagnement Fournir un accompagnement architectural aux Data Engineers et Data Analysts . Participer à des ateliers techniques et sessions de conception . Accompagner l’ intégration de nouveaux domaines de données via des templates architecturaux et des implémentations de référence . Promouvoir des pratiques cohérentes en matière de métadonnées, sécurité et qualité des données . Agir comme interface entre l’équipe Data Platform, l’équipe MDM et les parties prenantes gouvernance / sécurité .
Freelance

Mission freelance
Data Engineer – Scala / Spark - Solution digitale - Paris (H/F)

EASY PARTNER
Publiée le
Apache Airflow
Apache Kafka
Apache Spark

1 an
400-500 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes data, un acteur du secteur digital recherche un Data Engineer pour intervenir sur des problématiques de traitement et d’exploitation de données à grande échelle. Missions Concevoir et maintenir des pipelines de données (batch & streaming) Gérer l’ingestion, la transformation et la qualité des données Développer sur des environnements Big Data (Spark, Kafka) Mettre en place et optimiser les workflows (Airflow) Participer à l’industrialisation des traitements (CI/CD) Collaborer avec les équipes Data, DevOps et métiers Stack technique • Scala / Python / SQL avancé Spark / PySpark, Kafka Airflow (ETL / orchestration) Cloud : Azure et/ou AWS Git, CI/CD
CDI

Offre d'emploi
R&D Data Scientist (H/F)

█ █ █ █ █ █ █
Publiée le

45k-50k €
Nantes, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Consultant Expert FinOps Snowflake (H/F)

CAT-AMANIA
Publiée le
Snowflake

3 mois
400-590 €
Hauts-de-France, France
Consultant Expert FinOps Snowflake (H/F) Secteur : Banque / Services Financiers Lieu : Hauts-de-France (Croix) + Télétravail à définir Durée : 3 mois (renouvelable) Début : 15/04/2026 Séniorité : +9 ans d'expérience 📌 Le Contexte Pour le compte d'un acteur majeur du secteur bancaire international, nous recherchons un Consultant Expert FinOps pour accompagner la structuration et le cadrage de la démarche d'optimisation des coûts liée à l'usage croissant de la solution Snowflake . L'objectif est de passer d'une consommation réactive à une gouvernance proactive, permettant de concilier innovation Data et maîtrise budgétaire à l'échelle internationale. 🎯 Vos Missions Rattaché(e) aux équipes Data et IT, vos responsabilités s'articulent autour de trois axes majeurs : Cadrage & Diagnostic : Évaluer la maturité FinOps actuelle. Réaliser un état des lieux des dispositifs déjà en place auprès des contributeurs Data et IT. Définition de la Stratégie FinOps : Élaborer une stratégie adaptée au contexte multi-pays. Mettre en place un modèle de gouvernance cible (rôles et responsabilités). Définir les KPIs clés et le dispositif de pilotage/suivi des consommations. Accompagnement & Change Management : Publier et diffuser les bonnes pratiques d'utilisation de Snowflake. Accompagner la montée en compétence des utilisateurs et responsabiliser les équipes (Data, Métier, IT). 🛠 Votre Profil Expertise technique : Vous avez une connaissance approfondie de l’architecture Snowflake et des leviers d'optimisation de coûts associés. Expérience FinOps : Vous justifiez d'une expérience significative dans la mise en place de démarches FinOps (Cloud ou Snowflake spécifique). Séniorité : Profil Architecte ou Consultant Senior (+9 ans d'expérience) capable de dialoguer avec des interlocuteurs de haut niveau. Soft Skills : Excellente capacité de structuration, esprit d'analyse et sens de la pédagogie. Langues : Anglais indispensable (contexte international). 💼 Pourquoi postuler ? Mission stratégique à forte visibilité. Environnement technologique de pointe. Grand groupe financier leader sur son marché.
CDI

Offre d'emploi
Expert Data Gouvernance (H/F) – Secteur Bancaire

CELAD
Publiée le

55k-60k €
Paris, France
Contexte Dans le cadre d’une mission pour l’un de nos clients, acteur majeur du secteur bancaire, nous recherchons un Expert Data Gouvernance afin d’accompagner la structuration et l’optimisation de la gestion des données. Vous interviendrez dans un environnement exigeant, au cœur des enjeux stratégiques liés à la qualité, la sécurité et la valorisation des données. Vos missions Définir et déployer la stratégie de gouvernance des données Mettre en place les politiques, standards et processus de gestion des données Assurer la qualité, la fiabilité et la traçabilité des données (data quality, data lineage) Piloter les dispositifs de conformité (notamment réglementaires) Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts, etc.) Mettre en place et animer les comités de gouvernance Définir les rôles et responsabilités (Data Owner, Data Steward…) Accompagner la conduite du changement et la sensibilisation des équipes Suivre les indicateurs de performance liés à la data gouvernance
CDI

Offre d'emploi
Data Scientist / Machine Learning Engineer Confirmé H/F

DAVRICOURT
Publiée le

40k-45k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Scientist / Machine Learning Engineer Confirmé pour l'un de nos clients du secteur bancaire. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Concevoir, développer et évaluer des modèles de machine learning (supervisés, XAI) ; - Mettre en production les modèles via des pipelines MLOps (CI/CD, APIs, monitoring) ; - Développer des solutions basées sur les LLM et la GenAI (RAG, fine-tuning, LangChain) ; - Assurer le suivi des performances et l'amélioration continue des modèles en production.
CDI

Offre d'emploi
Chef de Projet Assurance Retraite & Data (H/F)

FED SAS
Publiée le

60k-65k €
75001, Paris, Île-de-France
Fed IT, cabinet entièrement dédié aux recrutements spécialisés sur les métiers de l'informatique (Infra, Data, Développement, MOA, MOE, Management), recherche pour un de ses clients spécialisé dans le secteur de l'assurance retraite, un ou une : Chef de Projet Assurance Retraite & Data (H/F). Le poste est à pourvoir dans le cadre d'un CDI chez le client final. Au sein d'une DSI de 4 personnes, vous aurez la charge des projets des projets métiers de la structure, mais aussi des projets data et du reporting. Vous devrez fluidifier la relation entre la DSI et les métiers, de coordonner les projets, et répondre aux besoins des utilisateurs. A ce titre, vos principales missions seront : - Recueillir et formaliser les besoins des utilisateurs (Services Gestion, Analyse, Marketing, Communication, …) ; - Participer à la rédaction des cahiers des charges et des spécifications fonctionnelles & techniques ; - Etudier la faisabilité économique et technique des projets métiers & Data ; - Coordonner les parties prenantes (DSI, métiers, prestataires) ; - Suivre l'avancement des projets et assurer le reporting ; - Construire et maintenir les modèles de données ; - Développer les flux de données : extraction, transformation, chargement ; assurer la qualité des données : contrôles, corrections, cohérence, validation ; - Documenter les flux, modèles, règles et rapports sur les données ; - Créer des rapports et tableaux de bord (Power BI, Business Objects) ; - Accompagner les utilisateurs dans la conduite du changement ; - Participer à la priorisation des demandes et à la planification ; - Renforcer la qualité de service et l'efficacité opérationnelle notamment avec les projets IA ; - Assurer un support de qualité sur les solutions métiers & Data déployées…
CDI
Freelance

Offre d'emploi
Product Owner (H/F) – Data / API / Kafka

Proxiad
Publiée le
Apache Kafka
Backlog management
Rédaction des spécifications fonctionnelles

12 mois
40k-45k €
400-500 €
Lille, Hauts-de-France
🌟 Contexte Dans le cadre d’un programme stratégique au sein du groupe ADEO, nous recherchons un Product Owner pour intervenir sur le produit Purchase Price & Profitability , et plus précisément sur le composant “Eco-contributions” . 👉 Objectif : piloter et structurer une solution permettant de gérer les éco-contributions (ex : DEEE) à l’échelle du groupe. 📅 Roadmap : Fin du cadrage business : T1 2026 Lancement des développements : T2 2026 Mise en production : déploiement sur 2 Business Units d’ici fin 2026 🎯 Enjeu majeur : remplacer une partie du legacy et construire un produit à forte valeur métier. 🎯 Votre mission En tant que Product Owner , vous êtes responsable de la vision produit et de la maximisation de la valeur métier. 🧩 Pilotage produit Concevoir et faire évoluer le produit en lien avec les métiers et utilisateurs Définir la vision produit et contribuer à la stratégie (quarter plan / PI planning) Rédiger les documents de cadrage 📊 Gestion du backlog & delivery Construire, alimenter et prioriser le Product Backlog Rédiger les User Stories / Epics (Jira) Définir les priorités en fonction des enjeux métier et techniques Suivre les KPI métier pour mesurer la valeur créée 🤝 Animation & coordination Animer les rituels agiles (sprints, reviews, etc.) Assurer la communication produit (slides d’avancement, reporting) Collaborer étroitement avec les équipes techniques et métiers ✅ Recette & qualité Valider les développements réalisés Organiser les phases de recette métier Garantir la qualité et la non-régression des livrables
Freelance

Mission freelance
QA Lead

Byrongroup
Publiée le
Data quality
ERP
KPI

1 an
400-500 €
Île-de-France, France
🎯 Vos missions : • Recueil et formalisation des besoins de test • Challenger pour anticiper les risques qualité • Pilotage des activités de tests : planifier, coordonner et exécuter les campagnes de tests (UAT, E2E...) • Concevoir et maintenir les référentiels de test (plans de test, cas de test, matrices de couverture) • Prioriser les scénarios • Définir les stratégies de validation de la qualité des données • Identifier et analyser les anomalies de données • Collaborer avec les équipes techniques pour la correction des écarts • Vérifier la fiabilité des échanges de données • Pilotage de la qualité et reporting
Freelance

Mission freelance
Tech Lead Data GCP Expert F/H

SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker

12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
6463 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous