Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Data Engineer TALEND (H/F)
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Comprendre et traduire les besoins métiers : Animer et collaborer étroitement avec les experts métier au travers d'ateliers d'idéation pour identifier les problématiques opérationnelles afin de proposer des solutions à mettre en œuvre, - Analyser et explorer les données : Comprendre, analyser et valoriser les données de différentes natures - Définir les modèles : Sélectionner ou créer les modèles mathématiques les plus pertinents et adaptés à chaque problématique, et réaliser leur apprentissage, - Déployer les modèles : Collaborer avec les équipes de Data Ingénierie au déploiement des modèles entrainés en production, et accompagner les équipes de développement produit dans leur utilisation, - Analyser les performances des modèles : Assurer la mesure de la performance et le suivi de la dérive des modèles en production. Reporter sur la performance opérationnelle des modèles au travers d'indicateurs clés et les partager avec les directions métiers, Compétences requises : - Maitrise de TALEND - Analyse de données

Offre d'emploi
Lead Data Engineed Snowflake - DBT
Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

Offre d'emploi
Technicien Data Télécom
Fed IT est un cabinet de recrutement dédié aux métiers de l'informatique, des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Nous accompagnons un Opérateur Télécom de Paris dans le recrutement de son futur Technicien Data Télécom. Le poste est à pourvoir en CDI à Paris. Le Technicien Data Télécom est rattaché au Service Technique Client de l'entreprise et sera chargé de l'analyse, du diganostic, du support et de la résolution d'incidents techniques clients, liés aux problèmes de transfert des données et de performance du réseau télécom. L'objectif est d'améliorer la qualité de service Voip Toip fournit aux clients. Les responsabilités principales : - Analyse et Diagnostic des incidents sur les équipements réseaux et opérateurs - Accompagner les clients dans la résolution des problèmes par téléphone ou mail - Rédiger la documentation technique associée. - Escalader auprès du service voix les incidents concernés.

Offre d'emploi
Chef de Programme Data
Nous recherchons un Chef de Programme Data pour piloter deux programmes stratégiques au sein de la tribe IT Data : Programme de transformation des solutions data analytics (stream technologies) – 90 % du temps En support du Stream Leader Technologie, vous cadrez les besoins autour des plateformes data , les transformez en exigences produit , budgétez, planifiez et préparez l’exécution du programme , en assurant la coordination entre les squads plateformes et les Product Owners . Programme de définition du plan stratégique data 2027-2030 – 10 % du temps Vous contribuez à la définition et au suivi des orientations stratégiques data à moyen terme, en lien avec les priorités opérationnelles et technologiques. Dans un cadre Agile , vous travaillez transversalement avec les Product Owners, les squads et les centres d’expertise pour structurer, prioriser et animer le backlog de ces deux programmes, en garantissant leur cohérence et leur succès opérationnel.

Offre d'emploi
Chef de projet data
Organiser deux programmes data de la tribe IT Data PF: - Programme de transformation des solutions data analytics (stream Technologies) - Programme de définition du plan stratégique data 2027-2030 Ces deux programmes se réalisent dans un cadre méthologique Agile et le poste recherché est un Opus Owner qui va travailler avec les Product Owner/Squad et Centre d'expertises en transversal afin de structurer et animer la backlog de ces deux programmes. - Programme de transformation des solutions data analytics (stream Technologies) - 90% du temps En support du stream leader technologie: cadrer le besoin autour des plateformes data, traduire en exigence produit, budgétiser, planifier, préparer l'exécution du programme, des intéractions entre squads plateformes et produit - Programme de définition du plan stratégique data 2027-2030 - 10% du temps Structuration du stream, animation d'une communauté internationale, formalisation stratégie La mission concerne le cadrage et pourra s'étendre à l'exécution des programmes. Le poste est rattaché à l'IT Tribe Lead data.

Mission freelance
Expert Data Gouvernance
Pour le besoin de mon client, je suis à la recherche d'un Expert Data Gouvernance pour Définir des processus de gouvernance; Mise en place des rôles data; Cadrage centralisé/décentralisé; Conduite des comités .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... ..
Mission freelance
[FBO] Senior Cloud & DevOps Engineer (AWS/GCP) - 836
Constat actuel • Équipe plateforme jugée trop junior. • Besoin équipe de sortir du lead technique. • Pas de possibilité de scaler à la demande sur la plateforme actuelle. • Maintien de l’infrastructure GCP sous responsabilité de l’équipe plateforme. Besoins identifiés • Renfort avec un profil confirmé • Capacité à traduire les besoins business en exigences techniques. • Aller au-delà de l’infrastructure GCP actuelle. • Industrialisation des features Gen AI (GenR - DMZ). Profil Dev avec vernis architecture applicative • Anglais obligatoire (collaboration internationale). Cibles techniques • Plateforme multi-cloud : AWS & GCP. • AWS : IaaS, infra traditionnelle, PCP Landing Zone. • GCP : microservices, usage avancé du cloud. • Environnements automatisés : Terraform, Terragrunt. • Pratiques DevOps : Jenkins, GitHub, Cloud Build, SSM (Enterprise DevOps). • API Framework Python. • Certification GCP souhaitée. • Pas de Kubernetes actuellement. • Démarrage : ASAP → courant septembre. Type de projet (support / maintenance / implementation /…) : Implementation Type de prestation (Client / Hybrid / Remote) : Hybrid Nombre de jours/semaine ou par mois chez le client : 3J/semaine Les astreintes (HNO, etc.) : Non La possibilité de renouvellement (oui/non) : Oui

Mission freelance
Data Analyst (H/F)
Dans le cadre du développement d’une stratégie data autour du domaine de la Seconde main , nous recherchons un·e Data Analyst expérimenté·e pour accompagner les équipes dans la modélisation de données , l’ analyse métier et la construction de tableaux de bord décisionnels sous Power BI. Vous interviendrez en binôme avec un·e Data Engineer, au sein d’un environnement agile et stimulant. 🔍 Objectifs de la mission Comprendre les enjeux business et challenger les besoins exprimés par les équipes métier. Traduire les problématiques fonctionnelles en modèles analytiques pertinents. Concevoir des modèles de données performants, adaptés à la restitution (couches d’exposition). Créer, maintenir et faire évoluer des dashboards Power BI, avec une approche centrée utilisateur. Collaborer étroitement avec le/la Data Engineer pour garantir qualité, cohérence et performance des flux de données. Participer activement aux rituels agiles de la squad.

Offre d'emploi
Expert Data Gouvernance
Rejoignez INVENTIV IT pour conseiller nos clients et travailler sur nos projets Data au sein de la Data Fabric . En tant qu' Expert Data Governance, vous piloterez des programmes stratégiques visant à garantir la confiance, la qualité et la conformité des données alimentant les Platform Data et les Data Market Place . Votre expertise couvrira les volets stratégiques et opérationnels, du design du modèle opérationnel au déploiement des outils de gouvernance. 🎯 Vos Missions Principales1. Pilotage de Programmes de Gouvernance & Qualité Stratégie & Déploiement : Définir et piloter la mise en œuvre de la Politique de Gouvernance et de Qualité des données . Modèle Opérationnel : Concevoir et déployer le Modèle Opérationnel (rôles, responsabilités, processus) de la Data Governance , incluant la gestion des incidents de Qualité des Données. Réglementation : Anticiper et mettre en œuvre les exigences de conformité (ex. : BCBS 239 , Al Act ) et de Data Privacy . 2. Expertise MDM, Catalogue et Outillage Master Data Management (MDM) : Déployer le dispositif de gestion des Master Data et accompagner la modélisation des données de référence. Data Catalog : Déployer et piloter les travaux d'évolution du Data Catalog (expertise Collibra et/ou Data Galaxy ) pour la documentation et la classification des données confidentielles. Qualité de Données : Cadrer et déployer des solutions d'outillage de Qualité des Données (ex. : Attacama , Dataiku ). 3. Contexte Avancé (Cloud, Data Market Place & IA) Architecture & Plateforme Data : Contribuer à la définition du Target Operating Model de la Plateforme Data en tenant compte des grandes orientations technologiques (Cloud vs On-Premise ). Contexte Cloud/Big Data : Utiliser votre connaissance des environnements AWS, AZURE, Snowflake et Databricks pour adapter les dispositifs de Gouvernance et de Qualité à ces plateformes modernes. IA/Gen AI : Mettre à profit votre expérience en Gouvernance des IA et Product Ownership Gen AI pour sécuriser l'exploitation des données dans des cas d'usage avancés. 4. Leadership et Acculturation Collaboration Métiers : Collaborer étroitement avec les fonctions Business & Produits (Finance , RH , Marketing , Sales ) pour l'adoption des modèles et la collecte des cas d'usage Data & IA. Acculturation : Conduire des sessions de formation et animer les comités de pilotage (COPIL, COMEX ). 🛠️ Compétences et Outils Indispensables Expertise Métier : Data Gouvernance , Master Data Management , Data Quality , Data & AI Strategy . Outils de Gouvernance : Expertise Collibra , Data Galaxy . Outils d'Intégration/Qualité : Expérience Informatica , Dataiku , Attacama . Méthodes : Agile at Scale , Design Thinking , Change Management Expérience dans un contexte Databricks, Snowflake, AWS & Azure fortement recommandé Exemple de mission : Définition de la Politique de Gouvernance des données et de Qualité des données Cartographie complète du patrimoine de données et Design du l’Enterprise Data Model Design et Déploiement du Dispositif de Gestion des Master Data Design et Déploiement du Dispositif de Mise en qualité des données Design et Déploiement du Dispositif de Documentation des Données Pilotage des travaux de Déploiement et D’évolutions du Data Catalog (Collibra) Cadrage, Spécification et Déploiement d'un Outil Data Quality (Attaccama) Accompagnement des cas d'usage analytiques et des projets métiers dans la collecte, et la mise en qualité des données consommées

Mission freelance
Data Manager H/F
Data Manager (H/F) Missions : Assurer la gestion et la cohérence des référentiels achats et ventes. Être garant du référencement : codification et gestion du cycle de vie des articles dans l’ERP. Piloter l’intégration et la mise à jour des données qualifiées (tarifaires et articles). Mettre en place les mécanismes de contrôle et de validation. Participer aux phases de test et de mise en production des nouveaux processus. Compétences : • Bonne maîtrise des outils bureautiques (Excel, Office). • Connaissance des bases de données (SQL est un plus). • La maîtrise d’un outil de BI (idéalement Qlik) et des notions en Python seraient un véritable atout.
Mission freelance
Expert IAM / Identity & Access Management / FULL REMOTE
Dans le cadre d’un programme stratégique de renforcement de la sécurité des identités, vous interviendrez en tant qu’expert IAM pour définir, piloter et mettre en œuvre des standards IAM alignés avec les exigences cybersécurité de l’entreprise. Vous travaillerez en étroite collaboration avec les équipes internes et assurerez un transfert de compétences à la fin de la mission. Vos responsabilités Évaluer et renforcer les contrôles (authentification multifacteur) sur les applications IAM. Définir et mettre en œuvre la politique de mots de passe (validée par la direction). Publier les standards fonctionnels de contrôle d’accès . Définir la stratégie Cloud PAM (Privileged Access Management) sur AWS, Azure et GCP. Définir les règles de sécurité IAM pour l’administration des politiques. Encadrer la gestion et le cycle de vie des comptes techniques (serveurs, workstations, etc.). Produire la documentation et assurer le handover aux équipes internes fin 2025.

Mission freelance
Ingénieur Data engineering
CONTEXTE : Le département Data IA (DaIA) est en charge de mettre à disposition des métiers un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA en développant notamment une plateforme d’enrichissement des métadonnées des contenus (IA & GenAI) Pour cela, nous recherchons une prestation de Data engineering pour nous aider MISSIONS à concevoir, construire et gérer notre infrastructure AWS : Développement de la plateforme de microservices AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les media • Assurer la qualité, la fiabilité et l'accessibilité des données. • Développer les pipelines de traitement de données avec orientation media • Collaborer avec les équipes de data science pour comprendre les besoins en données et mettre en place les solutions appropriées. • Recueillir les besoins avec des métiers ou clients. • Assurer la maintenance et l'optimisation des systèmes de données existants. Livrables attendus : Des analyses, développements et documentations de qualité. Expertises demandées pour la réalisation de la prestation : • Minimum de 4 ans d’expériences significative dans le type d’expertise demandé • Être dans une communication de grande qualité et savoir discuter dans des situations tendues. • Avoir une expérience efficace et rigoureuse de la gestion de produits. • Avoir une capacité à travailler de manière autonome et à gérer efficacement plusieurs tâches simultanément. • Être force proposition et savoir remonter les alertes aux responsables projet ou technique. • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaisse de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et l’utilisation d’API externe : CONFIRME • Connaissance des langages de programmation et de Génie Logiciel (Python) : • Programmation Orientée Objet : MAITRISE • Connaissance et utilisation des Design Patterns standard : MAITRISE • Frameworks/Librairies de tests : MAITRISE • Observabilité applicative : CONFIRME • Mesures de performances : CONFIRME • Expérience avec les bases de données SQL et Graph : CONFIRME • Connaissance des technologies de conteneurisation : o Utilisation de la CLI Docker : MAITRISE o Création et optimisation des images : MAITRISE o Utilisation de docker-compose : CONFIRME o Utilisation de la CLI Kubernetes : MAITRISE o Création et utilisation des déploiements Kubernetes : CONFIRME o Résolution de problèmes sur environnement Kubernetes : CONFIRME o Utilisation de Helm pour le déploiement de workload sur Kubernetes : CONFIRME • Compétence des technologies de CI/CD et Infra as Code : o Expérience du process GitFlow : MAITRISE o Utilisation des commits sémantiques/feature branches : MAITRISE o Mise en place de pipelines/jobs : CONFIRME o Mise en place de process GitOps : CONFIRME o Utilisation des concepts, modules et templates Teraform : MAITRISE o Utilisation de Ansible : CONNAISSANCE o Capacité à travailler en équipe et à communiquer efficacement (Agile, JIRA) : MAITRISE

Mission freelance
Développeur Full Stack
API TU Conceptions techniques Compétences techniques Nodejs / Nestjs - Expert - Impératif React - Confirmé - Impératif Typescript - Confirmé - Impératif Java (J2EE, Spring, ...) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Secondaire) Description détaillée Pour le 13 ocotobre, nous recherchons 1 développeur confirmé sur nodejs (backend) / nestjs / prisma / React / typescript. Nos développeurs prennent en charge la conception technique, le développement, une partie des tests, et la maintenance des services développés. Caractéristiques du produit: - Animation des prix d'achats des fournisseurs - produit critique déployé - produit Cloud Native sous GCP, avec environ 60% de périmètre métier restant à écrire - refonte V2 technique à lancer en janvier - organisation: 5 développeurs en hybride, 1 techlead, 2 QA/QE, 1 PO, sprints de 3 semaines Qualifications - Confirmé en nodejs (backend) / nestjs / prisma / React / typescript => IMPERATIF - 80% de backend (nodejs / nestjs / prisma) - 20% front au maximum - Il doit s'agir d'un vrai fullstack sur les technos citées, bien que le ratio soit 80/20 entre back et front - Expérience de développement avérée d'API REST dans des SI complexes (transformation digitale de nos domaines métiers) - Expérience avérée en SQL (Postgres, optimisation de requêtes complexes) - Expérience avérée en messaging de type Kafka (Redis est un plus) - Connaissances Cloud type GCP, et technologies de conteneurs (Docker / Kubernetes) - Expert: >7 ans d'xp sur plusieurs clients en transformation digitale majeure

Offre d'emploi
Data Analyst H / F
Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data Analyst H/F Descriptif de la mission : - Réaliser les tests unitaires, vérifier la conformité du résultat attendu, ainsi que la non-régression - Produire les « packages » de livraison au format requis par l’outil de livraison - Développer les jobs pour automatiser les traitements batchs (SQL Server Agents) - Rédiger les procédures d’installation et de retour-arrière - Soutien aux exploitants pour l’installation des produits applicatifs - Capitaliser avec les acteurs projet et technique - Prise en charge et investigation des tickets Anomalies de données, des remontées utilisateurs ou projets - Piloter ou réaliser les corrections - Assurer les contrôles QD nécessaires aux maintiens de l'activité des métiers Orange - Automatiser les contrôles, les suivis (par exemple en développements sur PowerBI) - Mettre à jour la documentation existante Environnement de travail : Chez le client Organisation des horaires : Travail en journée Télétravail : Hybride Environnement technique : PowerBI, SSRS, Jira, SQL Server, SSIS, SSRS Livrable attendue : Requêtes de mise à jour Structuration du data model Mesures KPI Date de démarrage : Novembre Localisation : Lyon Profil recherché : Vous disposez d’une expérience confirmée de 4 années dans le domaine de la data. Vous êtes un adepte de la valorisation et de l’exploitation des données, vous possédez une première expérience dans le métier de data analyst, dans le secteur d’activité télécommunication Afin de mener à bien cette mission, vous devez maitriser : Les technos : SQL Server, SSIS, SSAS, Power BI, SSRS, DAX, T-SQL, outils d’automatisation (SQL Server Agent) Méthodologies : Agile / Kanban, intégration continue, gestion des tickets (JIRA), tests unitaires et non-régression, capitalisation documentaire Connaissances métiers : qualité et fiabilité des données, reporting décisionnel, processus B2B, gestion des anomalies et incidents, support applicatif et suivi de production Vous êtes : Rigueur et sens du détail, esprit d’analyse et de synthèse, collaboration et communication, autonomie et sens des responsabilités, adaptabilité et apprentissage continu. Titulaire du permis de conduire : Optionnel Vous vous êtes reconnu.e dans cette annonce et pensez être le.la candidat.e idéal.e ? Alors envoyez-nous votre CV et dites-nous en plus sur vous ! Fourchette de rémunération : De 38 K€ à 42 K€ (selon expérience) Nous rejoindre c’est : Intégrer une équipe attentive à votre onboarding Profiter d’une proximité managériale Accéder à une plateforme de formations accessible 24/24 Adhérer à notre politique d’inclusion : politique Hand’In Cap, dons de jours, programme aidants Programme Move Up avec United Hereos pour promouvoir le sport et le bien être Bénéficier d’un package RH : mutuelle, prévoyance, carte TR, CSE, suivi de carrière et formations internes… (à modifier en fonction du pays) Le process de recrutement Chez Consort Group : Un premier échange téléphonique avec l’une de nos chargé.es de recrutement Un entretien RH avec la chargée de recrutement Inde avec qui vous avez eu le premier contact ainsi qu’un ingénieur d’affaires pour vous évoquer plus en détails : la mission, la structure de l’équipe et leur quotidien, les projets internes Une rencontre avec l’un de nos ambassadeurs techniques pourra être proposée ou le passage d’un test technique. Et enfin, une ultime rencontre avec le responsable opérationnel Consort et/ou de la mission présentée

Mission freelance
CloudOps AWS et GCP
Notre client recherche un·e CloudOps Engineer pour renforcer une équipe passionnée d’ingénierie cloud. L’objectif : fournir une plateforme robuste, scalable et sécurisée, permettant aux équipes de déployer leurs applications de manière autonome, rapide et fiable. Ce que fait notre client : Rationaliser le catalogue de services cloud afin de simplifier l’expérience des équipes IT. Offrir des solutions “clé en main” pour permettre aux équipes produit de se concentrer sur les fonctionnalités à forte valeur ajoutée. Favoriser la montée en compétences communes afin de faciliter la mobilité entre équipes. Mettre l’accent sur l’Infrastructure as Code, l’automatisation, le DevOps et la veille technologique. Vos missions : Administrer et exploiter les environnements AWS et GCP. Concevoir et déployer des solutions Cloud avec Terraform, Python, Bash, Curl et APIs. Développer et industrialiser des outils de reporting et de pilotage (inventaire, qualité, suivi). Participer au support utilisateurs (“runboy”, 1 semaine par mois max). Documenter, formaliser et former les équipes aux bonnes pratiques. Collaborer avec les équipes sécurité pour renforcer les process et gérer les alertes

Mission freelance
Ingénieur Data / ML Sénior (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur Data / ML Sénior (H/F) à Lyon, France. Contexte : Contexte : Dans le cadre de sa stratégie Data et Intelligence Artificielle, notre organisation souhaite renforcer l’équipe Data Science centrale. Après une première phase de conception et de mise en œuvre de solutions GenAI critiques (Flux & Prestations), nous entrons désormais dans une étape clé d’industrialisation, de stabilisation et de montée en échelle. Les projets sont à forte visibilité auprès des instances dirigeantes. Ils nécessitent la mise en place de KPIs clairs et fiables pour piloter la valeur business, tout en assurant la robustesse et la pérennité technique des solutions. Démarrage souhaité : dès que possible. Les missions attendues par le Ingénieur Data / ML Sénior (H/F) : Mission : Définir, formaliser et mettre en place les KPIs de suivi et de pilotage des solutions GenAI (qualité, performance, volumétrie, business impact). Industrialiser les projets GenAI Flux & Prestations avec un focus sur les aspects KPI et pilotage. Assurer le support opérationnel et garantir la stabilité, scalabilité et observabilité des pipelines en production. Améliorer la qualité, la testabilité et la documentation des pipelines de données. Appuyer techniquement l’équipe sur les autres sujets stratégiques de la roadmap (fraude, CEX, data pipelines). Encadrer et accompagner les juniors dans la mise en place de bonnes pratiques et de rituels qualité. Livrables attendus (2 à 4 mois) : Mise en place d’un cadre de pilotage par les KPIs pour Flux & Prestations (qualité des données, performance technique, usage et impact business). Industrialisation et sécurisation des déploiements GenAI en production. Refactoring du code pour séparation Flux / Prestations avec librairie commune. Amélioration du logging, traçabilité des erreurs et enrichissement des métriques de suivi. Mise en place de tests unitaires/intégration critiques et correction de la CI/CD si nécessaire. Documentation technique, rétro-ingénierie des règles existantes et rédaction de runbooks opérationnels. Appui ponctuel sur les autres projets critiques de la roadmap (fraude, CEX, pipelines data) sur les 6 prochains mois.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.