L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 614 résultats.
Offre d'emploi
Product Owner / Business Analyst
Publiée le
Agile Scrum
API
Confluence
10 jours
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Dans la cadre d’un nouveau besoin pour l’un de nos clients dans le domaine du notariat, nous sommes à la recherche d’un profil PO/BA Date de démarrage souhaitée : asap Localisation mission : Aix en Provence, 2 à 3 jours sur site par semaine Télétravail : Oui Profil recherché : PO / BA l’opérationnalisation des besoins métiers. Compétences attendues : Compétences clés : Solide expérience en Product Ownership dans des contextes de systèmes d’information complexes. Forte capacité à analyser, structurer et formaliser des règles de gestion et des parcours métiers à forte complexité. Capacité à traduire des besoins métiers en éléments exploitables (user stories, critères d’acceptation), y compris sur des sujets à faible ou fort niveau de cadrage initial. Aisance dans l’analyse de fonctionnements non visibles pour l’utilisateur (traitements automatisés, enchaînements applicatifs, échanges via API). Bonne compréhension des impacts fonctionnels liés aux contraintes de mise en oeuvre (performance, sécurité, exploitabilité, dette existante). Excellentes capacités d’analyse, de synthèse, de priorisation et de communication. Maîtrise des outils Agile et de gestion produit : Jira, Confluence (ou équivalent). Expérience d’environnements Agile Scrum multi-équipes.
Mission freelance
Data Architect GCP
Publiée le
Apache
Apache Airflow
Apache Spark
12 mois
540-600 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
L’objectif principal est la conception et la mise en œuvre d’un Data Lake moderne sur GCP , basé sur une architecture Médaillon (Bronze / Silver / Gold) et s’appuyant sur Apache Iceberg , avec la capacité de détacher une brique autonome pour certains clients manipulant des données sensibles. Missions principalesArchitecture & Data Platform Concevoir et mettre en place un Data Lake sur GCP basé sur Apache Iceberg Définir et implémenter une architecture Médaillon (ingestion, transformation, exposition) Participer aux choix d’architecture pour une brique data autonome dédiée aux données sensibles Contribuer à l’ internalisation de la plateforme data (design, outillage, bonnes pratiques) Data Engineering Développer des pipelines d’ingestion pour : Données capteurs issues de drones Données tabulaires associées Gérer des pics de charge importants (jusqu’à 10 Go ingérés simultanément) Garantir la disponibilité rapide des données après les vols d’essai Mettre en place des contrôles de qualité, traçabilité et gouvernance des données Data & Analytics Préparer les données pour des cas d’usage de maintenance prédictive Optimiser les performances de lecture et d’écriture (partitionnement, schéma, versioning) Collaborer avec les équipes data science / métier Sécurité & conformité Travailler dans un contexte habilitable (données sensibles, clients spécifiques) Appliquer les contraintes de sécurité et de cloisonnement des données
Mission freelance
Implementation Specialist Data Domain & NetBackup
Publiée le
Ansible
API
Big Data
3 ans
Montreuil, Île-de-France
Télétravail partiel
Nous recherchons un Implementation Specialist Data Domain & NetBackup pour intervenir sur une architecture mondiale de sauvegarde , à très forte volumétrie. L’environnement comprend : 50 domaines NetBackup Environ 200 000 jobs/jour Rétention basée sur des librairies de bandes Mission orientée build, run, restore et analyse , avec un fort niveau d’exigence opérationnelle. Vos missions Concevoir, implémenter et administrer les systèmes Data Domain Configurer et exploiter les environnements NetBackup Gérer les opérations de : sauvegarde, restauration, réplication Optimiser les performances, capacités et flux de données Définir et mettre en œuvre les stratégies de protection des données Diagnostiquer et résoudre des incidents complexes Participer à l’automatisation (API, Python , Ansible ) Rédiger et maintenir la documentation technique Collaborer avec les équipes infrastructure, production et sécurité
Mission freelance
Architecte SI (API, DATA, TOGAF)
Publiée le
API
Architecture
3 mois
400-630 €
Paris, France
Contexte de la mission Dans le cadre de sa nouvelle organisation (en place depuis juin 2025), la DSI ESF a constitué une cellule Urbanisation ayant pour mission de façonner le système d’information afin de : 1) Simplifier les architectures et rationaliser les applications, 2) Renforcer la robustesse et la sécurité du SI 3) Réduire durablement la charge de run (actuellement évaluée à près de 45 % des moyens). Un plan global d’Urbanisation a été défini et structuré autour de six axes stratégiques déclinés en une trentaine de projets et activités : - Centraliser et sécuriser les données clés, - Moderniser et fiabiliser les échanges SI, - Simplifier et robustifier la plateforme digitale ESF, - Consolider la plateforme Data ESF, - Alléger et rationaliser le portefeuille applicatif, - Sécuriser et pérenniser le socle technique du SI - Superviser et contrôler le SI Objectif de la mission La DSI ESF souhaite s’entourer d’un Architecte SI expérimenté, capable : - d’accompagner la déclinaison opérationnelle du plan d’urbanisation, - d’apporter une expertise technique transverse sur plusieurs projets stratégiques, - d'officier en tant que "Product Manager" - le métier étant incarné par la DSI ESF exposant ses propres besoins - et de garantir la cohérence, la performance et la pérennité des choix d’architecture. Périmètre et missions principales Travaux immédiats - Finaliser un POC de sélection de l’API Manager et de l’orchestrateur d’API, incluant la mise en œuvre de cas d’usage fonctionnels réels issus des projets en cours. - Construire la backlog 2026 des projets d’urbanisation, en lien avec la roadmap DSI ESF / DSI Groupe et les projets métiers structurants (ex. : Projet Épargne Retraite Supplémentaire, Projet Commissionnement, Digitalisation des rentiers). - Évaluer et prioriser les besoins d’accompagnement technique des projets par la cellule urbanisation sur l’ensemble du périmètre applicatif. Travaux de fond - Veille technologique et innovation : production trimestrielle d’une synthèse ciblée, incluant des recommandations concrètes sur les évolutions technologiques pertinentes (patterns, frameworks, middleware, solutions open source, cloud, sécurité, data, API management…). - Gestion de l’obsolescence et du patrimoine technique : planification et pilotage des actions de mise à niveau ou de remplacement de composants techniques obsolètes, en coordination avec les responsables applicatifs. - Décommissionnement et rationalisation : accompagnement au démantèlement des applications remplacées, avec pilotage des dépendances et du calendrier. - Évolution des patterns et des paradigmes d’échange : conduite du changement vers des modèles plus découplés, asynchrones et événementiels (par exemple, migration des échanges synchrones vacationnels vers des modèles asynchrones courts ou message-driven). - Contribution à la gouvernance d’architecture : participation active à la définition des standards, principes et bonnes pratiques d’architecture applicative et technique au sein de la DSI La mission se déroule sur le site parisien Une expertise large sur les différentes thématiques d'architecture technique est demandée, en particulier sur les solutions Open Source Architecture applicative et technique : conception de solutions robustes, modulaires et scalables (microservices, API REST, event-driven, CQRS, etc.). API Management & intégration : maîtrise des API Gateway (Kong, WSO2, Apigee, Azure API Management…), orchestrateurs et bus de messages (Kafka, RabbitMQ, NATS, Mule, etc.) Urbanisation et modélisation du SI : TOGAF, ArchiMate, cartographie applicative, modèles de données et dépendances. Sécurité et gouvernance : principes Zero Trust, chiffrement, authentification forte (OAuth2, OpenID Connect). Spécialité Data architecture : principes de gouvernance de la donnée, qualité, MDM, pipelines de données, entrepôts et architectures analytiques.
Offre d'emploi
Scrum Master Technique – Intégration Marchands Senior (H/F)
Publiée le
API
Java
MySQL
1 an
Île-de-France, France
Contexte La mission consiste à accompagner l’ intégration de partenaires marchands sur une plateforme de services financiers, avec des enjeux forts de déploiement, fiabilité des parcours et sécurisation des processus de souscription de crédits . Le consultant interviendra en interface entre les partenaires, les équipes techniques et les équipes de paramétrage afin de fluidifier les intégrations, analyser les dysfonctionnements et sécuriser les mises en production . Objectif de la mission Intervenir en tant que Scrum Master senior à forte dominante technique , capable de piloter les intégrations partenaires, coordonner les experts, analyser les incidents techniques et accompagner les équipes vers plus d’autonomie. Missions principales Accompagner les partenaires dans leur intégration technique (API). Analyser les causes des dysfonctionnements et piloter leur résolution. Assurer le suivi des déploiements marchands . Coordonner les experts techniques (développement, paramétrage, exploitation). Accompagner les équipes de paramétrage afin de les rendre autonomes. Intervenir sur les processus de souscription de crédits . Animer les rituels Agile / Scrum et assurer une communication fluide entre les parties prenantes. Livrables attendus Pilotage et suivi des intégrations marchands Reporting d’avancement et de résolution des incidents Contribution à l’amélioration des processus d’intégration et de déploiement Compétences techniques Obligatoires : Java APIs SQL Importantes : Expérience d’ intégration marchand Analyse technique Coordination d’experts Expérience en développement Java fullstack (autonomie sur l’analyse des sujets) Appréciées : Connaissance du secteur bancaire / crédit Méthodologies & soft skills Agilité / Scrum Excellente communication Sens des relations et esprit d’équipe Capacité d’ analyse et de synthèse Bonne résistance au stress Capacité d’organisation et d’ encadrement transverse Implication et sens des responsabilités Compétences linguistiques Français courant Anglais professionnel (lu, écrit, parlé)
Mission freelance
DATA ENGINEER FABRIC/AZURE DATA FACTORY (H/F)
Publiée le
Azure Data Factory
Microsoft Fabric
6 mois
Hauts-de-France, France
TEKsystems recherche pour le compte de son client un(e) : DATA ENGINEER FABRIC Missions principales : Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric Observabilité, data quality, tests, CI/CD et documentation technique Optimisation coûts/performance, sécurité et conformité Collaboration étroite avec Data Analysts et équipes métiers Compétences attendues : Microsoft Fabric Python, SQL ; orchestration, versioning et CI/CD Intégration de données multi-sources (ERP/HR/Produits etc), API, batch/stream Plateformes et architectures data modernes (data fabric/data lakehouse, cloud Azure) Gouvernance des données, catalogage, métadonnées et lineage
Offre d'emploi
Ingénieur Développement Java N3
Publiée le
API REST
Java
Oracle
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte Nous recherchons un Ingénieur Développement Java N3 pour rejoindre la squad InStore d’un acteur majeur de la pré-acquisition en France. La mission vise l’intégration d’un nouveau client (services, protocoles, IHM) dans un environnement PCI-DSS, avec un focus sur l’innovation (omni-canal, instant payment, nouveaux services). Missions principales Développement et maintenance : Analyser les besoins et proposer des solutions techniques adaptées. Développer de nouvelles fonctionnalités en respectant les normes et standards. Assurer la maintenance corrective et évolutive des applications existantes. Collaboration et amélioration continue : Travailler avec les équipes projets (Développeurs, PO, QA, DevOps). Participer à l’amélioration continue des processus de développement. Rédiger et maintenir la documentation technique. Compétences techniques (MUST HAVE) Java 17+ (expert) – obligatoire. Spring 6 (incluant Spring Boot 3 et Spring Data 3) – obligatoire. Bases de données : Oracle, PostgreSQL, MySQL – important. API REST et Web Services – important. Outils : Git/GitLab, IntelliJ.
Offre d'emploi
Développeur Java Full Stack – Expert Camunda
Publiée le
Apache Kafka
Camunda
Microservices
1 an
40k-45k €
320-540 €
Ivry-sur-Seine, Île-de-France
Contexte & objectif Dans le cadre du développement et de l’automatisation de processus métier critiques, nous recherchons un Développeur Java Full Stack confirmé , doté d’une solide expérience en modélisation et automatisation de workflows Camunda . Le consultant interviendra sur la conception technique, la modélisation BPMN, le développement backend ainsi que l’intégration de microservices. 🧩 Missions Modélisation et implémentation des workflows Camunda (BPMN). Conception & développement de services API REST . Développement de microservices Spring Boot. Intégration et utilisation de Kafka . Participation à la rédaction des spécifications techniques. Contribution aux revues de code et bonnes pratiques de développement. 📦 Livrables attendus Conception et livrables de code. Modélisation complète des workflows Camunda. Spécifications techniques. 🛠️ Compétences techniques requises Impératives : Camunda – Confirmé Spring Boot – Confirmé Microservices – Confirmé Kafka – Confirmé
Offre d'emploi
Expert Data Référentiels
Publiée le
API
Azure DevOps
Azure Synapse
1 an
50k-57k €
500-580 €
Paris, France
Nous sommes à la recherche d'un(e) : Expert Data Référentiels -Se coordonner avec le Business Analyst du sujet pour définir la charge et définir les travaux à mener - Développer l’intégration des flux avec Azure Synapse / PySpark -S’appuyer sur les connaissances fonctionnelles de l’équipe en place - S’assurer de la qualité et de la cohérence de données intégrer pour anticiper les impacts sur les reporting (comparaison de données entre sources. - Expérience dans la mise en place de la qualité du code (Sonar) et l’amélioration continue
Offre d'emploi
CHEF DE PROJET DATA INFORMATICA
Publiée le
Informatica
3 ans
40k-50k €
400-500 €
Paris, France
Contexte de la mission Dans le cadre de la transformation du périmètre flux avec un changement de méthodologie et de socle technologique, le pôle architecture et données recherche un(e) chef(fe) de projet data pour le siège social, basé à Paris. Rattaché(e) au Responsable du pôle architecture et data, vous aurez pour mission principale de délivrer ou faire évoluer des solutions permettant de répondre aux besoins d’échange de données, que ce soit avec des ressources internes ou au travers d’un centre de service externe. Détails des missions Recueillir et formaliser les besoins auprès des responsables applicatifs. Planifier les étapes du projet, suivre les délais et assurer la cohérence des livrables. Assurer la coordination entre les parties prenantes. Maintenir la cohérence des flux en lien avec le plan d’occupation des sols. Produire ou mettre à jour les spécifications techniques nécessaires pour les développements. Recetter les livrables. Connaissances requises Plusieurs expériences dans le pilotage de projets data. Capacité à gérer plusieurs sujets en parallèle et passer rapidement de l’un à l’autre. Compréhension et appropriation des enjeux métiers, techniques et fonctionnels auprès des équipes concernées. Adapter le discours selon les interlocuteurs et expliquer l'état d'avancement du projet avec des arguments adaptés. Capacité à comprendre l'architecture des systèmes d'information et appréhender les impacts / adhérences des projets. Connaissances dans les services IDMC. Bonne connaissance du langage SQL. Savoir concevoir des API (REST). Modéliser les cinématiques des échanges de données. Environnement technique Microsoft Fabric (Power BI / Lakehouse / Datawarehouse) IBM Cognos Microsoft Azure APIM Microsoft Azure DevOps (Boards / Repos) Informatica IDMC (MDM / CAI / API Center / CDI / CDQ) Informatica PowerCenter Savoir-être Autonomie, rigueur et méthode Capacité d’analyse et de synthèse Polyvalence et organisation Bonne capacité de communication Profil recherché BAC +5 Expérience de 5 ans minimum Télétravail 2 jours par semaine
Mission freelance
Proxy PO build - Snowflake + Power BI
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake
1 an
Paris, France
Télétravail partiel
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Offre d'emploi
Data engineer (H/F)
Publiée le
35k-40k €
Lille, Hauts-de-France
Télétravail partiel
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Offre d'emploi
Data Architecte
Publiée le
API
Architecture
Go (langage)
3 ans
Île-de-France, France
Télétravail partiel
Nous recherchons un Data Architect pour concevoir, construire, optimiser et maintenir les modèles de données conceptuels et logiques des produits data au sein d’une plateforme moderne. Le poste requiert une forte expertise en architecture data , migration de données et ingénierie de plateformes data , avec un caractère impératif sur la conception et le développement d’Operators OpenShift et d’API permettant de piloter l’infrastructure data. Le Data Architect travaillera en étroite collaboration avec les producteurs de données, les équipes plateforme et les équipes Data Science afin de garantir des solutions data performantes, sécurisées et évolutives.
Mission freelance
Product Owner sénior DAM et Media Portal AEM H/F
Publiée le
API
3 ans
400-550 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Nous cherchons des experts DAM et Data - capables de construire et piloter les roadmaps de ce produit - autour des enjeux d'intégration de ces outils dans un éco-système de grand groupe et de data quality d'assets (fichiers, médias) en vue de pouvoir les exposer à de multiples consommateurs. DAM - Confirmé - Impératif Data - Confirmé - Impératif AI - Confirmé - Serait un plus AEM - Confirmé - Serait un plus Description détaillée Nous recherchons 1 Product Owner Senior pour piloter l’évolution stratégique des produits DAM et Media Portal , en les orientant vers une gestion avancée et intelligente des données. Au-delà de la gestion centralisée des assets digitaux, la mission consiste à structurer, classifier et exposer efficacement la donnée via des API performantes, à mettre en place une organisation sémantique robuste, et à tirer parti de l’intelligence artificielle pour enrichir les métadonnées clés. Ce rôle est au coeur de la Data Governance et contribue directement à l’efficacité des équipes métiers, au rayonnement international des assets de marque et à l’accélération des workflows omnicanaux. Ce poste est une opportunité de piloter un produit stratégique, en lien avec l’équipe Business Content Strategy, dans un environnement riche et stimulant, avec un fort impact sur les résultats globaux de l’entreprise. Le Product Owner devra driver le delivery et la discovery continus sur son périmètre en se basant sur les objectifs de l’équipe, la vision de la Tribe et les besoins et retours des consommateurs des Features délivrées en travaillant main dans la main avec les Tech Lead du périmètre. L’équipe est composée de 1 Program Manager AEM, 2 PO DAM/MP, 1 Tech Lead, 2 Dev + 1 Solution Architect. Responsabilités principales : - Vision & Stratégie Produit - Structuration et Gouvernance de la Data - Exposition & Intégration via API - Innovation & Enrichissement via IA - Pilotage & Méthodologies Agiles
Mission freelance
Lead Full Stack Engineer (AI &Agentic UI)
Publiée le
Analyse
API
Azure
10 mois
700-800 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme d’innovation avancée au sein d’un Tech Accelerator, nous recherchons un Data Analyst Senior pour intervenir sur la conception et le déploiement de produits data & AI de nouvelle génération , intégrant des modèles de langage (LLM) et des interfaces conversationnelles intelligentes. Vous interviendrez au cœur d’une équipe produit agile et transverse, en lien étroit avec des ingénieurs full stack, des product managers et des designers, afin de transformer des données complexes en insights exploitables et en expériences utilisateurs intelligentes . Votre rôle consistera à structurer, analyser et exploiter des données issues de multiples sources (produits, ingrédients, usages, graphes de connaissance), à contribuer aux stratégies de context enrichment (RAG) , et à garantir la qualité, la pertinence et la performance des données utilisées par les applications AI. Vous participerez activement à la mise en valeur des données via des visualisations claires , à la définition des modèles analytiques, ainsi qu’à l’optimisation des flux de données alimentant les applications conversationnelles. La mission s’inscrit dans un environnement exigeant, orienté produit, innovation rapide et impact business direct.
Mission freelance
Consultant Senior Data – Référent Technique & Architecte Dataiku / Braincube
Publiée le
Dataiku
12 mois
700 €
Malakoff, Île-de-France
Télétravail partiel
Contexte Dans le cadre du déploiement et de l’exploitation des plateformes Dataiku et Braincube , le consultant interviendra comme référent technique et architectural au sein de la Data Factory. Il garantira la performance, la qualité de service et la bonne exploitation des plateformes data dans un environnement hybride AWS / On Premise . Environnement technique Dataiku : Design Node, Automation Node, API Node, Deployer Node (AWS & On Premise C3) Braincube hébergé sur AWS (EKS), opéré par l’éditeur Écosystème data : AWS EKS, Snowflake, stockage, ingestion, restitution Environnement collaboratif : Teams, backlog, documentation centralisée Environnements : Dev / Pré-production / Production avec processus d’industrialisation Missions principales Assurer le rôle de référent technique et architectural Dataiku / Braincube Maintenir les standards techniques et assurer la conformité des usages et licences Gérer incidents, demandes et changements (RUN & BUILD) Piloter la performance des plateformes, définir et suivre SLAs et KPIs Construire et piloter la roadmap technologique Garantir sécurité, résilience, conformité (RBAC, chiffrement, RGPD) Coordonner les équipes France / Inde et les interfaces DSIC Participer à l’amélioration continue et à la gestion du plan de charge Contribuer à la gestion de l’obsolescence technologique Livrables attendus Offre de service (ServiceNow) Reporting et météo du service Guides de bonnes pratiques Dataiku / Braincube Supports de formation et d’onboarding Cartographie des flux et des modèles data Business model du service Compétences requises Expertise AWS (S3, EKS, EC2, IAM…) Maîtrise de Dataiku et bonnes connaissances Data / ML Ops Solide compréhension des architectures SI & data Sensibilité forte aux sujets de gouvernance et sécurité Capacité de documentation, vulgarisation et structuration de services Aisance dans des contextes internationaux (France / Inde) Profil recherché Consultant senior avec minimum 8 ans d’expérience Capacité à prendre un rôle transverse et structurant Autonomie, rigueur et posture de référent Nationalité française (obligatoire) Modalités Démarrage : courant février Fin de mission : 30/06/2026 (renouvelable) Télétravail : 2 jours / semaine Localisation : Paris / Malakoff + déplacements ponctuels (Châteaufort, Magny-les-Hameaux)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- WANTED!! Associé(e) commercial BtoB/online, avec une fibre artistique..
- Ça commence à bouger,non ?
- Plateformes freelances : opportunité réelle ou perte de temps ?
- Micro-entreprise après EURL ?
- Quelles sont les excellentes / très bonnes prévoyances pour EURL?
- Client difficile - posture du consultant externe
614 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois