Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 7 137 résultats.
CDI

Offre d'emploi
Architecte Master Data Management F/H

COEXYA
Publiée le

50k-60k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
CONTEXTE Dans le cadre de nos activités, nous développons pour nos clients des solutions dédiées à la gestion de la donnée cliente : améliorer la qualité de la donnée client à travers sa fiabilisation, son dédoublonnage et sa diffusion à travers un référentiel unifié. Pour accompagner la croissance de notre entité spécialisée dans la transformation digitale, nous recherchons notre futur Architecte MDM (Master Data Management) F/H. CE QUE L'ON VOUS PROPOSE Vous participez à la construction de l'offre MDM, en particulier sur les aspects techniques et technologiques. Vous intervenez sur les phases clés associées à la construction d'un projet de MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation (4 à 6 consultants en moyenne selon projet) : - Vous concevez et préconisez les solutions techniques, - Vous menez des ateliers techniques avec les clients, - Vous intervenez sur différentes phases du projet depuis l'avant-vente jusqu'à leur utilisation en production - Vous encadrez les équipes techniques (accompagnement, transfert de compétences, audit des réalisations).
CDI
Freelance

Offre d'emploi
Business analyst / Data scientist IA gen (RAG)

PARTENOR
Publiée le
Data science
RAG
Rédaction des spécifications fonctionnelles

1 an
Paris, France
Dans le cadre d'une création de poste chez l'un de nos clients grands comptes dans le secteur bancaire, nous recherchons un(e) business analyst confirmé avec une expérience en tant que data scientist sur des systèmes RAG. Vous travaillerez sur des sujets d'IA et d'IA générative et notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative RAG (Retrieval Augmented Generation). Vos missions principales : - Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists - Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées - Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration - Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme - Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets - Suivre la production afin de garantir la satisfaction du client
CDI

Offre d'emploi
Contrôleur de gestion & Data Analyst (H/F)

█ █ █ █ █ █ █
Publiée le
SQL

Merdrignac, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Expert Senior Google Workspace, Data & IA/Looker Studio / Big Query /GEMINI (H/F)

Octopus Group
Publiée le
BigQuery
Google Workspace
IA Générative

6 mois
570-750 €
Niort, Nouvelle-Aquitaine
Nous recherchons pour le compte de notre client dans le secteur de l'assurance, un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA. Le profil recherché est un consultant hybride à haute valeur ajoutée, capable d'administrer l'environnement collaboratif, d'analyser la donnée d'usage (BigQuery/Looker), de développer des solutions d'automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analystics (Expertise Looker et BigQuery) Business Intelligence (Looker) : Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique pour mesurer l'adoption des outils et la performance des processus métiers. Data Analysis (BigQuery) : Exploitation avancée des données (logs d'audit GWS, données métiers) via requêtage SQL optimisé. Structuration des tables et gestion des coûts de stockage/calcul. Pilotage RSE & Usages : Définition et mise en place d'indicateurs de suivi sur l'infobésité et l'hyperconnexion, en support de la politique de Qualité de Vie au Travail (QVT) et de Sobriété Numérique. Volet IA Générative (Gemini) & Innovation : Centre d'Expertise IA : Contribution majeure à la structuration du Centre d'Expertise. Rôle de référent technique et fonctionnel sur la solution Gemini. Acculturation & Animation : Pilotage de la communauté d'ambassadeurs IA. Organisation de webinars, rédaction de guides de bonnes pratiques et identification de cas d'usage à forte valeur ajoutée. Intégration Métier : Déploiement opérationnel de solutions IA (assistance rédactionnelle, synthèse documentaire, assistants virtuels) adaptées aux besoins spécifiques des métiers. Volet Google Workspace : Technique & Fonctionnel : Expertise Admin & Sécurité : Administration avancée de la console Google Workspace. Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes Cyber. Automatisation des Processus : Développement d'applications métiers via AppSheet (Low-code) et Google Apps Script pour la digitalisation des tâches manuelles et le remplacement de fichiers Excel complexes. Transition Office vers Google : Accompagnement technique et méthodologique pour la migration des utilisateurs et de leurs outils (Excel/VBA) vers l'écosystème Google (Sheets/Apps Script/BigQuery). Posture AMOA/PO : Assistance au Product Owner dans la définition de la roadmap produit, la rédaction de User Stories et la conduite du changement.
Alternance
CDI

Offre d'emploi
Ingénieur / Ingénieure data scientist (H/F)

█ █ █ █ █ █ █
Publiée le

Neuilly-sur-Seine, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Manager Plateformes et Outils Data - CDI

CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud

Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
Freelance
CDI

Offre d'emploi
Développeur Fullstack .NET / Python & IA Générative (Trading & Risk)

VISIAN
Publiée le
.NET

3 ans
40k-45k €
400-600 €
Île-de-France, France
Le Contexte : Au sein d'un acteur majeur du secteur de l'énergie, vous intégrez un département en pleine transformation logicielle. L'objectif est de sécuriser le déploiement d'un nouveau progiciel financier mondial via l'automatisation et l'IA. 🎯 Votre Mission : Framework QA intelligent : Concevoir et automatiser un framework de tests pour l'ensemble de la chaîne applicative de trading. Innovation IA : Développer des POCs utilisant l' IA Générative pour l'analyse d'anomalies, la génération de cas de tests et l'optimisation de la couverture. Développement Fullstack : Créer des outils internes et des tableaux de bord (Angular/React) pour le suivi de la qualité. DevOps & Data : Intégrer les tests dans des pipelines CI/CD complexes et manipuler des données de marché via Python. 💻 Profil Recherché : Expérience : +10 ans, avec une solide culture en Finance de marché ou Commodités. Stack : C# .NET, Python (scripting/data), Angular ou React, SQL. Expertise QA : Maîtrise des outils d'automatisation UI/API et des orchestrateurs de batchs (type Automic). Mindset : Passionné par l'IA et capable d'évoluer dans un environnement à forte résistance au stress.
Freelance
CDI

Offre d'emploi
Technical Lead IA - Agentique

KORAY-IT
Publiée le
IA

36 mois
51k-67k €
550-680 €
Île-de-France, France
Technical Lead IA — Plateforme Agentique | IDF Ouest | ESN Contexte Vous intégrez une équipe stratégique dédiée à la conception et l'industrialisation d'une plateforme agentique IA au sein d'un grand compte du secteur financier. Vous jouez un rôle central entre architecture, DevOps et leadership technique. Vos missions Piloter l'architecture technique de la plateforme agentique (Registry, Gateway, MCP, workflows) Encadrer une équipe de développeurs et animer les bonnes pratiques (clean code, revues, documentation) Mettre en œuvre et opérer la chaîne CI/CD, les environnements Kubernetes et l'observabilité Contribuer à la qualification et l'industrialisation des agents IA (de la création au run) Être l'interlocuteur transverse des équipes Data, SSI et métiers Stack technique IA & Agents : Python expert, Langchain, Langgraph, FastAPI, MCP, Dust, Mistral DevOps / Cloud : Kubernetes, Docker, GitLab CI, Terraform, AWS/Azure, Datadog, Grafana Sécurité : Keycloak, OIDC/JWT, DevSecOps, RBAC Intégration : Kafka, OpenAPI, YAML, Java, Angular Profil recherché 7+ ans d'expérience dont au moins 2 ans sur des sujets IA/LLM en production Expérience confirmée en leadership technique et encadrement d'équipe Connaissance des contextes réglementés (bancaire, SSI, AI Act appréciée) Pratique des méthodes Agile / SAFe (PI Planning, System Demo) Ce que nous proposons : Mission longue durée en régie — IDF Ouest Environnement technologique cutting-edge Interlocuteur ESN dédié et réactif
Freelance

Mission freelance
Développeur BOARD (H/F)

Nicholson SAS
Publiée le
Azure
Board
Data Lake

1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons un Développeur BOARD pour intégrer des projets Data d'envergure. Vous interviendrez de la conception jusqu'au déploiement en production, tout en assurant un support de niveau 3. 📍 Modalités Lieu : Clermont-Ferrand (Hybride : 3 jours/semaine sur site) Date de début : 04/05/2026 Durée : Jusqu'au 03/05/2027 (renouvelable) Budget TJM : 350 € 🎯 Missions principales Conception et configuration d'applications via la solution BOARD. Accompagnement du cycle de vie : du développement jusqu'à la mise en production. Support L3 : support aux tests d’acceptation utilisateurs (UAT) et résolution d'incidents complexes. Communication : vulgarisation de concepts techniques auprès des métiers. 🛠 Compétences techniques Incontournables (Mandatory) : BOARD (Expertise outil) Ecosystème Data : Databricks, Azure Data Lake, Power BI Fondamentaux : Concepts BI, analyse de données. Langues : Anglais opérationnel. Souhaitées (Nice to have) : Méthodologie AGILE. Appétence pour l'analyse fonctionnelle (Business Analysis).
CDI

Offre d'emploi
Tech Lead Data (H/F)

Amiltone
Publiée le

30k-35k €
Bordeaux, Nouvelle-Aquitaine
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant que Tech Lead Data (H/F). Dans une organisation Agile, vous assurerez les missions suivantes : - Encadrer et accompagner l'équipe dans la réalisation des projets data - Optimiser les processus de delivery en s'appuyant sur les principes Lean - Garantir la performance, la scalabilité et la fiabilité des solutions data - Participer à la conception et à l'évolution de la plateforme data - Faciliter le partage de données avec les filiales du groupe et les clients B2B La stack technique : - Snowflake - SQL - Talend - DBT - Kafka - Python - PowerBI
CDI
Freelance

Offre d'emploi
AMOA IA Générative / Conduite du changement / Animation de communauté – Senior

ASAP TECHNOLOGIES
Publiée le
AMOA
Canva
Gestion de projet

1 an
40k-45k €
420-450 €
Île-de-France, France
Dans le cadre d’un programme de déploiement à grande échelle autour des usages de l’IA générative au sein d’un grand groupe, nous recherchons 2 consultants AMOA IA seniors pour accompagner l’adoption, structurer les actions d’acculturation, animer un réseau d’ambassadeurs et coordonner un dispositif transverse avec les différentes parties prenantes. L’objectif est d’accompagner la montée en maturité des collaborateurs sur les usages de l’IA, tout en assurant un cadre d’adoption responsable, concret et opérationnel. Missions Vous interviendrez sur plusieurs volets clés du programme : Acculturation et accompagnement au changement Concevoir et produire des contenus pédagogiques variés : articles, tutoriels, guides, supports de sensibilisation, infographies Participer à l’organisation et à l’animation de sessions d’acculturation et de formation Identifier les freins à l’adoption et contribuer à la mise en place d’un cadre favorable au déploiement Assurer le suivi de l’avancement du programme et contribuer à la diffusion régulière de l’actualité liée au déploiement de la culture IA Animation de communauté Structurer et animer une communauté autour de la démarche IA Définir les formats d’animation, les rituels et les espaces collaboratifs Identifier, former et animer un réseau d’ambassadeurs au sein des différentes directions Favoriser le partage de bonnes pratiques, les retours d’expérience et la remontée des besoins terrain Coordination de programme Accompagner l’organisation du programme d’ouverture d’un outil d’IA générative à l’échelle de l’entreprise Assurer la synchronisation avec les parties prenantes clés Suivre les déploiements et accompagner la progression des usages et de la montée en compétence Communication et valorisation Décliner le plan de communication interne en lien avec les interlocuteurs concernés Identifier et valoriser les réussites, cas d’usage, bénéfices concrets et retours d’expérience Contribuer à maintenir l’engagement des collaborateurs dans la durée
CDI

Offre d'emploi
Expert Data & Cloud Azure (H/F)

Amiltone
Publiée le
Azure
Cloud

40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, nous recherchons un Expert Data & Cloud Azure : Objectifs de la mission - Migrer une application data existante vers une architecture cloud Azure moderne - Améliorer les performances, la sécurité et la supervision - Mettre en place des pipelines data robustes et automatisés - Garantir la fiabilité et la maintenabilité de la solution Responsabilités principales - Analyser l'existant et définir l'architecture cible sur Azure - Concevoir et implémenter des pipelines ETL / ELT avec Azure Data Factory / Fabric - Migrer les données et traitements Oracle vers le cloud - Mettre en place les bonnes pratiques DevOps (CI/CD) via GitLab et/ou Azure DevOps - Assurer la supervision des flux et plateformes (monitoring, logs, alertes) - Implémenter les mécanismes de sécurité (RBAC, chiffrement, conformité) - Moderniser et automatiser les scripts et traitements legacy - Rédiger la documentation technique et accompagner le transfert de compétences Compétences techniques requises - Excellente maîtrise de Microsoft Azure - Azure Data Factory / Fabric - Services data et intégration cloud - Forte expérience en migration de solutions data vers le cloud - Expertise confirmée sur bases de données Oracle - Bonne connaissance des pratiques CI/CD et DevOps - Expérience en supervision et sécurisation d'applications cloud
Freelance

Mission freelance
Prestation Front-end VueJs – IA (3-7 ans d'exp)

Codezys
Publiée le
Git
Gitlab
Jest

12 mois
450-500 €
Paris, France
Contexte de la mission Un test technique sera requis pour les candidats shortlistés. La prestation, rattachée au département IT, se déroulera au sein d’une équipe multidisciplinaire (développeurs frontend Vue.js, Ruby, Python en data science, QA). L’équipe développe des plateformes de gestion de patrimoine pour plus de 1300 conseillers, en collaboration avec les équipes produit, UX/UI, data science et experts métier. Méthodologie Agile Scrum (sprints de 2 semaines) avec processus CI/CD en amélioration continue. Le groupe financier recourt à trois prestations de développement front-end pour son extension. Objectifs et livrables Développer et maintenir des applications frontend Vue.js 2 et 3 en production. Intervenir sur des projets variés (legacy Vue.js 2, greenfield Vue.js 3) avec approche pragmatique. Concevoir et implémenter des interfaces utilisateur modulaires, performantes et accessibles. Intégrer des interfaces de chatbots et assistants IA utilisant des LLMs. Consommer et intégrer des APIs REST backend. Assurer la qualité du code via des tests et revues. Optimiser performances frontend et expérience utilisateur. Participer aux décisions techniques et challenger les spécifications si nécessaire. Assumer la responsabilité des features déployées ("you build it, you run it"). Contribuer à l'amélioration continue des pratiques de développement. Conditions techniques de la prestation Stack technique : Langages : JavaScript/TypeScript, HTML5, CSS3 Frameworks : Vue.js (2 & 3) Build tools : Vite Gestion d’état : Vuex CSS/UI : Tailwind CSS APIs REST (Ruby on Rails) Intégration IA : chatbots, assistants utilisateur, APIs LLM (Gemini, Claude) DevOps & Infrastructure : Versioning : Git/GitLab CI/CD : GitLab CI, Jenkins Cloud : Heroku, AWS (S3), OVH Conteneurisation : Docker, K8S Monitoring & Qualité : Monitoring : New Relic, Splunk, Gatus, Raygun Qualité : SonarCloud, Lighthouse Tests : Jest, Vitest, Cypress Outils collaboratifs & Méthodologie : Jira, Confluence, Slack, Figma Methodologies : Agile (Scrum/Kanban), GitLab Flow, Code reviews, Clean Code Résultats attendus / Livrables Code & documentation : Code versionné sur GitLab, respectant conventions Vue.js, tests unitaires et E2E, documentation technique. Features & intégrations : Déploiement en production de features fonctionnelles, interfaces IA opérationnelles, gestion proactive des incidents, suivi Jira. Participation active aux code reviews et rituels agiles.
CDI

Offre d'emploi
Consultant DataOps / Administrateur Hadoop

Craftman data
Publiée le
Ansible
CI/CD
Docker

La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
Freelance

Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python

2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
CDI

Offre d'emploi
Product Owner Data H/F

█ █ █ █ █ █ █
Publiée le
Scrum

Saint-Grégoire, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

7137 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous