L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 150 résultats.
Offre d'emploi
Data Analyst
Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL
3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON
OCTOGONE
Publiée le
PySpark
Python
6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Offre d'emploi
Architecte Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Mission freelance
[LFR] Expert sécurité Cloud AWS/GCP à Guyancourt - 1253
ISUPPLIER
Publiée le
10 mois
300-545 €
Guyancourt, Île-de-France
Vous travaillerez en lien étroit avec l’équipe d’expertise Cyber et les équipes qui gèrent les offres Landing Zones en Cloud Public GCP et AWS ainsi que les utilisateurs métiers qui y déploient et opèrent leurs applications. Ceci afin d’accompagnerez la révolution #devops #Cloud des entreprises du groupe Crédit Agricole avec la mise en place sécurisée de briques technologiques innovantes autour des patterns d'architecture #Container, #Hybridation, #Cloudpublic. Vous participez à la mise en place de mesures et de pratiques de cybersécurité liées aux évolutions du système d’information ou à sa règlementation. Au jour le jour, votre rôle sera d’assister CA-GIP sur les missions Run Sécurité suivantes : Lutter contre les vulnérabilités Cloud : • Administrer l’outil CNAPP qui permet de gérer les vulnérabilités, les audits de configuration et les comportements à risque de nos environnements cloud publics. • Assurer l’adoption de l’outil auprès des utilisateurs : Documentation, formation, accès, amélioration, suivi des bugs, suivi des licences • Aider à maintenir tous les contrôles, politiques et procédures à jour en fonction des normes de l'industrie dans un objectif d'amélioration continue. Bâtir une gouvernance sécurité transverse : • Assurer le pilotage global des risques opérationnels détectés sur ce périmètre par les différents outils en place. • Coordonner les parties prenantes (dev, secops, infra, référents sécurité) • Produire des indicateurs de suivi de la sécurité opérationnelle afin d’apporter de la visibilité et de la confiance. • Surveiller, gouverner et valider le niveau de maturité et de conformité aux référentiels (ISO, NIST, RGPD, IA Act.) Accompagner les équipes techniques : • Animer des atelier pour aider les équipes techniques à qualifier les vulnérabilités et à répondre aux alertes sur leurs actifs projets. o Contextualiser les vulnérabilités découvertes selon l’environnement CA-GIP o La participation et le soutien technique à la résolution des vulnérabilités o L’assistance des équipes techniques à la mise en place des bonnes pratiques de cybersécurité pour les clouds publics o L’affectation des vulnérabilités aux bonnes équipes, automatiquement ou manuellement • Former les développeurs et data scientists aux bonnes pratiques de sécurité Participer à la vie de l’équipe sécurité : • Analyser les risques liés aux projets. • Rédiger des expressions de besoins de sécurité • Transmettre la connaissance et montée en compétence de la sécurité cloud des équipes. • Coopérer avec les pairs et la communauté de la cybersécurité au sein de CA-GIP pour établir une relation de travail collaborative globale, créer une adhésion et une base solide pour les décisions des parties prenantes. Compétences recherchées Compétences métiers : Création, intégration & administration d’infrastructure Cloud Public (AWS/Google Cloud Platform) de façon sécurisée. Familier de la méthodologie de déploiement en continu (Gitlab, infrastructure as code, CI/CD, Terraform) [DevOps] Compétences système et en développement (Linux, Python, Javascript, ..) Connaissance dans l’intégration des contrôles de sécurité dans la chaine de développement et les plateformes d’exécution cloud native (audit de code, security as code). Outils de protection des applications cloud natives (CNAPP, KSPM, CWPP, Dome9, Wiz, ...) Connaissances des normes et technologies propres à la cyber sécurité Connaissances des bonnes pratiques d’audit IT Connaissances des normes liées à la gestion des risques de conformité réglementaire. Vous êtes capable de promouvoir les bonnes pratiques sécurité sur les sujet Cloud. Capacité à créer et présenter des sujets complexes à différentes populations de personnes (Techniques, Manageurs…) Compétences comportementales : • Autonome et organisé ; • Bonne capacité à travailler en équipe ; • Bon relationnel et réactif; • Capacité à fédérer et entraîner derrière soi ; • Une bonne gestion des priorités ; • Force de proposition et amélioration continue ; • Un grand sens de l'analyse afin de gérer les projets de transitions, et d'anticiper les problèmes techniques potentiels. • Aptitude à s’adapter à ses interlocuteurs dans la communication Langues Anglais opérationnel
Offre d'emploi
Data Scientist Expérimenté F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
CI/CD
Deep Learning
Git
Le Plessis-Robinson, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Product Owner H/F
Insitoo Freelances
Publiée le
Agile Scrum
AWS Cloud
Confluence
2 ans
450-550 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Product Owner H/F à Lyon, France. Contexte : Dans le cadre d'un projet de transformation massif, nous cherchons des product owners certifiés Les missions attendues par le Product Owner H/F : Définir et piloter la stratégie de son produit en lien avec les besoins utilisateurs, les enjeux métier et les capacités de l’équipe Recueil et formalisation des besoins Animer des ateliers de recueil des besoins métiers (ateliers de cadrage, ateliers utilisateurs, interviews, etc.) Traduire les besoins utilisateurs et métiers Maintenir un backlog produit à jour, clair, hiérarchisé et aligné sur les objectifs stratégiques et tactiques Définir et piloter la stratégie de tests fonctionnels Assurer la conformité du produit livré avec les exigences métier Communiquer régulièrement l’état d’avancement, les choix de priorisation, les risques et alertes vers les acteurs du pilotage de l’équipe produit Contribuer au suivi et à l’analyse des KPIs de performance produit (ex. : taux d’adoption, NPS, taux de satisfaction, etc.) Outils de gestion Agile : JIRA, Confluence, Klaxoon, Figma Méthodologies Agile : Scrum, Kanban, SAFe, OKR, Impact Mapping Fonctionnement en 2 jours de présentiel NON CONSECUTIF et 3 jours de télétravail Certification AWS Cloud Practitioner Foundational IMPERATIVE Aucun profil situé hors de Lyon (ou région lyonnaise ou proche) ne sera étudié Un niveau de séniorité minimum de 5/6 ans sur ce poste est requis
Offre d'emploi
DBA Expert MongoDB (H/F)
AVA2I
Publiée le
Azure
Database
Mongodb
3 ans
Île-de-France, France
Dans le cadre du renforcement des équipes IT et de l’évolution des plateformes data vers le cloud, un acteur du secteur de l’énergie recherche un DBA MongoDB expert pour intervenir sur des environnements Azure PaaS à forte criticité, basés sur les technologies MongoDB. Le poste est orienté expertise opérationnelle et technique. Il ne s’agit pas d’un rôle d’architecte mais d’un référent MongoDB capable d’intervenir en profondeur sur la plateforme. Missions principales Administration et exploitation de bases MongoDB en environnement Azure PaaS. Maintien en Conditions Opérationnelles incluant la performance, la disponibilité et la sécurité. Supervision des bases et suivi des indicateurs. Optimisation des performances avec tuning avancé et gestion des index. Gestion des volumes, de la réplication et de la haute disponibilité. Gestion des incidents complexes de niveau N2 et N3. Diagnostic et troubleshooting avancé MongoDB. Réalisation des montées de version et opérations de maintenance. Mise en place et suivi des bonnes pratiques incluant les sauvegardes, restaurations, la sécurité et la supervision. Support technique aux équipes applicatives et rôle de référent MongoDB. Environnement technique MongoDB avec expertise indispensable. Azure PaaS incluant Cosmos DB API MongoDB et MongoDB managé. Cloud Microsoft Azure. Automatisation et scripting PowerShell, Python ou équivalent. Supervision, sécurité et haute disponibilité.
Mission freelance
Consultant Confirmé Data Gouvernance Collibra
Net technologie
Publiée le
Collibra
Data governance
3 mois
Paris, France
Dans le cadre de l’industrialisation de notre démarche de Data Governance , nous recherchons un consultant expert technique Collibra pour rejoindre notre équipe Data, en lien direct avec les architectes DSI. 🎯 Objectif de la mission : Renforcer le catalogage des données et la traçabilité (data lineage) dans un programme structurant couvrant toute la chaîne de valeur de la donnée, de l’acquisition à la restitution. 🔧 Vos principales responsabilités Configuration et évolution de l’ operating model Collibra Modélisation des Data Products et gestion des rôles & permissions Paramétrage des workflows, scripting, APIs, validation rules Gestion des migrations (import/export), manipulation massive d’assets Exploitation et interprétation des connecteurs Modélisation et documentation du technical lineage Déploiement et gestion des environnements DEV/PROD 📦 Livrables attendus : Expressions de besoins & cadrage Workflows configurés Catalogues de données alimentés Lineage documenté Documentation technique (en anglais)
Offre d'emploi
Architecte Data (H/F)
CITECH
Publiée le
Data analysis
Microsoft Power BI
Teradata
40k-70k €
Lyon, Auvergne-Rhône-Alpes
Description de l'entreprise 🚀 CITECH recrute ! 🚀 ✨ Vous souhaitez mettre vos compétences techniques au service d’un projet d’envergure au sein d'un écosystème complexe et stratégique ? Alors cette mission est faite pour vous ! Nous recherchons un(e) Architecte Data Sénior (H/F) pour renforcer le Pôle Projets de la DSI de l’un de nos clients majeurs, acteur de référence dans le secteur de la protection sociale. 🙌🔽 Vos missions seront les suivantes : 🔸 Concevoir l'architecture cible de la plateforme Data en maîtrisant les patterns d'injection, de stockage, de transformation et d'exposition 🔸 Réaliser la modélisation des données (conceptuelle, logique et physique) dans une approche "Data Centric" 🔸 Assurer l'urbanisation des produits Data tout en garantissant l'harmonisation et la rationalisation des modèles 🔸 Définir les standards, les normes de qualité (typage, granularité) et les bonnes pratiques architecturales 🔸 Accompagner, communiquer et assurer l'alignement entre les différents acteurs métiers et techniques 🔸 Produire la documentation technique de référence (cahier des charges, schémas d'architecture) et assurer le transfert de compétences
Mission freelance
Data Manager (H/F)
Insitoo Freelances
Publiée le
Data governance
Data quality
2 ans
400-450 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Manager (H/F) à Hauts-de-France, France. Les missions attendues par le Data Manager (H/F) : Gouvernance des données • Définir les standards de gestion et gouvernance des données. • Assurer la mise en conformité avec les réglementations (RGPD, CCPA). Qualité et sécurité • Mettre en place des contrôles automatisés et surveiller la qualité des données. • Sécuriser les accès et protéger les données sensibles. Exploitation et partage • Standardiser les processus d’accès aux données. • Accompagner les équipes métiers dans leur exploitation des données. Éthique et conformité • Vérifier la conformité des analyses et modèles. • Sensibiliser les équipes à l’éthique des données. Compétences • Gouvernance : Standards, gestion des métadonnées. • Sécurité : Chiffrement, contrôle des accès. • Architecture : Structuration des modèles de données en couche Business, Solution et Exposition • Collaboration : Formation, animation de workshops • Expérience utilisateur : Storytelling, recueils feedback Indicateurs de performance • Taux de conformité aux standards. • Qualité des données et réduction des erreurs. • Performance des processus de gouvernance. • Sécurisation et protection des données.
Offre d'emploi
Data Analyst
KLETA
Publiée le
PowerBI
Reporting
3 ans
Paris, France
Dans le cadre d’un programme de transformation data et décisionnelle, nous recherchons un Data Analyst pour analyser, structurer et valoriser les données au service des décisions métiers. Vous travaillerez étroitement avec les équipes métiers pour comprendre leurs besoins, définir des indicateurs pertinents et proposer des analyses adaptées. Vous serez responsable de l’exploration des données, de la construction de modèles analytiques simples et de la création de tableaux de bord lisibles et actionnables via des outils tels que Power BI, Tableau, Qlik ou équivalents. Vous participerez à la définition et à la fiabilisation des KPIs, en collaboration avec les équipes Data Engineering pour garantir la qualité et la cohérence des données sources. Vous réaliserez des analyses ad hoc, identifierez des tendances et formulerez des recommandations basées sur les données. Vous contribuerez également à la documentation des analyses, à la structuration des reportings et à l’amélioration continue des usages data au sein de l’organisation.
Mission freelance
Développeur Big Data
Codezys
Publiée le
Big Data
Cloudera
Data Lake
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Le client, dans le cadre du développement et de la maintenance de sa plateforme Big Data, recherche un Développeur Big Data expérimenté (H/F) avec au moins 5 ans d’expérience en environnement Data. La mission se déroule au sein de l’équipe Big Data, chargée de l’alimentation, de l’évolution et de l’optimisation du Data Lake sous Cloudera Hadoop. L’objectif principal est de concevoir, faire évoluer et maintenir les traitements d’alimentation pour assurer la qualité, la performance et la maintenabilité des solutions. Le consultant intervient dans un contexte de production exigeant, avec de forts enjeux de fiabilité et de respect des délais. Missions principales : Développement & évolution du Data Lake : Gérer les évolutions des flux et des données à intégrer Faire évoluer les développements existants d’alimentation Maintenir les traitements d’ingestion et de transformation Concevoir des extractions de données pour répondre aux besoins métiers Stack technique : Cloudera Hadoop, Hive, Impala, Spark, Python, SQL, Shell, Linux, VBA, Jupyter Expertise technique & structuration : Rédaction des spécifications techniques Fourniture de requêtes SQL de référence Revue de code Structuration et pilotage via JIRA Documentation des processus et accompagnement des utilisateurs Encadrement de profils juniors (alternants, stagiaires) Performance & optimisation : Optimiser les traitements et requêtes Améliorer la performance et l’exploitabilité Contribuer à la maintenabilité globale Réaliser du reverse engineering dans une architecture héritée complexe Support & accompagnement : Assurer le support de niveau 2 Faire respecter les bonnes pratiques Communiquer clairement avec différents interlocuteurs (développeurs, utilisateurs, clients) Gouvernance & conformité : Veiller au respect des modèles de données Collaborer avec la Direction Technique et la Gouvernance de la Donnée pour faire évoluer les standards
Mission freelance
Analyste DATA - Bordeaux
Sapiens Group
Publiée le
Big Data
Data visualisation
PowerBI
1 an
400-450 €
Bordeaux, Nouvelle-Aquitaine
Une organisation de gestion de mutuelle/retraite, dans le cadre de son activité analyse de la donnée, recherche un profil analyste DATA afin d'intégrer l'équipe Analyse de la Donnée sur le site de Gradignan (33) près de Bordeaux. Objet de la prestation Le présent marché spécifique a pour objet le renforcement de l'équipe. Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ. Fort d'une expérience DATA, le prestataire devra également montrer une appétence particulière dans le domaine fonctionnel. Prestation attendue Mission de deux ans, télétravail 2 jours par semaine Prestation d'analyse DATA et DATASCIENCE
Offre d'emploi
Data Engineer Streaming
KLETA
Publiée le
Apache Kafka
Apache Spark
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Ingénieur de Production OPS
EDUGROUPE
Publiée le
Production
3 ans
Paris, France
Parlons de votre future mission : Au sein de la Direction des Systèmes d’Information, vous intégrez la division Production Applicative, au cœur des enjeux de disponibilité, de performance et de continuité de service. Dans un environnement innovant, exigeant et en constante évolution, vous intervenez en tant qu’Ingénieur de Production OPS. Votre rôle principal consiste à assurer l’exploitation, l’administration et le maintien en conditions opérationnelles d’un portefeuille d’applications critiques. Vous êtes également amené à intervenir sur les phases Build, en collaboration avec les équipes projets et développement, afin de garantir des mises en production maîtrisées et sécurisées. Missions principales Production & Exploitation applicative · Garantir la disponibilité, la performance et la fiabilité des applications en production · Assurer le pilotage opérationnel d’un portefeuille applicatif et produire des reportings réguliers à destination des responsables applicatifs (MOA) · Apporter une expertise en production applicative sur les activités Build & Run · Organiser, coordonner et réaliser les travaux d’intégration applicative · Préparer, planifier et piloter les mises en production (analyse de risques, orchestration, gestion des impacts, release management) · Assurer le support de niveau 2 et 3, le diagnostic et la résolution des incidents et problèmes · Réaliser des analyses fonctionnelles et techniques approfondies lors des incidents majeurs et proposer des plans d’actions correctifs et préventifs · Participer à l’amélioration continue des services et à la réduction du nombre d’incidents récurrents · Administrer et maintenir les chaînes de traitement et les ordonnanceurs Automatisation & Qualité de service · Définir et mettre en œuvre des processus d’automatisation afin d’améliorer la fiabilité et l’efficacité opérationnelle · Optimiser et automatiser les chaînes de traitements batchs · Rédiger et maintenir la documentation technique, les procédures d’exploitation et les modes opératoires Sécurité & Conformité · Appliquer les bonnes pratiques de hardening système · Participer à la remédiation des vulnérabilités et au respect des exigences de sécurité · Contribuer aux audits techniques et aux contrôles de conformité DevOps · Collaborer avec les équipes DevOps et développement pour améliorer l’industrialisation des déploiements · Contribuer à la mise en place et à l’amélioration des pipelines CI/CD existants · Utiliser des outils d’automatisation et de configuration pour fiabiliser les environnements (Ansible, CI/CD)
Offre d'emploi
Product Owner Infrastructure – OS & Container Platform
Etixway
Publiée le
Ansible
Confluence
Docker
12 mois
40k-65k €
500-730 €
Paris, France
Dans le cadre d’un programme de transformation et de modernisation des infrastructures IT d’un grand groupe, nous recherchons un Product Owner Infrastructure pour intervenir au sein d’une équipe transverse en charge des produits d’infrastructure, notamment les plateformes OS et Container Factory . L’équipe conçoit et fait évoluer des socles techniques mutualisés permettant aux différentes équipes applicatives de déployer leurs services dans des environnements standards, sécurisés et automatisés. Le Product Owner interviendra au cœur d’une organisation agile et collaborera étroitement avec les équipes Infrastructure, DevOps, Sécurité et Exploitation afin de piloter l’évolution des plateformes techniques. Missions En tant que Product Owner Infrastructure, vous aurez pour principales responsabilités : Définir et porter la vision produit des plateformes OS et Container Factory Construire et prioriser le backlog produit en lien avec les équipes techniques et les parties prenantes Piloter la roadmap produit et suivre l’avancement des évolutions techniques Collaborer étroitement avec les équipes DevOps, SRE, Infrastructure et Exploitation Participer à la définition et à l’évolution des standards technologiques des plateformes OS et containers Suivre le cycle de vie des systèmes d’exploitation et des environnements containers Contribuer à l’amélioration continue des plateformes : automatisation, industrialisation et fiabilité Accompagner les équipes internes dans l’utilisation des socles techniques et des outils associés Participer aux cérémonies Agile et assurer le bon déroulement des cycles de delivery
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5150 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois