L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 796 résultats.
Offre d'emploi
Business Analyst/AMOA H/F
█ █ █ █ █ █ █
Publiée le
Data management
50k-55k €
France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data scientist IA + Python + GCP
emagine Consulting SARL
Publiée le
AI
BigQuery
Google Cloud Platform (GCP)
3 ans
Île-de-France, France
Descriptif mission : En coordination avec les différents acteurs du pôle Payment et du Groupe • contribution aux projets décisionnels - Big data, • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers, • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • Exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs Connaissances techniques : Maîtrise des architectures et plateforme de l’IA ainsi que du Cloud. • Environnements et outils de Google Cloud Platform : - BigQuery, - Airflow, - Vertex Ai/Notebook Jupyter • Maîtrise des algos ML (notamment classification et NLP) • Langages : SQL, Python (Pandas, Scikit learn, Tensor Flow) • Delivery : Git, Jenkins / Cloud Build • Connaissance du Data Engineering fortement appréciée • Bonne connaissance générale des logiques décisionnelles Connaissances fonctionnelles : Comprendre l’environnement et les métiers de Paiements. Une connaissance préalable des paiements serait un plus.
Offre d'emploi
Consultant Data Governance & Data Products (Collibra / Snowflake)
OCTOGONE
Publiée le
BI
Collibra
Snowflake
9 mois
33k-45k €
Sochaux, Bourgogne-Franche-Comté
Contexte Dans le cadre du déploiement et de l’industrialisation de la gouvernance des données, le client utilise Collibra comme solution centrale pour le glossaire, le catalogue et la gestion des data products. Les métadonnées et datasets proviennent principalement de Snowflake, avec une extension envisagée vers Power BI. La mission consiste à assister techniquement le Data Governance Officer, en collaboration étroite avec le Data Platform Leader, responsable de la plateforme Snowflake et du data catalog. Profil recherché Compétences principales : Expertise Collibra (glossaire, catalogue, workflows, operating model). Gouvernance des données et Data Products. Capacité à travailler en interface gouvernance / plateforme. Connaissance du monde bancaire appréciée. Anglais. Compétences additionnelles : Snowflake Cortex AI et objets sémantiques. Gouvernance Power BI. Sensibilité data quality, lineage et IA. Objectifs Mettre en place et opérer un glossaire data et des data products dans Collibra. Définir et industrialiser les processus liés à la création et à l’évolution des objets data. Garantir la qualité des informations et métadonnées collectées dans Collibra. Assurer la cohérence entre la gouvernance des données et la plateforme Snowflake. Apporter une expertise technique au Data Governance Officer et au Data Platform Leader. Périmètre & Responsabilités Assistance technique au Data Governance Officer. Traduire les orientations de gouvernance en configurations concrètes dans Collibra. Concevoir modèles d’assets, relations, statuts, certifications et workflows. Proposer des évolutions en fonction des usages et contraintes. Coordination avec le Data Platform Leader. Modélisation des objets Snowflake dans Collibra. Automatisation de l’ingestion des métadonnées. Alignement des standards plateforme et règles de gouvernance. Mise en place du glossaire data. Structurer glossaire métier et technique dans Collibra. Définir standards de définition, nommage et classifications. Conception et gouvernance des Data Products. Définir cadre méthodologique (règles, responsabilités, qualité, cycle de vie). Créer et maintenir les data products dans Collibra, liés aux objets Snowflake et cas d’usage. Processus opérationnels Documenter les processus end-to-end : - Garantir la scalabilité et la maintenabilité des dispositifs mis en place. - Créer une formation dédiée pour accompagner les équipes : supports pédagogiques et sessions pratiques pour assurer la bonne application des processus. Qualité des métadonnées : - Définir critères qualité et mettre en place contrôles dans Collibra. - Suivre indicateurs et piloter amélioration continue. Intégration Snowflake & BI : - Gérer ingestion et gouvernance des métadonnées Snowflake. - Préparer intégration des métadonnées Power BI. - Anticiper impacts Snowflake Cortex AI sur gouvernance et traçabilité. Interfaces clés Data Governance Officer : vision, cadre et arbitrages de gouvernance. Data Platform Leader : architecture, standards et exploitation de Snowflake et du data catalog. Équipes Data Platform, BI et Métiers. Livrables attendus Glossaire métier et technique opérationnel dans Collibra. Catalogue de data products documentés et exploitables. Processus et workflows Collibra alignés avec Snowflake. Tableaux de bord qualité et adoption. Dispositif d’amélioration continue. Formation des utilisateurs.
Offre d'emploi
Lead Data H/F
CELAD
Publiée le
45k-50k €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Lead Data H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez dans un environnement Data structuré, organisé en squads, avec des enjeux forts autour de la gouvernance, de la qualité et de la valorisation des données. En lien étroit avec les équipes Data (Data Engineers / Data Analysts) et les métiers, vous jouez un rôle clé dans le pilotage des initiatives Data et dans le déploiement des bonnes pratiques de gouvernance et de conformité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Piloter et animer les travaux Data en coordination avec les équipes Data et les métiers - Collecter, prioriser et organiser les besoins Data des squads - Assurer le suivi de la mise en œuvre des solutions Data - Participer au cadrage des projets et garantir le respect du cadre Data (gouvernance, protection, BI) - Accompagner les équipes sur les sujets de Data Management et de Data Privacy (RGPD) - Animer les échanges et assurer un reporting régulier auprès des parties prenantes
Mission freelance
Lead Tech Python – GenAI (H/F)
HOXTON PARTNERS
Publiée le
AWS Cloud
GenAI
Python
10 mois
550 €
Massy, Île-de-France
Dans le cadre de la mise en place d’une GenAI Factory au sein d’un grand acteur bancaire, nous recherchons un Lead Tech Python expérimenté. La mission consiste à intervenir comme référent technique auprès d’une équipe de développeurs GenAI afin de renforcer la qualité et la robustesse des développements Python. Le consultant participera activement au développement, challengera les choix techniques, diffusera les bonnes pratiques (architecture, structuration de code, tests, performance) et recommandera les librairies adaptées aux cas d’usage IA générative (LLM, RAG, orchestration, etc.). Une expérience concrète en développement sur des projets Generative AI est indispensable. Une connaissance d’environnements cloud, idéalement AWS, est fortement appréciée.
Offre d'emploi
Développeur Full Stack PHP LARAVEL / Vue.js
Amontech
Publiée le
AWS Cloud
Laravel
PHP
40k-50k €
Île-de-France, France
🚀 Contexte Vous rejoindrez un projet dans le secteur industriel, pour intervenir sur un Espace Client à fort trafic (60 000 utilisateurs actifs) , plateforme critique au cœur de la relation client. Objectif : garantir performance, scalabilité et innovation , tout en assurant le maintien en condition opérationnelle. 🛠 Missions 🔹Développement et maintenance : Backend : API REST PHP Laravel avec sécurité nécessaire (authentification OAuth, SSO, OpenID..) et services en NodeJS Frontend : Vue.js Maintien en condition opérationnelle de l'Espace Client 🔹Assurance qualité : Application des bonnes pratiques de développement Respect des normes de sécurité (OWASP) et de confidentialité (RGPD) Garantie de la maintenabilité à long terme 🔹Optimisation : Adaptation et configuration du CI/CD Modélisation et optimisation de la base de données MySQL Amélioration continue des performances pour une expérience client optimale
Mission freelance
Lead Data H/F
CELAD
Publiée le
1 an
450-500 €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Lead Data H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez dans un environnement Data structuré, organisé en squads, avec des enjeux forts autour de la gouvernance, de la qualité et de la valorisation des données. En lien étroit avec les équipes Data (Data Engineers / Data Analysts) et les métiers, vous jouez un rôle clé dans le pilotage des initiatives Data et dans le déploiement des bonnes pratiques de gouvernance et de conformité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Piloter et animer les travaux Data en coordination avec les équipes Data et les métiers - Collecter, prioriser et organiser les besoins Data des squads - Assurer le suivi de la mise en œuvre des solutions Data - Participer au cadrage des projets et garantir le respect du cadre Data (gouvernance, protection, BI) - Accompagner les équipes sur les sujets de Data Management et de Data Privacy (RGPD) - Animer les échanges et assurer un reporting régulier auprès des parties prenantes
Offre d'emploi
Lead Data H/F
CELAD
Publiée le
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Lead Data H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez dans un environnement Data structuré, organisé en squads, avec des enjeux forts autour de la gouvernance, de la qualité et de la valorisation des données. En lien étroit avec les équipes Data (Data Engineers / Data Analysts) et les métiers, vous jouez un rôle clé dans le pilotage des initiatives Data et dans le déploiement des bonnes pratiques de gouvernance et de conformité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Piloter et animer les travaux Data en coordination avec les équipes Data et les métiers - Collecter, prioriser et organiser les besoins Data des squads - Assurer le suivi de la mise en œuvre des solutions Data - Participer au cadrage des projets et garantir le respect du cadre Data (gouvernance, protection, BI) - Accompagner les équipes sur les sujets de Data Management et de Data Privacy (RGPD) - Animer les échanges et assurer un reporting régulier auprès des parties prenantes
Offre d'emploi
Développeur Back-End Expert Java / Spring Boot – Paris / IDF
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Cucumber
Gitlab
1 an
60k-65k €
550-650 €
Saint-Denis, Île-de-France
Je recherche un Développeur Back-End Expert pour rejoindre une équipe intervenant sur un environnement technique riche et complexe, au sein d’un acteur majeur du secteur transport / mobilité . Vous intégrerez une équipe agile d’une dizaine de personnes et contribuerez à des sujets stratégiques autour de l’ orchestration de recherches d’itinéraires et du moteur de calcul d’itinéraires , dans un contexte de forte volumétrie et d’exigence élevée en production. Vos missions Concevoir, développer et livrer des solutions back-end robustes, performantes et sécurisées Traduire des besoins fonctionnels complexes en solutions techniques adaptées Intervenir en autonomie sur des sujets back-end variés Garantir la qualité et l’exploitabilité en production Participer activement à l’intégration continue, aux déploiements et à l’usine logicielle Contribuer à l’amélioration continue de la qualité logicielle, des performances et du monitoring Accompagner les autres développeurs de l’équipe Collaborer avec les équipes produit, architecture, sécurité et engineering Environnement technique Java 21 Spring / Spring Boot AWS Kubernetes GitLab Terraform Tests de non-régression Redis ActiveMQ, SQS, SNS MongoDB, DynamoDB, S3 JUnit, Mockito, Cucumber, Wiremock, Postman Maven, Gradle, Bash Datadog, CloudWatch
Mission freelance
Développeur Python devops AWS ANGLAIS 490 e
BI SOLUTIONS
Publiée le
DevOps
Python
3 ans
400-490 €
Île-de-France, France
Développeur Python devops AWS ANGLAIS 490 e Rôles et responsabilités En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donne e ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA 490 e
Offre d'emploi
DevSecOps AWS - Transformation
KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform
3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un DevSecOps AWS pour accompagner nos clients dans l’adoption de pratiques de sécurité cloud modernes et industrialisées. Vous interviendrez sur des missions d’audit, de cadrage et de mise en place de dispositifs DevSecOps adaptés aux contraintes techniques et réglementaires. Vous analyserez les environnements existants, identifierez les risques et proposerez des trajectoires d’amélioration en matière de sécurité et d’automatisation. Vous participerez à l’intégration de contrôles de sécurité dans les pipelines CI/CD, à la mise en place de politiques de conformité et à l’automatisation des processus via Infrastructure as Code. Vous accompagnerez également les équipes client dans leur montée en compétence sur AWS et les pratiques DevSecOps, en animant des ateliers et en diffusant les bonnes pratiques. Votre rôle combinera expertise technique et conseil, avec une forte capacité à adapter votre discours à des interlocuteurs variés.
Offre d'emploi
Ingénieur Réseaux LAN/WIFI (H/F)
RIDCHA DATA
Publiée le
Ansible
CCNA
Cisco
1 an
Paris, France
Dans le cadre de cette mission, vous serez en charge de la gestion et de la maintenance des infrastructures LAN et WIFI existantes. À ce titre, vos principales responsabilités seront : Assurer la gestion des incidents en collaboration avec les équipes locales sur les différents sites ainsi qu’avec le partenaire d’exploitation en charge des niveaux L1 et L2 Analyser et résoudre les problématiques liées aux environnements LAN / WIFI / Cloud Ouvrir, suivre et piloter les incidents auprès des mainteneurs Garantir la qualité et la continuité de service des infrastructures réseau 📦 Livrables attendus Comptes rendus de réunions Documents d’architecture réseau Documents d’exploitation Procédures opérationnelles Supports de documentation (utilisateurs et équipes support)
Mission freelance
Senior Data Product Manager – Group Data Platform / Data Mesh H/F
ADSearch
Publiée le
Architecture
Data Mesh
Production
3 mois
La Défense, Île-de-France
Contexte de la mission Dans le cadre de l’accélération de sa transformation Data à l’échelle Groupe, notre client recherche un(e) Senior Data Product Manager pour piloter de manière stratégique et très opérationnelle la conception, la mise en œuvre et le déploiement de sa plateforme Data Self-Service Groupe , fondée sur les principes du Data Mesh . Il s’agit d’un rôle clé, orienté build et exécution , avec une forte responsabilité sur la livraison concrète , l’ industrialisation et l’ adoption à grande échelle de la plateforme au sein des différents domaines métiers. Le/la candidat(e) devra être capable de définir une vision produit claire tout en la traduisant en une plateforme robuste, scalable et prête pour la production , utilisée à l’échelle de l’entreprise. Mission principale Concevoir, construire, déployer et opérer la plateforme Data Mesh Groupe (appelée Group Data Platform – GDP ) comme un produit interne , en garantissant : sa livraison technique son adoption à l’échelle de l’entreprise son excellence opérationnelle son amélioration continue Responsabilités principales 1. Product Management orienté usage & amélioration continue Vos missions Recueillir et formaliser les besoins utilisateurs ainsi que les exigences plateforme Définir la vision produit , la proposition de valeur et la roadmap Mesurer l’usage de la plateforme et la valeur créée Améliorer en continu l’ expérience développeur et l’ expérience utilisateur Structurer les boucles de feedback et piloter le backlog d’amélioration Livrables attendus Vision produit et proposition de valeur de la plateforme KPIs de performance, d’usage et d’adoption Mécanismes de feedback utilisateurs et backlog d’amélioration continue Roadmap d’évolution de la plateforme 2. Delivery de la plateforme (responsabilité centrale) Vos missions Définir les capacités de la plateforme : data products pipelines de données gouvernance observabilité accès self-service Définir et faire appliquer les standards techniques et les patterns d’architecture Prendre des décisions techniques concrètes et valider les solutions de manière opérationnelle Garantir une plateforme industrialisée, réutilisable et scalable Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme 3. Architecture Cloud & Infrastructure Vos missions Coordonner la conception et l’exploitation de l’architecture cloud et hybride avec le Group Data Architect Coordonner avec la Group Data Delivery Team l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Garantir les exigences de sécurité , de conformité et de gouvernance Livrables attendus Blueprint d’architecture cloud (en collaboration avec le Group Data Architect) Cadre de sécurité et de gestion des accès Principes d’intégration hybride / on-premise 4. Pilotage de la delivery & exécution Vos missions Piloter l’ensemble du cycle de delivery de la plateforme Définir le backlog produit et le processus de priorisation Organiser les releases et les déploiements en production Suivre la performance, la fiabilité et la disponibilité de la plateforme Identifier et gérer les risques, incidents et sujets techniques critiques Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et processus de gestion de versions Tableaux de bord de suivi de delivery SLA / indicateurs de fiabilité et de performance de la plateforme 5. Déploiement & adoption dans les domaines métiers Vos missions Déployer la plateforme dans les différents domaines métiers Accompagner les équipes domaines dans la création de data products Mettre en œuvre le modèle opérationnel Data Mesh Structurer et accompagner l’onboarding des équipes Lever les freins opérationnels à l’adoption Livrables attendus Framework et processus d’onboarding des domaines Guidelines sur le cycle de vie des data products Playbooks d’accompagnement des équipes métiers / domaines KPIs d’adoption et d’usage Supports de formation et documentation d’onboarding 6. Documentation, standardisation & gouvernance Vos missions Documenter les capacités, standards et processus de la plateforme Garantir l’alignement avec la Federated Computational Data Governance du Groupe Structurer les bonnes pratiques de mise en œuvre Livrables attendus Référentiel de documentation de la plateforme Standards techniques et guidelines d’implémentation Framework de gouvernance et de conformité Playbooks de bonnes pratiques 7. Communication opérationnelle & reporting exécutif Vos missions Communiquer sur l’avancement, l’impact et la valeur de la plateforme Produire un reporting régulier à destination des instances de gouvernance et du management Aligner les parties prenantes métier, IT et Data Livrables attendus Executive Project Dashboard Tableaux de bord de performance de la plateforme Présentations pour les comités de pilotage / steering committees Suivi des décisions, risques et points bloquants 8. Promotion interne & évangélisation Vos missions Promouvoir la valeur de la plateforme à l’échelle de l’organisation Soutenir les initiatives d’adoption interne Fédérer une communauté autour de la plateforme Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations de la plateforme et portefeuille de cas d’usage
Mission freelance
Cadrage risques & data (BCBS 239)
Mon Consultant Indépendant
Publiée le
Data Strategy
Gestion de projet
4 mois
650-700 €
Paris, France
Dans le cadre de la transformation de ses fonctions de contrôle, un acteur de premier plan du Crédit à la Consommation souhaite définir et structurer sa future Plateforme Risque Cible. L'enjeu est double : moderniser l'infrastructure technologique pour intégrer les opportunités offertes par l'Intelligence Artificielle (automatisation des contrôles) tout en garantissant une conformité stricte aux exigences réglementaires, notamment BCBS 239. La mission s'inscrit dans un environnement transverse, nécessitant une synergie forte entre la Direction des Risques, les équipes Data et l'IT. Objectifs et Périmètre L'objectif central est de réaliser une analyse d'écarts (gap analysis) entre l'existant et la cible, puis de concevoir la feuille de route opérationnelle pour la mise en œuvre du dispositif. Le périmètre prioritaire est le Risque de Crédit, incluant également les risques financiers, de valeur résiduelle et opérationnels. Descriptif des interventions Phase 1 : Diagnostic et Analyse de l'Existant · Recueil des besoins : Animation d'ateliers avec les équipes Risques pour identifier les attentes et les leviers d'amélioration. · Audit des "Pain Points" : Identification des points de friction du dispositif actuel (processus, outils, qualité de donnée). · Benchmark de place : Analyse comparative des pratiques du secteur (organisation, gouvernance) et veille sur les cas d'usage de l'IA dans la gestion des risques. Phase 2 : Définition de la Cible (Target Operating Model) · Scénarios de Plateforme : Proposition de différents scénarios d'architecture et de services pour la plateforme cible. · Gouvernance des Données : Définition de la chaîne de responsabilité, de validation et de gouvernance de la donnée. · Pilotage : Spécification des tableaux de bord de suivi de la qualité des données (du niveau opérationnel jusqu’au Corporate Center). · Organisation & RH : Estimation des besoins en effectifs (FTE) et cartographie des compétences nécessaires pour opérer la cible. Phase 3 : Cadrage Opérationnel et Plan de Déploiement · Feuille de route : Élaboration d'un plan d'actions structuré par chantiers. · Gestion des dépendances : Articulation étroite avec le programme interne spécifique et les impératifs du projet BCBS 239. · Planning & Gouvernance Projet : Définition des jalons clés, des étapes de validation interne et mise en place des instances de pilotage. 4. Livrables attendus · Rapport d’analyse d’écarts et benchmark de place. · Dossier de définition de la plateforme cible et de l’organisation associée. · Schéma de gouvernance et de responsabilité des données. · Feuille de route détaillée (Roadmap) et planning d'implémentation. · Estimation budgétaire et dimensionnement des équipes (FTE). 5. Profil recherché · Expertise Métier : Solide expérience en gestion des risques (Crédit, Valeur Résiduelle, Opérationnel) dans le secteur financier. · Expertise Réglementaire : Maîtrise approfondie des exigences BCBS 239. · Culture Data/IA : Capacité à projeter l'utilisation de l'IA pour l'industrialisation des contrôles métiers. · Soft Skills : Excellence en gestion de projets transverses, capacité à fédérer des interlocuteurs variés (Risque, Finance, IT, Data). · Atout majeur : Expérience opérationnelle dans le secteur du crédit à la consommation automobile (captives).
Mission freelance
Pilote de Delivery (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
DevOps
2 ans
480-530 €
Lyon, Auvergne-Rhône-Alpes
Contexte : Fonctionnement : 2 jours non consécutifs par semaine sur site à Lyon Les missions attendues par le Pilote de Delivery (H/F) : Missions principales : Pilotage du delivery Coordonner une équipe produit (développeurs, DevOps, QA, etc.) Garantir la qualité, la performance et la fiabilité des livrables Suivre l’avancement des développements et sécuriser les engagements Animer la dynamique d’amélioration continue (indicateurs DORA, performance delivery) Pilotage technique opérationnel Superviser les pratiques DevOps / DevSecOps Piloter la mise en place et l’optimisation des pipelines CI/CD Veiller à la bonne intégration des enjeux de sécurité, performance et résilience Suivre les choix d’architecture en lien avec les experts techniques Contribuer à l’industrialisation du delivery et à l’automatisation Coordination & communication Être le point de contact entre les équipes techniques, produit et métiers Organiser et animer les comités techniques et de pilotage Assurer le reporting (avancement, risques, alertes) Faciliter la collaboration entre les différentes parties prenantes Contribution à la stratégie produit Travailler en lien étroit avec le Product Owner et le Lead Developer Participer à la priorisation et à la structuration du backlog Contribuer à l’alignement entre enjeux métiers et capacités techniques Environnement technique Cloud : AWS Outils : Jira, Confluence, GitLab, Power BI DevOps : CI/CD, Terraform, Docker Stack : Java / Spring Boot, Angular, PostgreSQL Pratiques : Agile (Scrum/Kanban), DevOps, CI/CD, observabilité
Offre d'emploi
Platform Engineer
Deodis
Publiée le
AWS Cloud
CI/CD
DevOps
12 mois
42k-47k €
460-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre du développement de notre client, nous souhaitons faire appel à une expertise, avec une spécialisation Devops et en gestion de clusters Kubernetes. Vous intégrez l’équipe Experte en Conteneurisation, où, en collaboration avec le Product Owner et vos pairs, vous concevez les plateformes d’infrastructure orientées Kubernetes permettant de proposer aux équipes internes des services informatiques consommables en selfcare. Missions : participer à la définition de l’architecture des plateformes de services, et rédigez la documentation nécessaire à l’exploitation des services. superviser, monitorer et optimiser les performances des environnements Cloud, afin d’assurer leur robustesse, leur disponibilité et leur sécurité. gérer le support technique de niveau 3, pour résoudre les incidents complexes et accompagner les utilisateurs. réaliser une veille technologique sur les solutions d’automatisation, afin d’intégrer les innovations pertinentes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2796 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois