L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 710 résultats.
Mission freelance
Gestionnaire de Parc / Administrateur Systèmes & Cloud
Castelis
Publiée le
Azure
Fortinet
Google Cloud Platform (GCP)
6 mois
400-450 €
Levallois-Perret, Île-de-France
• Support utilisateurs Niveau 2 : diagnostic, résolution, escalade maîtrisée • Administration et exploitation des environnements Cloud & IT • Gestion VPN et firewalls (politiques, accès, supervision) • Gestion et support des applications téléphoniques (VoIP, softphones, intégrations) • Supervision et exploitation des logs via GreyLog • Déploiement et gestion d’agents sur les devices (sécurité, monitoring, MDM) • Suivi des tickets : incidents, demandes, changements • Amélioration continue des processus IT et documentation • Collaboration étroite avec les équipes sécurité et projets dans un contexte international
Mission freelance
Développeur JAVA à Lyon
SKILLWISE
Publiée le
Angular
Azure
Gitlab
3 mois
220-550 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un renfort , nous recherchons un Développeur Java orienté Back-end pour intervenir au sein d’une équipe transverse travaillant sur plusieurs domaines métiers (emprunteur, santé, prévoyance). La mission est prévue pour une durée de 3 mois Vous interviendrez principalement sur le Back-end (environ 80 %) , avec une part plus limitée de Front-end. Vos missions principales : Développer et maintenir des services Back-end en Java 21 / Spring Boot 3 Participer ponctuellement aux développements Front-end en Angular 18 Contribuer à la conception technique et aux échanges avec les leads techniques Travailler dans un environnement API / microservices Participer aux rituels agiles et à l’amélioration continue des pratiques de l’équipe Être rapidement opérationnel(le) pour sécuriser la continuité de service
Mission freelance
Product Manager IA
MEETSHAKE
Publiée le
IA
Product management
SaaS
1 an
France
Pour le compte de l'un de nos clients finaux, une Scale-up en pleine croissance qui révolutionne le secteur des avantages salariés et de l'engagement collaborateur, nous recherchons un Product Manager (H/F) passionné par l'innovation et l'intelligence artificielle. Au sein d'une équipe agile et rattaché(e) directement à la direction produit, votre mission sera de porter la vision sur les sujets de demain : Discovery & Innovation IA : Identifier comment l'IA (LLMs, agents, automatisation) peut transformer l'usage des avantages sociauré et personnaliser l'expérience utilisateur (recommandations intelligentes, prédictions de besoins). Stratégie & Roadmap : Être une véritable force de proposition pour définir les priorités et arbitrer les fonctionnalités à fort impact métier. Product Delivery : Piloter le cycle de vie des fonctionnalités, de la conception des user stories à la mise en production, en lien étroit avec les équipes tech. Analyse de la Performance : Suivre les KPIs et les feedbacks utilisateurs pour itérer rapidement sur le produit.
Mission freelance
Développeur Fullstack Java/SpringBoot/NuxtJS (H/F)
Cherry Pick
Publiée le
AWS Cloud
Java
Nuxt.js
6 mois
400-450 €
Lille, Hauts-de-France
Au sein du pôle Retail, nous accompagnons des clients majeurs dans les secteurs de la grande distribution, du luxe et de l’événementiel dans leur programme de transformation digitale. Nous développons et opérons des solutions sur-mesure hébergées sur les principaux fournisseurs cloud publics (AWS, Microsoft Azure, GCP). Intégré(e) à un département regroupant des profils aux compétences variées (SRE, DevOps, SysOps, LeadTech, Architecte), vous participerez à la croissance de nos projets en tant que développeur Fullstack. Vos responsabilités En tant que développeur au sein d’une équipe delivery, vous êtes responsable de la qualité, de la performance et de la sécurité des applications du périmètre concerné. Vos missions principales incluent : Participer au cadrage, à la conception et au chiffrage des solutions Développer dans le respect des exigences de qualité (code review, quality gate, DoD) et de performance Assurer la prise en charge et la résolution des incidents et anomalies de production Intégrer et mettre en œuvre les meilleures pratiques de sécurité tout au long du cycle de développement (SAST, SCA, DAST) Conduire et animer des ateliers internes ou avec les clients (points recettes, ateliers de travail)
Mission freelance
Développer Angular Senior via l'IA
Tenth Revolution Group
Publiée le
Agent IA
Développement
6 mois
400-550 €
Bordeaux, Nouvelle-Aquitaine
🚀 Je recherche un(e) Senior Angular Developer… mais pas comme les autres ! Pour l’un de nos clients grand compte, nous recherchons un profil Angular senior pour rejoindre une petite équipe composée de 2 développeurs (1 junior et 1 alternant). 🧠 Particularité de la mission : le développement sera fortement assisté par l’IA. Le code sera majoritairement généré par l’IA, ce qui signifie que votre rôle sera davantage celui d’un architecte / lead technique que celui d’un simple codeur. 🎯 Ce que nous recherchons : Expertise solide sur Angular Idéalement une expérience sur les dernières versions (Angular v19 / v20 / v21) Très bonnes capacités de communication pour accompagner l’équipe Capacité à structurer le projet et mettre en place les tests unitaires Esprit d’architecture et de revue de code 👥 Contexte : Encadrement technique d’une petite équipe (1 junior + 1 alternant) Client grand compte Mission longue Démarrage ASAP 📍 Organisation : 2 jours de présentiel tous les 15 jours 💬 Si vous êtes intéressé(e) ou si vous connaissez quelqu’un qui pourrait l’être, n’hésitez pas à me contacter en message privé ! PAS DE SOUS TRAITANCE - MERCI #Agular #Frontend #IA #Recrutement #Freelance #Mission
Mission freelance
Tech Lead DBT
CONCRETIO SERVICES
Publiée le
Data governance
DBT
12 mois
400-650 €
Île-de-France, France
Nous recherchons en urgence un Tech Lead / Architecte DBT pour rejoindre l'équipe de notre client et piloter la mise en place d’une nouvelle plateforme data basée sur DBT . Notre client souhaite industrialiser sa plateforme DBT. Jusqu’à présent, seules des POC ont été réalisés et nous avons besoin d’un profil expérimenté pour : Définir le socle et l’architecture cible Poser les bonnes pratiques et standards Expliquer comment construire et opérer une plateforme DBT Mettre en place des pipelines CI/CD garantissant une excellente expérience Data Engineer Missions principales Le Tech Lead DBT devra : Concevoir et construire la plateforme DBT from scratch Définir les bonnes pratiques, patterns et standards : naming, tests, linters, modèles, orchestration, etc. Mettre en place les pipelines CI/CD adaptés à DBT Garantir une expérience développeur optimale (DX) pour les data engineers Monter rapidement en compétence sur GCP (une carence identifiée mais surmontable) Collaborer quotidiennement avec les équipes pour assurer une intégration réussie Contribuer à un programme structurant autour de S3NS
Mission freelance
Data Scientist / AI Engineer
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Offre d'emploi
Ingénieur DevOps Backend / Cloud Azure
NEWAY SOLUTION DIGITALE
Publiée le
Ansible
Azure DevOps
CI/CD
55k-80k €
Île-de-France, France
Description du poste Dans le cadre du développement et de l’évolution d’une plateforme d’ingénierie SI à grande échelle, notre societe recherche un Ingénieur DevOps Backend / Cloud Azure/AWS pour intervenir sur la conception, le développement, le déploiement et l’exploitation de solutions techniques utilisées par de nombreuses équipes de développement. Le poste s’inscrit dans un environnement agile, orienté industrialisation des processus, automatisation et gestion d’environnements cloud à fort volume. Missions principales • Concevoir, développer et maintenir des composants logiciels backend • Participer à la standardisation des outils de développement, de déploiement et de mise en production • Développer et maintenir des APIs et services backend • Mettre en œuvre et améliorer les pipelines CI/CD • Gérer et exploiter l’infrastructure sous-jacente aux applications • Assurer le support technique (incidents, bugs, évolutions, changements) • Travailler en étroite collaboration avec des équipes techniques en mode agile • Contribuer à l’optimisation des environnements cloud et à la gestion de gros volumes
Mission freelance
Développeur Devops Azure - Paris
Codezys
Publiée le
Azure
Azure DevOps Services
Docker
6 mois
Paris, France
Nous recherchons un Développeur DevOps Azure expérimenté pour rejoindre notre équipe de développement. Missions principales : Concevoir et mettre en œuvre des pipelines CI/CD sur Azure DevOps. Gérer et automatiser l'infrastructure avec des outils tels que Terraform et Azure Resource Manager. Mettre en place le déploiements sur les différents environnements. Surveiller et optimiser les performances des applications en production. Collaborer avec les équipes de développement pour améliorer les processus de livraison. Participer à l'amélioration continue des pratiques DevOps au sein de l'équipe. Partager les connaissances avec les autres membres de l'équipe. Compétences requises : Expérience solide avec Azure DevOps et les outils CI/CD. Connaissance approfondie des conteneurs (Docker, Kubernetes). Compétences en scripting (PowerShell, Bash) et expérience avec des langages de programmation (Java, Javascript, Python, C++). Connaissance des outils d'infrastructure as code (Terraform). Compréhension des pratiques de sécurité et de conformité dans le cloud. Excellentes compétences en communication et en travail d'équipe. Qualifications : Diplôme en informatique, en ingénierie ou dans un domaine connexe. Expérience dans un environnement de développement web Java et backend. Certification Azure AZ-900, AZ-104, AZ-204, AZ-400, AZ-500 Objectifs et livrables - Connaissance approfondie d'Azure - CI/CD (Intégration Continue / Déploiement Continu) - Infrastructure as Code (IaC) - Conteneurisation et orchestration - Scripting et automatisation - Gestion de la configuration et surveillance - Sécurité dans le Cloud
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
30k-60k €
Lille, Hauts-de-France
Data Engineer – GCP / BigQuery – Plateforme Data Groupe Lille (2 jours sur site minimum) – Environnement bancaire / Data Platform Vous souhaitez contribuer à la construction et à l’évolution d’une plateforme Data stratégique à l’échelle d’un grand groupe bancaire ? Nous recherchons un Data Engineer pour renforcer l’équipe en charge du Socle Cloud Data Platform Groupe . Vos missions Build Concevoir et développer les flux d’alimentation du DataLake Groupe Mettre en place des solutions de data engineering sur Google Cloud Platform (BigQuery) Développer et maintenir les outillages nécessaires aux certifications de données du projet ORION Identifier et exploiter les sources de données pertinentes Participer à la modélisation et à la transformation des données Collaborer avec les Data Analysts et Data Stewards Run Assurer le suivi de production des chaînes d’alimentation de données Analyser et résoudre les incidents en collaboration avec les équipes de production Participer aux évolutions techniques et optimisations de la plateforme
Mission freelance
Data Engineer (F/H)
CELAD
Publiée le
1 an
Lille, Hauts-de-France
Data Engineer – GCP / BigQuery – Plateforme Data Groupe Lille (2 jours sur site minimum) – Environnement bancaire / Data Platform Vous souhaitez contribuer à la construction et à l’évolution d’une plateforme Data stratégique à l’échelle d’un grand groupe bancaire ? Nous recherchons un Data Engineer pour renforcer l’équipe en charge du Socle Cloud Data Platform Groupe . Vos missions Build Concevoir et développer les flux d’alimentation du DataLake Groupe Mettre en place des solutions de data engineering sur Google Cloud Platform (BigQuery) Développer et maintenir les outillages nécessaires aux certifications de données du projet ORION Identifier et exploiter les sources de données pertinentes Participer à la modélisation et à la transformation des données Collaborer avec les Data Analysts et Data Stewards Run Assurer le suivi de production des chaînes d’alimentation de données Analyser et résoudre les incidents en collaboration avec les équipes de production Participer aux évolutions techniques et optimisations de la plateforme
Mission freelance
Proxy PO build - Snowflake + Power BI
FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake
1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Offre d'emploi
Chef de Projet IT Data Confirmé
Gentis Recruitment SAS
Publiée le
Data governance
Data management
Gestion de projet
12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme international de déploiement de Data Products au sein d’une entité majeure du secteur de l’énergie, nous recherchons un Chef de Projet IT confirmé . La mission porte sur la coordination du déploiement mondial de 3 à 4 solutions data couvrant notamment : Gestion des données fondamentales Données de production (éolien, solaire) Données de marché Les déploiements concerneront plusieurs pays : UK, US, Italie, Espagne. Objectifs de la mission Définir le planning d’adoption multi-pays Coordonner les chefs de projets produits Piloter une équipe transverse de 3 à 4 personnes Assurer reporting, gestion des risques et suivi budgétaire Garantir le respect qualité / coûts / délais Responsabilités principalesPilotage projet Planification et suivi opérationnel Coordination internationale Gestion des dépendances techniques Animation des comités de pilotage Gouvernance & Data Interaction avec Data Owners, Data Stewards, Data Custodians Compréhension des enjeux de data management Gestion des risques IT et SLA Déploiement Coordination des mises en production Organisation du support et maintenance Accompagnement des utilisateurs
Mission freelance
Développeur Back-End Java
Sapiens Group
Publiée le
API REST
AWS Cloud
Docker
12 mois
400-450 €
Île-de-France, France
Au sein du pôle dédié à l’ERP, vous interviendrez sur la solution centralisant l’ensemble des fonctionnalités nécessaires à la gestion des résidences étudiantes du groupe. Mission Vous rejoindrez une équipe récemment constituée, chargée d’implémenter la réforme des factures électroniques sur le périmètre applicatif Studea. Vos missions principales incluront : Développer et maintenir des services backend en micro-services pour le projet de facturation électronique. Participer à la conception et à l’architecture technique des solutions, en privilégiant les bonnes pratiques cloud et API. Collaborer avec l’équipe colocalisée composée de développeurs, d’ops et d’un product owner dans un environnement agile. Contribuer à un projet ambitieux respectant un calendrier exigeant et structurant pour l’ensemble du groupe. Profil recherché Expérience et compétences techniques : Forte appétence pour les architectures micro-services et les technologies associées (API, environnements Cloud, CQRS…). Idéalement, première expérience dans la réalisation et le déploiement de services en micro-services. Technologies à maîtriser : Java Spring Boot Maven Amazon Web Services (AWS) Docker SQL Server API REST Tests unitaires et fonctionnels (BDD) Code Review et Pair Programming Code versioning Intégration continue Atout supplémentaire : Cluster Kubernetes Compétences relationnelles et méthodologiques : Capacité à travailler en équipe colocalisée et à collaborer dans un environnement agile . Autonomie, rigueur et sens de l’organisation pour respecter un calendrier ambitieux.
Mission freelance
Data architecte / Expert Snowflake
Codezys
Publiée le
Apache Airflow
Kubernetes
Python
12 mois
Lille, Hauts-de-France
Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Offre d'emploi
Administrateur DBA Production Expert
KEONI CONSULTING
Publiée le
AWS Cloud
Nosql
Python
18 mois
20k-60k €
100-520 €
Lille, Hauts-de-France
CONTEXTE l’administrateur de bases de données (DBA) prend en charge des projets techniques tout en contribuant au maintien en condition opérationnelle des environnements SGBD relationnels et NoSQL sur notre Cloud (AWS / MongoDB Atlas). Nous recherchons une personne disposant d’une très bonne maîtrise des concepts SGBD, d’une connaissance approfondie du Cloud AWS, ainsi que d’un solide bagage en développement et en automatisation des systèmes (Python, Terraform, Git). MISSIONS - Être le contact privilégié sur la partie SGBD pour des projets techniques - Mise au point d’outils d’industrialisation, d’automatisation et délégation pour rendre autonome les factories et le pilotage sur des tâches SGBD - Contact régulier avec les architectes, développeurs et chefs de projets - Organisation, réalisation ou délégation des opérations de maintenance technique (type bascule cluster ou architecture répliquée, …) - Optimisations des performances et vigilance sur le capacity planning et la frugalité des environnements - Passage de livraisons applicatives et traitement des demandes courantes - Montée de versions SGBD ; application des patchs de sécurité, upgrade version majeure - Création et duplication d’environnements SGBD (instances / bases / schéma) - Suivi d’incidents avec les supports Editeur (Ex : Oracle Corp, Mongo Inc.) - Suivi des sauvegardes et tests de restauration - Mise en place de la supervision et test d’alerting - Rédaction de procédure pour enrichir la base de connaissances de l’équipe - Assurer une veille technologique : apporter une connaissance des pratiques et technologies émergentes - Astreintes et opérations en heures non ouvrées à prévoir. Astreintes obligatoires à la grille achat (1 semaine / mois lundi>dimanche) Spécificités Cloud - Intégrer de nouvelles solutions Cloud (DynamoDB, DocumentDB, RDS, etc.) au catalogue de service, en mettant au point les parties supervision, sauvegardes, monitoring, mise en production, etc. - Accompagner les factories : conseils sur les traitements applicatifs, le déploiement, l’exploitabilité et le traitement des alertes. Interactions : Equipes d’Exploitation, Factories, Architectes IT, Sécurité, CDP, Observabilité Livrables • Prise en charge des projets techniques tout en participant au maintien en condition opérationnelle des environnements • Mise au point d’outils d’industrialisation, d’automatisation et délégation pour rendre autonome les factories • Passage de livraisons applicatives et traitement des demandes courantes • Suivi d’incidents avec les supports Editeur (Ex : AWS, Mongo Inc.) • Suivi des sauvegardes et tests de restauration • Mise en place de la supervision et test d’alerting • Rédaction de procédure pour enrichir la base de connaissances de l’équipe • Assurer une veille technologique : apporter une connaissance des pratiques et technologies émergentes Le profil recherché ... ... connait le SQL / NoSQL ... connait l’environnement et les différentes technologies de DB sur le cloud AWS … peut nous apporter son expertise technique pour challenger des projets structurants ... est en mesure de nous accompagner dans le développement Infra As Code de nos solutions (Terraform, Ansible, Python) • SQL/noSQL • AWS • InfraAsCode (Python / Terraform / Git) • Architecture applicative • Connaissance en production • Bonne capacité à travailler en équipe • Force de proposition • Capacité de coordination • Autonomie Compétences clés : Obligatoire : Python, Terraform, AWS, Aurora PostgreSQL, Mongodb, Gitlab, Connaissance production.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5710 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois