L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 725 résultats.
Offre d'emploi
Consultant Confirmé en Data gouvernance Collibra
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Paris, France
Contexte de la mission : Dans le cadre du déploiement et de l’industrialisation de notre démarche de gouvernance des données, nous recherchons un consultant expert technique Collibra. La mission s’inscrit dans un programme structurant visant à renforcer le catalogage des données et la traçabilité (data lineage). Le consultant intégrera l’équipe Data en lien direct avec les architectes de la DSI qui ont une vision sur l’ensemble de la chaîne de valeur de la donnée, de l’acquisition à la restitution. Tâches à réaliser : · L’operating model de Collibra et la capacité à modifier les settings sur sa partie OOTB ou custom (asset type, attributs, relations…) selon un scope puis mesurer les impacts sur l’existant DEV/PROD et le déployer en PROD · L’asset model du Data Product · Les rôles et permissions (globale, ressources, …) · Les fonctionnalités de migration import/export (par ex. pour les vues) · Le paramétrage des vues de diagramme · Savoir lancer et interpréter les résultats des connecteurs EDGE (technologies Datalake Azure/AWS, Databricks unity) et technical lineage (Databricks, Power BI) · Savoir manipuler les assets en masse (modification d’attributs, déplacements, suppressions), si besoin par import/export · Connaitre les fonctionnalités liées à Edge pour le sampling, profiling, data notebook · Scripting / APIs / Workflow · Trouver et savoir tester les APIs Collibra du portail développeur · Savoir comprendre et modifier un workflow existant (script : Groovy), le rendre paramétrable, le versionner si besoin et déployer DEV/PROD · Scripter des validations rules sur les assets Livrables attendus · Expressions de besoins et documents de cadrage · Workflows Collibra configurés · Catalogues de données alimentés · Lineage modélisé et documenté · Toute l’implémentation est en langue EN, éventuelle doc. technique succincte à réaliser sur les actions menées Compétences recherchées : Obligatoires : Maîtrise avancée de Collibra (Catalog, Lineage, Workflows) Solide expérience en Data Gouvernance et Data Management Bonnes connaissances des environnements Azure/ AWS / Databricks / Power BI /API/ BDD Expérience nécessaire : 5 années minimum Langues : Anglais et français
Offre d'emploi
Consultant Data (H/F)
HOXTON PARTNERS
Publiée le
Qlik
Snowflake
Talend
4 mois
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un programme de structuration et d’optimisation des flux de données au sein d’un environnement international, nous recherchons un Consultant Data technico-fonctionnel confirmé afin d’accompagner les équipes dans la fiabilisation et l’exploitation des données. Missions Concevoir et maintenir les flux d’acquisition et de transformation de données Développer et optimiser les traitements ETL sous Talend Studio Structurer et exploiter les données au sein de l’environnement Snowflake Contribuer à la restitution et au pilotage des indicateurs via la BI Qlik Collaborer avec les équipes techniques et métiers pour assurer la cohérence des modèles de données
Mission freelance
Développeur fullstack Java Angular Cloud AWS (H/F)
Insitoo Freelances
Publiée le
Angular
AWS Cloud
Java
2 ans
400-520 €
Lyon, Auvergne-Rhône-Alpes
Projet : FONCTIONNEMENT : 2 JOURS SUR SITE NON CONSECUTIFS - 3 JOURS TELETRAVAIL Les missions attendues par le Développeur fullstack Java Angular Cloud AWS (H/F) : Descriptif de la mission : Projet : Intégré à une équipe Produit, le développeur conçoit, développe et déploie les applications métiers. En plus de faire évoluer l'application, il participe à la surveillance de son bon fonctionnement en production et corrige les problèmes identifiés. Descriptif de la mission : - Participe à l'ensemble des activités de développement logiciel au sein de son équipe(conception, dev, tests, déploiement). - Participe aux différents ateliers de conception et cérémonies agiles. - Applique les meilleures pratiques de développement pour un code propre et maintenable (TDD, BDD, DDD, Pair programming...). - Participe activement à la relecture du code des autres développeurs de l'équipe. - En fonction du niveau d'expertise, accompagne des développeurs plus juniors. - Force de proposition dans la résolution des problèmes, l'amélioration de la qualité du code et l'atteinte des indicateurs Accelerate.
Offre d'emploi
MOA Business Data Analyst F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Big Data
JIRA
Kanban
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Reporting Réglementaire (SQL/Alteryx) Recette & Data
STHREE SAS pour HUXLEY
Publiée le
6 mois
France
Contexte & objectifs Au sein d'une équipe projet Finance & Risques rattachée à la Direction Architecture & Reporting , vous intervenez sur des travaux de recette et de qualité des données pour des reportings réglementaires d'un groupe bancaire de premier plan. L'objectif : sécuriser la production réglementaire, fiabiliser les flux de données et déployer de nouveaux contrôles de second niveau. Missions principales 1) Déclinaison d'une nouvelle guidance BIDS au format MBDT Organiser la recette (stratégie, jeux d'essais, critères d'acceptation). Exécuter les campagnes de tests en interaction avec les métiers. Réaliser l' analyse de qualité des données avec les communautés concernées et leurs DSI. Suivre les anomalies (qualification, priorisation, plan de remédiation). Animer des ateliers de restitution et produire les synthèses de recette . 2) Recette des dispositifs réglementaires au sein de la squad "Usages" Conduire les TNR et évolutions liées aux nouvelles versions des backbones de données (sourcing des reportings réglementaires). Valider les tirs de certification dynamique dans le cadre d'un projet de mutualisation du SI (tests d'intégration bout‑en‑bout, traçabilité, conformité). Livrables attendus Stratégie et cahiers de recette , cas de tests, jeux de données, PV de validation. Dossiers de contrôle (fiches de contrôle, flowcharts de production, notes de synthèse). Tableaux de bord d'anomalies et plans d'actions. Compte‑rendus d'ateliers et rapports de synthèse pour les parties prenantes. Profil recherché 7 à 9 ans d'expérience en data/recette dans un environnement bancaire/assurance . Maîtrise de SQL et Alteryx ; à l'aise avec des volumétries importantes et la traçabilité de bout en bout. Solide culture fonctionnelle bancaire et reporting réglementaire (ex. AnaCredit, RCH, VDS, SRB‑MREL ). Connaissance des dispositifs de contrôle 1er/2nd niveaux et des meilleures pratiques de qualité de données . Rigueur, autonomie, sens du service et capacité d'animation (ateliers, restitutions, coordination multi‑équipes).
Offre d'emploi
Ingénieur DevOps spécialisé en CI/CD et APIM (Kong)
bdevit
Publiée le
Ansible
CI/CD
GitLab CI
36 mois
Île-de-France, France
Contexte : Dans le cadre du renforcement des équipes DevOps, nous recherchons un Ingénieur DevOps spécialisé en CI/CD, et API Management , avec une expertise privilégiée sur KONG , afin d’accompagner l’industrialisation des déploiements applicatifs conteneurisés et la gestion sécurisée des APIs. Missions Principales : Conception, mise en place et optimisation de pipelines CI/CD ; Automatisation des déploiements d’applications conteneurisées sur Kubernetes ; Administration et évolution des clusters Kubernetes (Ingress, RBAC, Secrets…) ; Mise en œuvre et administration de la solution KONG (gateway, plugins, sécurité, exposition des APIs) ; Intégration de KONG dans les chaînes CI/CD ; Mise en œuvre de stratégies de déploiement avancées (Rolling Update, Canary, Blue/Green) ; Participation au MCO des plateformes CI/CD, APIM et environnements Kubernetes.
Mission freelance
Architecte pour plateform GenAI H/F
Insitoo Freelances
Publiée le
Architecture
IA Générative
Kubernetes
2 ans
500-800 €
Île-de-France, France
Nous recherchons un profil Architecte GenAI pour une mission de Senior AI Platform Architect (rôle important et technique, pas un chef de projet). La mission s’inscrit dans un programme stratégique mondial visant l’industrialisation et le passage à l’échelle d’une plateforme de Générative IA (GenAI) destinée à plus de 80 000 utilisateurs dans 65 pays. En synthèse C’est une mission de haut niveau visant à transformer une plateforme GenAI existante en un produit industriel, robuste, sécurisé et scalable, avec un fort enjeu de gouvernance, de standardisation et de transfert de compétences au sein du CCOE Data & AI. Le rôle est central, transverse et structurant, à la frontière entre : architecture technique, industrialisation produit, gouvernance, accompagnement des équipes internes. Contexte et objectifs Une plateforme GenAI et un modèle cœur sont déjà déployés sur plusieurs environnements onpremise, zones sécurisées et restreintes. L’architecture existe mais nécessite : o stabilisation, o durcissement (robustesse, sécurité), o productisation pour permettre des déploiements reproductibles et maintenables. Objectif principal de la mission Faire évoluer l’existant vers une plateforme GenAI industrialisée, considérée comme un produit Responsabilités principales Analyse approfondie de l’existant ( infrastructure, pipelines CI/CD, composants, dépendances, processus de déploiement. Définition d’une architecture cible modulaire, portable et industrialisée. Mise en place d’un système de packaging et de déploiement reproductible Gestion du versioning et de la traçabilité de tous les composants : Garantie de la portabilité et maintenabilité dans des contextes contraints Support technique et montée en compétence des équipes Revue des designs techniques, configurations et pipelines. Production et maintien de la documentation : Définition de standards d’ingénierie Respect des exigences internes de sécurité et de protection des données. Participation aux architecture boards et à la roadmap technique. Veille active sur les technologies GenAI et LLMOps : Identification d’opportunités de simplification, amélioration de la scalabilité, optimisation des coûts. Pilotage de proofs of concept sur de nouveaux patterns de déploiement.
Offre d'emploi
Consultant Data – Analyst
VISIAN
Publiée le
Microsoft Excel
Microsoft Power BI
MySQL
1 an
40k-45k €
140-440 €
Lille, Hauts-de-France
Descriptif du poste Nous recherchons 1 Consultant Data – Analyst expérimenté pour accélérer la transformation data au sein du département Marketing Client. Il jouera un rôle clé dans l'étude de la connaissance client, et dans la propagation de celle-ci au sein de l'entreprise. Pour ce faire, il devra à la fois être doté d'une forte appétence métier, du bagage méthodologique et technologique adéquat. Missions Analyser le portefeuille clients (segmentation, comportements, valeur, churn, fidélisation) Concevoir et piloter des études ad hoc à visée stratégique Produire des tableaux de bord, indicateurs clés et analyses décisionnelles Identifier des opportunités de croissance, d'optimisation et de ciblage Formuler des recommandations actionnables aux équipes métiers et à la direction Garantir la qualité, la fiabilité et la cohérence des données utilisées
Mission freelance
Chef de Projet Observabilité & IA (H/F)
CAT-AMANIA
Publiée le
Dynatrace
3 mois
400-550 €
Montpellier, Occitanie
Chef de Projet Observabilité & IA (H/F) Nous accompagnons un acteur majeur du secteur de l'assurance dans la modernisation de son infrastructure et l'optimisation de sa performance opérationnelle. Dans le cadre d'un programme d'envergure, nous recherchons un Chef de Projet Senior pour piloter les initiatives stratégiques liées à l' Observabilité et à l' Intelligence Artificielle appliquée au Run . 📋 Le Contexte Rejoignez une Direction des Systèmes d’Information d'envergure (25 000 utilisateurs) au sein d'une division dédiée à l'Exploitation du SI. L'objectif est de transformer la gestion des incidents en passant d'un mode réactif à une approche prédictive et proactive, en s'appuyant notamment sur Dynatrace SaaS et l'IA pour la corrélation de données. 🎯 Vos Objectifs & Missions En totale autonomie, vous structurez et orchestrez les chantiers critiques de la division Exploitation : Pilotage de Projets Stratégiques : Déploiement de l'Observabilité, intégration de l'IA pour le diagnostic et gestion des certificats de sécurité. Coordination Produit : Suivi des évolutions Dynatrace SaaS (SLO/SLI, RUM, segmentation, alerting). Gouvernance & Animation : Animation des COPIL et instances de pilotage, priorisation des travaux et alignement des parties prenantes. Gestion Transverse : Coordination multi-équipes (SRE, Dev, Sécurité, Architectes, Experts Dynatrace). Suivi Opérationnel : Reporting précis, suivi budgétaire et accompagnement au changement sur les nouvelles pratiques IA/Observabilité. 🛠 Profil Recherché Nous recherchons un profil hybride, capable de comprendre les enjeux techniques tout en maîtrisant parfaitement les méthodologies de gestion de projet. CompétenceNiveau AttenduGestion de projet & BudgetConfirmé (Maîtrise du delivery et des coûts) Méthodologies AgilesConfirméObservabilité / Dynatrace Notions solides (compréhension des enjeux de monitoring) Intelligence Artificielle Sensibilité aux usages IA appliqués au Run IT
Offre d'emploi
Data Analyst (F/H)
CELAD
Publiée le
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Collaborer étroitement avec le Business / PO / BA afin d’identifier et transcrire les besoins métiers en KPI (Valoriser les données / aider à la décision en menant des analyses d’indicateurs et des restitutions visuelles) Analyse exploratoire de données en vu d'aide à la décision Business : calcul, production, explication d'indicateurs/KPI bancaire Production de Data Viz en réponse à besoin métier de pilotage d'activités bancaire.
Offre d'emploi
Data Analyst (F/H)
CELAD
Publiée le
40k-49k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Collaborer étroitement avec le Business / PO / BA afin d’identifier et transcrire les besoins métiers en KPI (Valoriser les données / aider à la décision en menant des analyses d’indicateurs et des restitutions visuelles) Analyse exploratoire de données en vu d'aide à la décision Business : calcul, production, explication d'indicateurs/KPI bancaire Production de Data Viz en réponse à besoin métier de pilotage d'activités bancaire.
Offre d'emploi
EXPERT Snowflake
EMMA-IT
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Snowflake
1 an
Île-de-France, France
Bonjour, Nous recherchons un Lead Data Platform EXPERT Snowflake, pour intervenir chez l’un de nos clients « grand compte » DESCRIPTIF DE LA MISSION ; •Accompagner les équipes métiers dans leurs travaux d’identification et expression de leurs besoins en données et d'indicateurs décisionnels, •Capacité à concevoir des solutions innovantes et fiables nécessitant l’utilisation de technologies dites "Modern DataOps" et IA agentique pour répondre aux nouveaux cas d’usages métiers exprimés et à gérer les projets Data de bout en bout, •Piloter l'équipe de Data Engineers pour assurer la mise en oeuvre •Développer, tester, optimiser et gouverner les flux de traitement et d’ingestion de données au sein de notre Data Platform, •Avoir la capacité de créer rapidement de nouveaux Datamarts de zéro s'appuyant sur notre socle de données existant pour des usages spécifiques, •Contribuer à la mise à disposition et au partage de la donnée au travers d’outils et de processus d'export simples, rapides à mettre en œuvre et monitorables, •Déployer et optimiser au quotidien des pipelines de données (On Premise ou dans le Cloud), •Assurer la stabilité et la gouvernance technique de la plateforme Data, des applications déployées et de certaines de nos plateformes SaaS de données attenantes. Environnement technique utilisé: Snowflake, dbt Core, Linux, Cloud AWS (AWS EC2, AWS S3, AWS Serverless), Cloud CGP (Big Query, GA4), SQL, Python, Airflow, Docker, Terraform, Git, Gitlab & Gitlab CI VOUS JUSTIFIEZ DE ; · Vous êtes titulaire d’un Bac +5 en informatique, avec au minimum 7 ans d'expérience professionnelle · Vous avez de 3 à 5 ans d'expérience sur la plateforme SaaS Snowflake · Vous êtes à l'aise avec le Cloud public AWS et GCP, ses principaux services et ses méthodes de déploiements · Vous possédez des compétences avancées autour des langages et technologies suivants : SQL, Python, Airflow, Prefect, Linux, Docker, Snowflake Cortex et Snowflake Intelligence · Vous connaissez au moins un framework de développement de Web Services REST (Django, Flask, FastAPI pour Python ou éventuellement Express pour NodeJS) et l'outil Postman n'a pas de secrets pour vous · Vous connaissez bien les outils de visualisation de données (Tableau Cloud ou PowerBI) · Vous avez une bonne maîtrise de l’optimisation des déploiements et des processus d'intégration/déploiements continus (CI/CD) via des technologies du marché (comme Docker, Gitlab CI, Jenkins ou équivalent) · Vous détenez des connaissances autour des processus de gestion de la configuration et d'Infrastructure as Code (Terraform, Pulumi, Cloud Formation ou CDK AWS) et des outils d’orchestration de flux de données (comme Airflow ou Prefect) · Vous êtes à l'aise avec les outils de type agents CLI (Claude Code, Codex CLI ou OpenCode) et leur méthodologie de spécifications associée pour développer et déployer des applications autour de la data pilotées en autonomie par l'IA. · Vous connaissez bien les outils Jira et Confluence LES PLUS ; · Toute connaissance du business Retail/Fashion est un plus · Toute connaissance ou compétence sur la mise en place de projets IA agentiques de type RAG ou "Text to SQL" est un plus · Toute connaissance des outils/plateformes BW/4HANA, SAP Analytics Cloud ou PowerBI est un plus · Toute connaissance des outils d'observabilité (comme Sifflet) ou d'agrégation de données de campagnes media (Supermetrics) est un plus · Toute connaissance du déploiement et de l'orchestration de containers avec Kubernetes est un plus Si cette mission correspond à vos attentes et que votre profil correspond à ce besoin, N’hésitez pas à nous adresser votre date de disponibilité, votre CV au format Word et vos prétentions financières par ce biais. Dans l’attente d’un futur échange et d’une future collaboration, L’équipe EMMA-IT.
Offre d'emploi
Ingénieur DevOps / Expert Technique Cloud
VISIAN
Publiée le
Ansible
Terraform
1 an
40k-45k €
400-700 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation technique pour une installation/migration/support/automatisation sur nos applications Phase d'étude Accompagnement et orientation des différents intervenants (CDP, l'architecture et la sécurité) en apportant son expertise sur les technologies utilisées, comprendre les résultats de scan de sécurité sur les diverses vulnérabilités. Contribuer/Comprendre un schéma d'architecture afin d'être force de proposition. Notions de Sécurité: scan Xray, Sysdig, Tanium Connaissance des diverses techno: Nginx, Drupal PHP, Apache Tomcat, Java. Phase d'implémentation Contribution à la mise en œuvre du projet technique sur les environnements de production et non production. Réalisation des tests et validation des environnements avant de donner la main aux Etudes. Mise en place Pipeline CI/CD via les toolschains du groupe. Agile/Organiser car plusieurs projets à gérer en même temps. Gestion des espaces Devops avec les CI/CD, GitLabCI, Digital AI, Jenkins, ArgosCD, IBM CLOUD (PaaS/IaaS), Kubernetes (pods, déploiements, cronjob, etc...), Openshift, CHART HELM, Docker, HVAULT (pour les gestion des secrets, certificats, authentification). Notion databases en mode asservice (PostgreSQL, Oracle, SQL Server et MongoDB).
Mission freelance
Consultante(e) IA / AI Builder (E-commerce) H/F
LeHibou
Publiée le
Agent IA
Large Language Model (LLM)
3 mois
400-550 €
Toulouse, Occitanie
Notre client dans le secteur Retail recherche un/une Consultant(e) IA / AI Builder (E-commerce) H/F Description de la mission : 🏢 Contexte Notre partenaire, acteur national dans le domaine du e-commerce : ~20 collaborateurs 70 000 visiteurs/mois Présence sur une dizaine de marketplaces Stack actuelle : PrestaShop / Odoo / Shippingbo La direction souhaite ne pas rater le virage IA et intégrer l’intelligence artificielle de manière concrète, pragmatique et génératrice de valeur. La maturité IA des équipes est aujourd’hui faible : la mission inclut donc une forte dimension pédagogique et structurante. 🎯 Objectifs de la mission Le freelance interviendra en tant que référent IA transverse avec une approche à la fois stratégique et hands-on. 1️⃣ Amélioration de l’expérience client Optimisation et génération de contenus produits (SEO + conversion) Personnalisation des parcours utilisateurs Optimisation du tunnel d’achat Recommandation produits via ML Automatisation du support client 2️⃣ Mise en place d’un chatbot intelligent (agentique) Chatbot interne et externe basé sur ses données propres Connexion aux bases produits / SAV / ERP Assistance support et aide à la vente Capacité d’orchestration multi-sources (site + marketplaces) 3️⃣ Centralisation et automatisation du support Centralisation des tickets issus du site et des 10 marketplaces Priorisation et catégorisation automatique (NLP) Suggestions de réponses automatisées Réduction du temps de traitement 4️⃣ Automatisation & Machine Learning Identification des tâches chronophages Automatisation de workflows Exploitation des données business (ventes, stock, saisonnalité) Prédictions simples (demande, retours, SAV, etc.) 5️⃣ Growth & Performance Use cases IA orientés acquisition Optimisation SEA / SEO / contenu Analyse data marketing Approche growth hacking outillée par l’IA
Mission freelance
Ingénieur réseaux - Junior
Sapiens Group
Publiée le
Administration réseaux
Agent IA
Fibre optique
1 an
560-650 €
Paris, France
Contexte Recherche d’un administrateur réseaux . Un profil junior passionné, disposant de 3 à 7 ans d’expérience maximum . Le poste est basé à Montparnasse avec une durée de contrat de 1 an renouvelable . Le démarrage est prévu ASAP . Missions Câblage réseau : connaissances en câbles Ethernet (Cat5e, Cat6, Cat6a, Cat7) et fibre optique. Installation d’équipements : serveurs, switchs, routeurs, racks, panneaux de brassage (patch panels). Configuration basique : compréhension de la connectivité réseau pour assurer la bonne liaison des équipements. Tests et diagnostics : utilisation de testeurs de câbles, vérification de la continuité, des débits et de la qualité du signal. Respect des normes et standards : connaissance des standards TIA/EIA, ISO/IEC pour les réseaux et le câblage structuré. Lecture de plans et schémas : interprétation des plans de câblage et de la topologie réseau. Gestion de l’espace : installation correcte des équipements dans les racks, optimisation de la circulation d’air et de l’accès. Documentation : mise à jour des schémas, inventaire des câbles et des équipements. Gestion des accès : respect des règles de sécurité physique des data centers. Précision et rigueur : éviter les erreurs de câblage pouvant impacter l’infrastructure entière. Intérêt pour l’IA : MCP et LLM, utilisation de Claude Agentic pour la génération de code dans un contexte réseau. L’objectif est de s’intéresser à ces nouvelles technologies et de développer ses compétences pendant la mission.
Offre d'emploi
Storage DevOps
Codezys
Publiée le
autonomie
Azure
CI/CD
6 mois
Paris, France
Dans le cadre de son nouveau programme de transformation cloud, l’organisation a décidé avec ses entités de moderniser l’ensemble des infrastructures encore hébergées dans les datacenters régionaux, afin de prendre en charge des charges de travail non éligibles au Cloud Public. Objectifs et livrables 1. Gestion des pipelines CI/CD : Conception et mise en œuvre : Créer et maintenir des pipelines CI/CD pour automatiser la construction, les tests et le déploiement des partages de stockage. Optimisation : Améliorer en continu l’efficacité et la fiabilité des pipelines. 2. Infrastructure as Code (IaC) : Automation : Utiliser des outils tels que Terraform ou CloudFormation pour gérer l'infrastructure par le biais de code. Scalabilité : Assurer une montée en charge efficace de l’infrastructure pour répondre à la demande. 3. Monitoring et journalisation : Mise en place : Déployer des outils de surveillance pour suivre la performance des systèmes. Analyse : Analyser les logs afin d’identifier et de résoudre proactivement les problèmes. 4. Sécurité : Meilleures pratiques : Intégrer des mesures de sécurité et des vérifications de conformité dans les pipelines CI/CD. Gestion des incidents : Élaborer et maintenir des plans de réponse aux incidents. 5. Collaboration : Équipes transverses : Collaborer étroitement avec les équipes de développement, assurance qualité et opérations pour assurer un flux de travail fluide. Communication : Faciliter la communication entre les équipes afin de résoudre rapidement les problématiques. Documentation : Rédiger des plans de tests, des procédures et des documents de transfert pour permettre l’automatisation et assurer la transmission des connaissances aux experts et à l’équipe Q&A. Compétences et expériences requises Connaissance des systèmes de stockage est un plus. Une certification Cloud DevOps est un avantage. Maîtrise des plateformes cloud telles qu'AWS ou Azure, indispensable. Expérience confirmée en environnement IT (gestion d’incidents, rotation 24/7, organisation matinale, assurance qualité). Compétences en scripting et automatisation avec Python, Ansible, Terraform. Expérience avec Docker appréciée. Documentation : Maintenir une documentation claire et complète, comprenant procédures, processus, supports de formation et plans de test.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5725 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois