Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 589 résultats.
Mission freelance
Ingénieur Logiciel IA Agentique
Publiée le
API
CI/CD
Cloud
1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Contexte : Dans le cadre d’un programme d’innovation autour de l’ intelligence artificielle agentique , nous recherchons un Ingénieur Logiciel IA Agentique pour concevoir, développer et industrialiser des agents d’IA autonomes à grande échelle. La mission s’inscrit dans une démarche de transformation technologique ambitieuse visant à automatiser des processus et à faire émerger de nouvelles capacités métiers grâce aux technologies LLM et aux systèmes d’agents intelligents. Vos missions : Concevoir et déployer des agents IA autonomes de bout en bout, du POC à la mise en production (LangChain, , etc.) Développer des connecteurs métiers (MCP) vers les outils internes (Jira, Confluence, SAP, Oracle, Office365) Concevoir des interfaces web modernes et des APIs performantes Industrialiser une infrastructure multi-cloud (Docker, Kubernetes, CI/CD) pour un usage à grande échelle Optimiser l’orchestration multi-modèles (GCP Vertex AI, AWS Bedrock, Azure OpenAI, Mistral) Contribuer à la R&D sur les nouvelles approches agentiques et à la veille technologique IA Documenter et maintenir les solutions mises en œuvre Compétences techniques requises : Python (niveau production industrielle) JavaScript / TypeScript (interfaces web modernes) Expérience avec LangChain ou framework d’orchestration d’agents IA (projets personnels acceptés) Maîtrise d’un ou plusieurs clouds publics : GCP, AWS, Azure Bonnes connaissances de Docker , CI/CD , et des pratiques DevOps Maîtrise d’un framework JS moderne : React , Vue.js ou Next.js Vision « production-ready », sens du design technique et de la performance Capacité à apprendre rapidement et à s’adapter à un environnement technologique évolutif Compétences appréciées : Traitement de la voix en temps réel (speech-to-text, text-to-speech, conversation vocale) Connaissance des APIs de streaming (OpenAI Realtime API, Anthropic streaming…) Expérience avec WebRTC ou WebSockets pour le streaming audio
Offre d'emploi
Ingénieur DevOps (Shell ou Python/Ansible/OpenStack)
Publiée le
Ansible
CI/CD
Shell
3 ans
40k-60k €
120-550 €
Vincennes, Île-de-France
Télétravail partiel
Intitulé du poste : Ingénieur Automatisation Création d’Images OpenStack Mission : Concevoir, maintenir et automatiser la génération d’images systèmes compatibles OpenStack, en s’appuyant sur des outils standards (Packer, Diskimage-builder, etc.), des scripts customs (Shell, Python), et en intégrant ces processus dans une chaîne CI/CD, afin de garantir des images cohérentes, sécurisées, testées et reproductibles. Responsabilités principales : • Concevoir et maintenir des templates de création d’images Linux (Ubuntu, CentOS, Debian, etc.). • Automatiser les processus de build, test, validation et publication d’images OpenStack via des outils comme : o HashiCorp Packer o OpenStack Diskimage-builder (DIB) o Ansible, Cloud-init o Shell ou Python pour des scripts complémentaires (validation, cleanup, tests) • Intégrer ces workflows dans des pipelines CI/CD robustes et traçables (GitLab CI, Jenkins, etc.). • Implémenter des tests automatisés dans la chaîne CI : o Tests de boot (instance up, SSH, cloud-init) o Tests fonctionnels (paquets, services, accessibilité) o Tests de conformité et sécurité (OpenSCAP, Lynis, hardening) o Tests d’intégration sur environnements OpenStack • Gérer les versions, dépendances, métadonnées et publication dans Glance. • Contribuer à la documentation technique et aux bonnes pratiques. • Être moteur dans l’amélioration continue des processus d’automatisation. Environnement Technique : • Outils de build : Packer, Diskimage-builder, virt-install, QEMU/KVM • Systèmes : Ubuntu, Debian, CentOS • Cloud : OpenStack (Glance, Nova, Horizon, Heat) • CI/CD : GitLab CI • Tests & validation o Boot tests, accessibilité SSH, cloud-init o Testinfra, Goss, Bats, Inspec o Lynis, OpenSCAP pour sécurité • Scripting : Shell (bash), Python (scripts de contrôle, parsing, automatisation) • IaC / Config Management : Ansible, Terraform • Versioning / SCM : Git Livrables attendus : • Templates d’images maintenables, versionnés • Pipelines CI/CD avec étapes de test automatisé • Scripts de validation et de déploiement • Documentation des processus, des tests, des résultats / Reporting Compétences requises : Techniques : • Scripting : Shell (bash) et Python (niveau scripting) • Création et durcissement d’images applicatives • Automatisation via Packer, DIB, Ansible • Mise en place de tests automatisés dans CI/CD • Bonnes pratiques CI/CD (GitLab, artefacts, logs) • Connaissances de l’écosystème OpenStack Transverses : • Capacité à documenter et à produire du code lisible • Sens de la rigueur, de l’automatisation et de la reproductibilité • Collaboration avec équipes Dev, SecOps, Ops • Esprit d’analyse et d’amélioration continue • Autonomie • Bonne capacité de communication Profil recherché : • Bac+3 à Bac+5 en informatique ou équivalent • Expérience de 2 ans minimum dans un rôle DevOps, cloud ou build automation • Certifications appréciées : Linux (LPIC, RHCE), OpenStack, GitLab CI/CD
Mission freelance
Développeur / Data Engineer Observabilité h/f
Publiée le
Azure
DevOps
Grafana
6 mois
400-600 €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre client recherche un Développeur Senior disposant d’une double expertise en développement backend et en ingénierie des données, pour rejoindre son équipe dédiée à l’observabilité. Concevoir, développer et maintenir des services backend (Python, PySpark) et des APIs orientées observabilité Construire et orchestrer des pipelines de données robustes (Airflow, Spark, Python) Garantir la qualité, la sécurité et la gouvernance des flux (tests, lineage, monitoring) Gérer les données via PostgreSQL, ADLS, Blob Storage, ElasticSearch Développer des dashboards et visualisations avancées (Grafana, ELK) Collaborer étroitement avec les équipes produit et développement (Agile/Scrum)
Mission freelance
Software Engineer - Développeur
Publiée le
C/C++
Powershell
Python
24 mois
500-600 €
75002, Paris, Île-de-France
Télétravail partiel
Le groupe recherche un Software Engineer - Cloud technologies (5-7 ans d’expérience, hors alternance). Rôles Développer des composants pour un cadre de développement rapide framework. Intégrer de nouveaux modèles quantitatifs et maintenir les modèles existants dans différents environnements. Améliorer l'ensemble d'outils actuel pour le test et le dépannage des modèles. Optimiser les performances des modèles et l'utilisation de la mémoire. Effectuer des revues de code et de conception. Maintenir et améliorer l'infrastructure CI/CD (GitLab / Jenkins). Compétences clés requises 5 ans d'expérience en programmation orientée objet. 3 ans ou plus d'expérience en développement en C++. Solide expérience de l'environnement Linux et shell scripting. Une expérience du cloud (AWS, Azure) est un plus Programmation Python. Anglais courant
Mission freelance
AI Engineer - Agents internes - scale up
Publiée le
IA Générative
Machine Learning
Python
1 an
650-800 €
Paris, France
Télétravail 100%
Contexte & Enjeux Notre client est un acteur international reconnu du e-commerce B2B et B2C , proposant une suite logicielle innovante qui aide les entreprises à transformer leur activité digitale, optimiser leur performance et accélérer leur croissance durablement. L’équipe Tech & Data conçoit des solutions robustes, sécurisées et évolutives, permettant la création de marketplaces, la gestion intelligente des catalogues et des paiements, ainsi que l’intégration de nouvelles briques IA au service de la performance et de l’expérience utilisateur. Dans le cadre du renforcement de sa stratégie Data & Intelligence Artificielle , l’entreprise recherche un(e) AI Engineer pour intégrer la direction Data et jouer un rôle clé dans l’intégration de l’IA au sein des produits et des processus internes. Le poste est ouvert en CDI ou freelance , en full remote depuis la France ou basé à Paris . Votre rôle En tant qu’ AI Engineer , vous serez au cœur de l’innovation IA de l’entreprise. Vous interviendrez sur la conception, le développement et le déploiement d’agents intelligents visant à automatiser les processus métiers, à améliorer l’efficacité des équipes et à soutenir la création de nouvelles fonctionnalités à forte valeur ajoutée. Vos principales missions : Concevoir et développer des agents IA capables d’automatiser des workflows internes et d’optimiser la performance opérationnelle. Collaborer étroitement avec les équipes tech, produit, data, sales et customer success pour identifier, expérimenter et industrialiser des cas d’usage concrets. Gérer le cycle complet du projet , de la phase de discovery jusqu’au déploiement de MVPs et leurs itérations successives. Développer des frameworks et outils réutilisables afin d’accélérer les développements tout en garantissant la scalabilité et la fiabilité des solutions (évaluation, monitoring, tests, déploiement). Effectuer une veille technologique active sur les approches émergentes (LLMs, RAG, MCP, agents autonomes, frameworks d’orchestration, etc.) et proposer des pistes d’amélioration continues.
Mission freelance
Architecte DATA
Publiée le
Azure Data Factory
PowerBI
Powershell
6 mois
520-590 €
Paris, France
Télétravail partiel
Recherchons un Architecte DATA Tâches à réaliser : Conceptualisation de solutions et réalisation de proof of concept Estimation des efforts, développement, mise en œuvre et déploiement d’applications Développement de code sécurisé, propre, réutilisable et bien documenté (méthode AGILE) Configuration des environnements de développement, test et production (local et cloud) Maintien de la qualité du code, documentation, déploiement en production et transfert de connaissances Compétences demandées Data ingestion: scripting like PowerShell & python Confirmé PowerBI (DAX) Confirmé Knowledge in Azure Cloud Confirmé TALEND Expert ServiceNow customization Avancé Azure Data Factory Confirmé Familiarité avec les solutions d’automatisation d’infrastructure (Ansible, Terraform, etc.) Confirmé Pratique du langage Python, documentation du code, implémentation de tests unitaires et de pipelines d’intégration Confirmé
Offre d'emploi
TECH LEAD DATA ENGINEER AZURE DATABRICKS (H/F)
Publiée le
Databricks
PySpark
Python
50k-55k €
Paris
Télétravail partiel
ACCROCHE SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à l’ingénierie des données, aux flux et aux performances Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur , tu participeras : Les pipelines de données, tu développeras La qualité, la fiabilité et la sécurité des données, tu garantiras L’intégration et la transformation des données, tu automatiseras Les architectures data (batch & temps réel), tu concevras La scalabilité et la performance des traitements, tu optimiseras Les outils de monitoring et de gestion des flux, tu mettras en place Ton équipe projet, tu accompagneras Aux rituels agiles et instances data, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de ans minimum en ingénierie de la donnée ou en développement data Expert(e) en Habile avec les outils AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Offre d'emploi
Cloud DevOps
Publiée le
Ansible
Argo CD
CI/CD
36 mois
40k-45k €
500-550 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de sa transformation digitale, une banque de renom souhaite renforcer ses pratiques DevOps et optimiser la supervision de ses plateformes critiques. La mission vise à améliorer la fiabilité des déploiements, l’observabilité applicative et la performance globale au sein d’un environnement Kubernetes natif, dans un contexte à forts enjeux de sécurité et de disponibilité des services bancaires. Missions Principales : Accompagner et coacher les équipes projets dans la mise en place et l’industrialisation des chaînes CI/CD (GitLab, GitLab-CI/Runner, Artifactory, ArgoCD) dans un environnement Kubernetes ; Analyser la maturité des processus DevOps en place, identifier les points d’amélioration et proposer des évolutions vers davantage d’automatisation et de fluidité ; Mettre en œuvre une stratégie d’observabilité complète à travers Dynatrace pour : Surveiller la performance et la santé des applications bancaires critiques. Créer et maintenir des dashboards dynamiques pour le suivi en temps réel des environnements (pods, services, pipelines CI/CD…) , Automatiser la détection d’incidents et contribuer à la réduction du MTTR (Mean Time To Repair) , Analyser les données de performance pour anticiper les dégradations et fiabiliser les livraisons. Collaborer avec l’infogérant du groupe pour le test, le déploiement et l’amélioration des services fournis. Livrables Techniques : Reporting d'avancement, présentation des solutions/processus ; Rédaction de procédures, Feuille de routes, Template pour accélérer la montée en compétence et l'adoption des équipes ; Jira / Confluence.
Mission freelance
Tech Lead Spark ; Scala; Azure ; Microsoft Fabric, CI/CD; ETL/ELT; Anglais
Publiée le
Apache Spark
Azure
CI/CD
6 mois
600-700 €
Île-de-France, France
Télétravail partiel
Tech Lead Spark ; Azure ; Microsoft Fabric, CI/CD: Contexte : Déployer une Data Factory structurée autour de trois volets : Program Management : pilotage global et coordination. Tech Enablers : mise en place des briques techniques de la plateforme. Data Usecases : livraison de cas d’usage métiers concrets. Objectifs : Livrer 2 à 3 cas d’usage prioritaires. Implémenter une plateforme data moderne, basée sur Microsoft Fabric, intégrée à l’écosystème Azure. Structurer une organisation Séniorité : Senior à très senior (5+ ans d’expérience, rôle de référent technique).
Mission freelance
Data Scientist / Ingénieur IA
Publiée le
Python
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 6 ans et plus Métiers Fonctions : Data Management,Data Scientist Spécialités technologiques : Machine learning, IA generative, NLP Compétences Technologies et Outils Python Soft skills Autonomie MISSIONS Objectifs et Enjeux : Le département de notre client est organisé autour de l'acquisition et de la gestion des données des profils des candidats et du rapprochement avec les offres et a besoin de se renforcer avec un profil d’ingénieur IA. Au sein de l'équipe, vous interviendrez sur un domaine de données stratégiques (fiches de compétences et rapprochement candidats / offres). Vous travaillerez en lien étroit avec l’architecte et les experts data, les métiers de l'emploi et du recrutement, ainsi qu'avec les équipes techniques gérant les systèmes existants Votre rôle sera de concevoir, expérimenter et intégrer des solutions d'IA et d'IA génératives permettant de mieux exploiter les données métiers et d'améliorer les capacités de matching. Vous jouerez un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l'optimisation des performances. Vous devrez allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, vous allez travailler en forte autonomie sur les projets qui vous seront confiés. Cette mission s'inscrit dans une ambition stratégique, au coeur de la transformation data de l'organisation. Activités à réaliser : - Concevoir et mettre en oeuvre des algorithmes de traitement du langage naturel (NLP) et de machine learning pour analyser et rapprocher des objets métiers (exemple : des offres d'emploi, des fiches de compétences). - Développer des pipelines de données pour extraire, préparer et vectoriser les informations (intitulés, codes, compétences, savoir-faire, savoirs, savoir-être.). - Expérimenter et comparer différentes approches de similarité sémantique (embeddings, distances, modèles supervisés). - Mettre en place des algorithmes de classification d’objets métier tels que les fiches afin d’en décliner des matrices d’affinités utiles pour le SDR. - Travailler en intégration avec les briques IA/GenAI déjà présentes en interne (LLMs, bases vectorielles, frameworks IA). - Assurer la qualité, la traçabilité et la robustesse des développements IA (tests, documentation, reproductibilité). - Collaborer avec les équipes métiers pour définir les critères de succès et valider la pertinence des résultats. - Préparer et présenter les résultats des expérimentations lors des phases de POC et de déploiement. Expertise souhaitée A minima 6 ans dans des projets IA/NLP, idéalement dans un contexte de matching, recherche d’information, RH/emploi. Compétences requises : - Expertise en Algorithmique - Expertise en Python - Bonne maitrise des modèles d'IA Générative
Offre d'emploi
Expert Cloud
Publiée le
Ansible
Python
1 an
40k-45k €
400-800 €
Île-de-France, France
Télétravail partiel
Expert Cloud Au sein du groupe "automation lab" vous travaillerez dans le domaine "Support Cloud" pour traiter les tickets et résoudre les problèmes techniques liés aux demandes clients bloquées dans les portails Cloud opéré par l'orchestrateur BPM (IBM Business Automation) et/ou de l'IBM Cloud Automation et AirFlow sur le cloud OnPREM comme sur l'IBM Cloud. Vous collaborerez étroitement avec les équipes pour résoudre les blocages et assurer un suivi efficace des demandes. Vous serez donc amené à travailler avec toute la Factory (Linux, windows, x86, IKS, ...) les équipes data base, ICD, les équipes sécurité, etc afin d'identifier les root cause sur les blocages des demandes. Le support Cloud est en pleine transformation, la rigueur et l'organisation seront un véritable appui pour la réussite de cette mission. Environnement technique Vous travaillerez avec les outils et technologies suivants : • Cloud IBM et orchestrateur (Terraform, Schematics) • Ansible • Python • Toolchain, Gitlab • Linux Red Hat, Virtualization VMware ESX, TCP/IP, TLS/SSL, ICMP, LDAP, Virtual Directory, IKS, Kubernetes • Service, SFTP, SMTP, SSH, X509, PKI, OpenSSL, GPG/PGP, Java, HTML/CSS, MySQL • SFM • SCCM Mission et Responsabilités • Suivi des demandes du portail Cloud : IBM Cloud (Cloud dédié) • Traitement des Incidents Clients - Accompagnement Client sur le suivi des incidents. • Suivi des blocages des demandes via l'orchestrateur; savoir les expliquer, les corréler aux différentes incidents. savoir les analyser , les catégoriser et les dispatcher aux bonnes équipes pour les résoudre et travailler de façon conjointe avec IBM (ouvrir des cases à IBM, les challenger, ....). • Documentation des anomalies rencontrées; documenter les Mode OP. Connaissance BPM (orchestrateur IBM Cloud) (IBM Business Automation). Connaissance environnement Cloud
Mission freelance
Pilote de projet Data / Product Owner Data (H/F)
Publiée le
Amazon S3
KPI
Pilotage
36 mois
350-460 €
Mer, Centre-Val de Loire
Télétravail partiel
Dans le cadre du développement de ses activités Data, un centre technique basé à Mer (Loir-et-Cher) . Projet mené en agilité qui vise à faciliter l’accès aux données pour les utilisateurs métier du client. Le rôle du prestataire sera celui de Product Owner sur le produit « Data » : gestion du Back Log, relation étroite avec le Scrum Master, l’équipe des DEV du service Modélisation des données, les équipes IT, les métiers Mise en place de solutions IA, finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure Client, mise en place d’un SI Décisionnel RH, autres projets à ouvrir en 2026 Piloter les projets sur ses aspects : - Organisationnels : planning, comitologie, suivi budgétaire, suivi de recette - Techniques : cartographie réseau, flux, analyse de risque, etc. - Relationnels : avec les équipes Infra, avec les équipes IT du client (Architectes, Réseau, RSI, etc.), Métiers, CISO, etc. - Maîtrise des risques : implique une grande rigueur dans le suivi des actions, des plannings, des budgets
Offre d'emploi
Expert Sécurité Cloud spécialisé en Identity and Access Management (IAM) H/F
Publiée le
AWS Cloud
CI/CD
Google Cloud Platform (GCP)
36 mois
50k-65k €
530-600 €
Paris, France
Télétravail partiel
Nous recherchons un expert Sécurité Cloud spécialisé en Identity and Access Management (IAM) pour intervenir sur un projet stratégique à l’échelle internationale. Intégré à une équipe d’experts sécurité, vous serez chargé d’auditer les configurations IAM existantes sur les environnements GCP, Azure et AWS, d’identifier les vulnérabilités, et de concevoir une stratégie IAM robuste et conforme aux standards de sécurité du groupe. Vous participerez à la mise en œuvre de contrôles via des outils tels que AWS SCP et GCP Deny Policy, tout en accompagnant les équipes projets dans la compréhension et l’adoption des bonnes pratiques IAM.
Mission freelance
Data Engineer Fabric .Net
Publiée le
.NET
Databricks
Python
8 mois
500-520 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Fabric .Net , pour le compte de l'un de ses clients qui opère dans le domaine de l'Energie. Description 🧩 Contexte de la mission Intégré(e) à la squad Data Platform, vous interviendrez sur des projets stratégiques de modernisation et d’industrialisation de la plateforme Data du groupe. Votre rôle consistera à concevoir, maintenir et sécuriser l’infrastructure data et cloud, tout en accompagnant les équipes Data et DevOps dans leurs déploiements et pratiques CI/CD. Vous serez au cœur des sujets Terraform, Databricks, AWS, Python et MS Fabric, en interaction directe avec les Data Engineers, Data Architects et Data Officers. 🎯 Objectifs et livrables Participer à la réalisation du workplan et aux user stories du backlog. Automatiser les déploiements d’infrastructure via Terraform et GitHub Actions. Maintenir et améliorer le pipeline CI/CD (Terraform, Docker, AWS, MS Fabric). Contribuer au monitoring et à l’exploitation de la Data Platform. Développer des microservices en Python ou .NET (C#). Participer aux activités de Build et de RUN, incluant le support et les mises en production. Améliorer la résilience, la qualité et la sécurité du code (“shift-left”). Proposer des optimisations FinOps et d’observabilité (Grafana, App Insights). Maintenir la documentation technique et les bonnes pratiques DevOps/DataOps.
Mission freelance
POT8649 - Concepteur / Développeur Sénior Python / Java / Kafka / AWS sur Saint Denis
Publiée le
Python
6 mois
270-430 €
Saint-Denis, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Concepteur / Développeur Sénior Python / Java / Kafka / AWS sur Saint Denis. Contexte : Les compétences portent la vision technique de l’application. Le Consultant travaillera en étroite collaboration avec les contributeurs de l’application : le RMOE, Le Tech Lead AWS, la RSIA, le RMOA et les AMOA, l’intégrateur, Conduites Techniques et Fonctionnelles, architectes techniques, la cyber et équipes transverses sur les sujets techniques. Pendant la phase d’intégration, le consultant prendra connaissance du contexte fonctionnel et de l’environnement technique. Pour se faire, il pourra s’appuyer des documents qui sont, entre autres : Les Spécifications techniques (PTI, DEX, PAS…) Le Dossier d’architecture technique Schéma des composants AWS Modèle de données (DynamoDB) Documents de migration PKI et décommissionnement des HSM en cours… Les normes d’exploitation et de cybersécurité Les audits… Activités : Ci-dessous la synthèse des rôles que recouvrent la mission : Appuis du RMOE et Tech Lead sur l’architecture de l’application au travers de connaissances : Dans les différents domaines techniques de l’application : Java, Python, Base de données (DynamoDB) Des mécanismes de sécurité des échanges informatiques et de cryptographie (gestion des certificats, gestion des clés de chiffrement, TLS, EJBCA, Cloud HSM) De connaissance du milieu des réseaux & Telecom (VPN, gestion des VIP, MPLS, fonctionnement du TCP-IP) Sur AWS (lambdas, Terraform, EC2, SQS, S3, Cloudwatch…) EJBCA Développement et maintenance de l’outil (résolution d’anomalies). Déploiement des versions applicatives Recette Technique sur les environnements bas Réaliser les installations ou migrations et garantir le run des lots techniques. Gestion du processus d’Intégration Surveillance de la bonne exécution de l’applicatif sur les environnements bas Traitement et suivi des incidents hors production et en production Exploitation de la base de données Rattrapage et rechargement de données Elles apportent leur expertise dans le cadre d’améliorer la qualité de service et pendant de la gestion des incidents et crises. Chiffrage des évolutions techniques et fonctionnelles et favoriser la solution la plus simple. analyser les performances de l’application et apporter des solutions ou préconisations d’optimisations. Participer et alimenter de façon active les ateliers techniques nécessaires (Daily, COPROJ technique, COMOP PKI, ateliers avec DPO, Cyber, et sur le décommissionnement de l’IoTEvent et IoTAnalytics ) Suivi et participer de façon active à mise en place d’une supervision sur AWS (des logs, alertes, suivi des couts...) Créer, prioriser et suivre les tickets techniques sur JIRA, Documenter les processus, Mise à jour des procédures techniques d’installation (PTI), d’exploitation (PTE), de bascule lors de migrations (PTB) ainsi que les procédures de reprise lors des PRA (PTR), DEX, DAL, PTE... Participer aux instances techniques Ces activités seront assurées : Dans le respect du Schéma Directeur et du Plan de Transformation SI. En assurant la conformité des livrables aux politiques et standards. En respectant les exigences de niveaux de services, de performance. Dans une optique d’amélioration continue.
Offre d'emploi
Expert Systèmes Unix & Stockage
Publiée le
Ansible
KVM (Kernel-based Virtual Machine)
Python
3 ans
35k-45k €
350-400 €
Bouches-du-Rhône, France
Télétravail partiel
Dans le cadre du renforcement d’un vaste programme de transformation technologique, nous recherchons un expert Systèmes Unix & Stockage pour intervenir sur l’optimisation, la fiabilité et la montée en performance d’un socle technique stratégique. Vous participerez à la modernisation des infrastructures en assurant la continuité et la résilience des environnements critiques. Le poste requiert une solide expertise sur les systèmes Linux et AIX, la virtualisation et le stockage hautes performances. Vous intégrerez une équipe infrastructure exigeante, dans un contexte où la rigueur, l’autonomie et la maîtrise technique sont essentielles pour garantir la stabilité et l’évolutivité des plateformes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
589 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois