L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 139 résultats.
Offre d'emploi
Ingénieur système confirmé H/F
Publiée le
Infrastructure
6 mois
50k-55k €
Rouen, Normandie
Télétravail partiel
Ingénieur Système Senior H/F (CDI/CDD) Localisation : Rouen (76) Mode de travail : Hybride Date de démarrage : Immédiate Fourchette de salaire : Entre 50 et 55k€ L’ IT chez ARTEMYS combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . 👍 Alors, vous nous rejoignez ?! Nous recrutons dès à présent un.e Ingénieur(e) Système. Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions auprès d’un client grand compte situé du côté de Rouen auprès duquel vous aurez la possibilité de : Administration et exploitation : Assurer le suivi, la maintenance et l’exploitation des environnements Windows Server. Administrer et maintenir les domaines Active Directory (AD et intra-AD). Gérer et optimiser les environnements VMware et les solutions de sauvegarde Veeam. Administrer les infrastructures de stockage (SAN, NAS) et veiller à leur performance. Participer à la gestion et la supervision des réseaux (switches, firewalls, VLAN, routage). Expertise et support : Assurer le support niveau 3 sur les incidents systèmes et infrastructures. Maintenir à jour les référentiels techniques et documentations. Participer à la diffusion des bonnes pratiques et à la montée en compétence des équipes. Cloud et modernisation : Participer au déploiement et à l’administration des services Azure. Contribuer à la mise en place de solutions hybrides et à la migration d’applications ou de services vers le cloud. Étudier et expérimenter des architectures basées sur les micro-services Réaliser des POC et des études de marché pour identifier des solutions alternatives aux architectures existantes. Le poste s’inscrivant dans un contexte international, un niveau d’anglais B2 minimum est requis. 🎮 Votre terrain de jeu : Windows Server (2016 / 2019 / 2022) Active Directory / Intra-AD VMware vSphere / ESXi Veeam Backup & Replication Stockage : SAN, NAS Réseaux : switches, firewalls, VLAN, routage, NAT, VPN Microsoft Azure Microservices Vous êtes intéressé.e ? Top ! Voici ce qui vous attend : · Un premier échange RH pour faire connaissance ☎️ · Un entretien technique avec votre futur manager 🦸♂️ · Une proposition salariale 💰 Sans oublier les petits plus 🎁 · Carte SWILE (Tickets Restaurant et CE), · Télétravail, · Prime vacances, Participation Groupe et Epargne Salariale, · Primes de cooptation et de certification, · Accompagnement RH, suivi managérial de proximité et suivi technique, · Des possibilités d’évolution, · Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs Alors, ça vous tente ? C’est parti ! Bienvenue dans l’aventure ARTEMYS 🎬 Artemys Normandie est une entreprise handi-accueillante attachée à la mixité et à la diversité des profils recrutés.
Mission freelance
Consultant Cybersécurité – Gestion des vulnérabilités & incidents (H/F)
Publiée le
AWS Cloud
Cortex XSOAR
ISO 27001
12 mois
550-800 €
Hauts-de-Seine, France
Contexte de la mission Dans le cadre du renforcement du dispositif de sécurité d’une DSI BtoC , nous recherchons un Consultant Cybersécurité opérationnelle pour intégrer le pôle Operational Cybersecurity . La mission s’inscrit dans un environnement exposé, à forts enjeux de disponibilité, de conformité et de gestion des risques, avec des contraintes réglementaires fortes ( RGPD, NIS2, ISO 27001 ). Vos missions Identifier et analyser les vulnérabilités via des scans réguliers Évaluer l’impact des failles sur les environnements applicatifs, réseau et cloud (AWS / Azure) Prioriser les vulnérabilités et suivre les plans de remédiation Piloter la mise en œuvre des correctifs de sécurité Participer aux audits techniques et tests d’intrusion Gérer les incidents et crises cyber : analyse, recommandations, coordination des équipes Produire le reporting sécurité (KPI/KRI, tableaux de bord, rapports réguliers) Contribuer à l’amélioration continue des processus cyber Garantir l’alignement avec les politiques et référentiels de sécurité ( ISO 27001, NIST, ANSSI, EBIOS RM ) Compétences obligatoires Cybersécurité opérationnelle : minimum 5 ans d’expérience Gestion des vulnérabilités : confirmée (3 à 5 ans) Gestion des incidents de sécurité : confirmée (3 à 5 ans) Sécurité des environnements cloud AWS (confirmé) Maîtrise des outils de scans et de protection : Nessus / Tenable , Bitsight Prisma (CSPM / CWP / CAS) Crowdstrike , Veracode Solide compréhension des référentiels ISO 27001, NIST, ANSSI Capacité d’analyse, de synthèse et de priorisation Très bon niveau de communication , y compris en situation de crise Français courant , anglais technique requis Compétences appréciées Solutions de gestion des incidents : Cortex XSOAR, Jira ou équivalent Participation à des audits techniques / pentests Maîtrise des fondamentaux cyber : chiffrement, durcissement, PKI Certifications : CISSP, CEH, ISO 27005, AWS Security Specialty Expérience en environnement BtoC ou fortement exposé
Offre d'emploi
Ingénieur Cloud/DevOps H/F
Publiée le
46k-60k €
75001, Paris, Île-de-France
Ingénieur Cloud/DevOps H/F - Paris Experis recherche des Ingénieurs Cloud/DevOps (H/F) pour différents clients grands comptes en Île-de-France. Vos missions: Participer à la conception, la mise en œuvre et la gestion des infrastructures Cloud (AWS ou Azure) Automatiser le déploiement et la configuration des environnements via Ansible/Terraform Administrer et orchestrer des clusters Kubernetes (EKS, AKS…) Implémenter les CI/CD (GitLab CI, Azure DevOps, Jenkins…) Assurer la fiabilité, la sécurité et la scalabilité des plateformes Cloud Collaborer avec les équipes de développement, sécurité et réseau
Mission freelance
Intégrateur de solutions cybersécurité – SOC Log Integrator & Parsing Engineer
Publiée le
Apache Kafka
AWS Cloud
Azure
1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Nous recherchons un SOC Log Integrator & Parsing Engineer pour rejoindre une équipe Cybersécurité au sein du Security Operations Center (SOC) . Vous serez responsable de l’ensemble du processus de collecte, parsing et normalisation des logs à travers des environnements cloud et on-premise , en support des opérations SOC 24/7. Rattaché(e) au Build Team Lead , vous collaborerez étroitement avec les équipes Cybersécurité, IT et métiers afin de garantir des mécanismes de défense robustes, scalables et automatisés . Responsabilités Concevoir, implémenter et maintenir des pipelines complets de collecte et parsing de logs Gérer et optimiser les systèmes d’ingestion et de transfert de logs (Fluentd, Kafka, etc.) Développer des parsers avancés pour normaliser les données selon des schémas spécifiques Assurer la qualité, fiabilité et standardisation des logs sur l’ensemble des systèmes Intégrer de nouvelles sources de logs en coordination avec les équipes Réseau, Applicatives et SOC Développer et maintenir les règles de parsing, de normalisation et d’enrichissement pour ingestion dans les SIEM (Elastic, Splunk, Sentinel, etc.) Implémenter des pipelines CI/CD pour l’automatisation du déploiement des configurations Appliquer les pratiques DevSecOps pour sécuriser et fiabiliser les processus d’ingestion Créer des mécanismes de supervision continue du pipeline d’ingestion Contribuer à l’amélioration continue de l’observabilité et des capacités de détection du SOC Documenter l’ensemble des workflows, parsers et composants d’intégration
Mission freelance
Ingénieur expert Active Directory/ Windows Server / Powershell / Anglais opérationnel (H/F)
Publiée le
Active Directory
Administration Windows
Powershell
6 mois
450-540 €
Paris, France
Télétravail partiel
Nous recherchons pour le compte de notre client dans le luxe, un ingénieur système expert Windows et Active Dircetory Contexte : En tant qu'expert windows Active Directory, vous allez dans le cadre d'un projet de migration SI. •Migration : o Suivi des tâches lors de la migration (chronogramme) o Création et migration de BDD des applications métiers (Retail, TMA, Manufacturing, BI) o Installation et configuration de serveurs SQL 2016/2019/2022 o Actions techniques : mise à jour des enregistrements DNS internes, gestion des droits AD o Support post-migration (surveillance des flux réseau et suivi de la supervision des serveurs) • Documentation : o DAT/DEX o Documents d'installation o Mise à jour des schémas d'architecture o Guide utilisateur Run : • Administrer la production informatique et le maintien en condition opérationnelle des systèmes Windows et des applications • Pilotage des partenaires d'infogérances et d'éditeurs de solutions Environnement Technique : • MS Azure, GCP, Windows Server 2012, 2016, 2019 et 2022, Ubuntu 20.04, Oracle, Linux 7.9, MS SQL Server 2016 et 2019, Azure Site Recovery, Azure SQL, Azure Entra, AD 2016 et 2019, PowerShell 5.1, Wallix, Akamai, Panorama, Centreon, Datadog, suite Atlassian (JIRA et Confluence), Service Now.
Offre d'emploi
SRE – Migration Cloud & MCO (H/F)
Publiée le
Cloud
Datadog
DevOps
3 ans
40k-70k €
500-700 €
Lille, Hauts-de-France
Pour notre client dans le secteur des services informatiques, spécialisé dans les infrastructures critiques, le cloud et les services managés, nous recherchons un SRE senior pour accompagner une migration d’envergure ainsi que la mise en place du MCO et de l’observabilité. Contexte de la mission : Dans le cadre d’un programme stratégique de migration de l’infrastructure actuelle VMware → Microsoft Azure (AVS) , le consultant SRE accompagnera la transition, sécurisera les environnements et mettra en place une observabilité avancée. Le périmètre inclut l’industrialisation du MCO pour environ 335 VMs , ainsi que la mise en œuvre d’un PRA simplifié . Responsabilités principales : 1. Migration & Architecture Participer à la migration des workloads VMware vers Azure / AVS. Contribuer à la définition et la sécurisation des patterns de migration. Garantir la cohérence et la performance des environnements Windows/Linux post-migration. 2. Mise en place et optimisation du MCO Structurer et industrialiser les processus de MCO sur le parc (335 VMs). Définir des standards d’exploitation robustes et automatisés. Proposer et implémenter des améliorations continues selon le mindset SRE. 3. Observabilité & Monitoring Profil recherché très solide sur l’observabilité. Construire et optimiser dashboards, alertes, métriques et logs via : Datadog , Grafana , Azure Monitor , outils non natifs Azure, etc. Améliorer la visibilité applicative, infrastructure et réseau. Définir SLO/SLI et KPIs de santé des services. Standardiser et industrialiser la stack observabilité. 4. Automatisation & Infrastructure as Code Industrialiser les déploiements via : Terraform , Puppet , GitHub (Actions, Repos). Participer à la mise en œuvre et au maintien du PRA via Zerto / Veeam. Mettre en place des pipelines robustes pour la continuité opérationnelle. 5. Fiabilité & Performance Identifier proactivement risques et points faibles. Améliorer la résilience, la stabilité et les performances globales. Réduire les incidents et le MTTR via bonnes pratiques SRE. Environnement technique OS / Infra : Windows Server, Linux (RHEL/Ubuntu), VMware Cloud : Azure, Azure VMware Solution (AVS) PRA / Backup : Zerto, Veeam IaC / Automatisation : Terraform, Puppet, GitHub Observabilité : Datadog, Grafana, Azure Monitor, outils non natifs AZR Autres : Git, GitHub, approche DevOps (un plus)
Offre d'emploi
ARCHITECTE CLOUD STOCKAGE (NetApp)
Publiée le
Ansible
AWS Cloud
Azure
3 ans
Puteaux, Île-de-France
Nous recherchons pour notre client un architecte cloud stockage pour une mission longue Concevoir, industrialiser et piloter des architectures de stockage hybrides et multi-cloud basées sur les solutions NetApp (ON-PREM & Cloud) , en assurant performance, résilience, sécurité et optimisation des coûts pour des charges de travail critiques. Responsabilités principales • Architecture & Design o Définir les HLD/LLD pour Azure, AWS et Private Cloud VMware, intégrés aux solutions NetApp (Azure NetApp Files, FSx for NetApp ONTAP, Cloud Volumes ONTAP, ONTAP on-prem). o Modéliser les patterns : NAS (NFS/SMB), sauvegarde et archivage, multirégion/DR. o Dimensionner la capacité, la perf (IOPS/latence/throughput), et établir RPO/RTO, SLA/SLO. o Dimensionner la consolidation des données (SnapMirror/SVM-DR, XCP, BlueXP Copy & Sync). o Définir les HLD/LLD de l’observabilité (Active IQ Unified Manager, NetApp DII), capacity planning et QoS. • Sécurité & Conformité o Intégrer IAM/AAD/IAM AWS, chiffrement at-rest/in-flight, antivirus, durcissement, traçabilité. o Contribuer aux audits (ISO 27001, NIS2, DORA, etc.) et à la gestion des risques. • Optimisation & FinOps o Gouverner les coûts: tiering (FabricPool vers Blob/S3), classes de stockage, réservations/commitments. o Standards, catalogues de services, modèles Terraform réutilisables, guardrails. Environnement technique • NetApp: ONTAP 9.x, Cloud Volumes ONTAP, Azure NetApp Files, Amazon FSx for NetApp ONTAP, SnapMirror/SnapVault, SnapCenter, FlexVol/FlexGroup, FlexClone, FabricPool, QoS, SVM-DR, NDMP, NFSv3/v4.1, SMB 3.x, iSCSI/MPIO. • Azure: VNet/ExpressRoute, Cloud Volumes ONTAP, ANF, Managed Disks, Storage Accounts, Key Vault, Azure VMs. • AWS: VPC/Direct Connect, FSx ONTAP, KMS. • Automatisation: Terraform, Ansible (collections NetApp). • Réseau: DNS/AD, LDAP/Kerberos, SMB signing, NFS sec, routage & pare-feu. Compétences requises • 5–8 ans d’expérience en architecture stockage dont ≥3 ans sur NetApp ONTAP (cloud & on-prem). • Maîtrise d’au moins deux environnements parmi Azure, AWS, VMware, et des patterns hybrides. • Pratique avancée des migrations (SnapMirror, XCP) et de la résilience (DRP, tests de bascule). • Solides bases en sécurité (chiffrement, IAM, clés gérées, durcissement) et réseau (NFS/SMB/iSCSI). • Connaissance en Scripting/Infra as Code (Terraform/Ansible) et automatisation d’opérations. Soft skills • Leadership technique, pédagogie, sens du service. • Capacité à formaliser (HLD/LLD, DAT, runbooks) et à défendre des choix d’architecture. • Esprit FinOps: compromis coût/perf/risque, mesure & itération. Certifications appréciées (plus) • NetApp: NCDA, NCIE, NCSA (Cloud). • Azure/AWS: AZ-104/305/700, AWS SAA/SAP. • VMware: VCP-DCV, VCP-CMA. • Sécurité: AZ-500, Security Specialty. Livrables attendus • Dossiers d’architecture (HLD/LLD), matrice RACI, DAT, schémas, plans de migration & de tests DR. • Dossiers d’exploitation (sauvegarde, restauration, PRA/PCA) et rapports de performance.
Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)
Publiée le
AWS Cloud
Azure
CI/CD
1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
Offre d'emploi
Infrastructure Engineer Expert – File Transfer
Publiée le
Scripting
18 mois
10k-40k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Infrastructure Engineer Spécialités technologiques : Infrastructure, Virtualisation, Reporting, Managed File Transfer, MFT Compétences Technologies et Outils TCP/IP Apache Tomcat AWS Linux VMware SFTP Azure Axway Synchrony Python Windows http PowerShell ServiceNow Méthodes / Normes ITSM ITIL KPI Description et livrables de la prestation La prestation consiste à assurer l’expertise, l’exploitation et l’évolution des plateformes de transferts de fichiers managés (MFT) dans un environnement critique du secteur bancaire & assurantiel. Le prestataire garantit la disponibilité, la sécurité et la performance des flux inter-applicatifs, tout en accompagnant les équipes internes dans la mise en œuvre, la résolution d’incidents complexes, l’automatisation et l’amélioration continue. La mission inclut également la participation aux projets d’intégration, aux montées de versions et à la modernisation des solutions. LIVRABLES 1. Exploitation & Support Suivi et supervision des plateformes MFT Résolution d’incidents N2/N3 et analyses RCA Reporting d’activité et KPI 2. Techniques & Automatisation Scripts d’automatisation Documentation technique (procédures, configurations, runbooks) 3. Projets & Intégration Spécifications techniques Dossiers d’implémentation et de mise en production 4. Qualité & Conformité Mise à jour des procédures ITIL / sécurité Respect des standards internes 5. Transfert de Compétences Sessions de knowledge transfer Supports de formation Expertise souhaitée Maîtrise confirmée des plateformes Managed File Transfer (MFT), notamment Axway Synchrony (Gateway, Integrator, PassPort, Sentinel, CFT, Secure Transport). Compétences avancées sur Stonebranch Universal Agent (UAC, UDM, UEM, UCMD). Excellente connaissance des protocoles de transfert : SFTP, PeSIT. Solides compétences système sur environnements Linux et Windows. Connaissance des serveurs applicatifs : Apache Tomcat, Apache HTTP. Bon niveau en scripting (Shell, PowerShell, Python…). Maîtrise des concepts réseau (TCP/IP), virtualisation (VMware) et Cloud (Azure/AWS). Expérience de l’environnement ITIL et des outils ITSM (ServiceNow). Capacité à résoudre des incidents complexes, sécuriser des flux critiques et industrialiser des processus. Expérience en contexte international et environnement à fortes contraintes opérationnelles.
Offre d'emploi
DevOps Infrastructure – Spécialisation Agentic AI & LLM (H/F)
Publiée le
AI
Ansible
AWS Cloud
3 ans
61k-67k €
530-640 €
Île-de-France, France
Télétravail partiel
Nous recrutons un profil DevOps expérimenté pour intervenir sur des environnements innovants autour des agents autonomes (Agentic AI) et des modèles de langage (LLM). Vous participerez à la conception, au déploiement et à l’expérimentation de POC avancés visant à améliorer la supervision, l’automatisation et la résolution proactive d’incidents au sein d’infrastructures complexes. Le poste s’inscrit dans une démarche agile, collaborative et orientée industrialisation. Missions Concevoir et gérer des environnements d’expérimentation Kubernetes/Docker, intégrés à des pipelines CI/CD (Jenkins, GitLab CI, ArgoCD). Automatiser la collecte, la préparation et l’exploitation de datasets d’infrastructure (logs, CMDB, monitoring) pour alimenter des agents IA basés sur LLM. Développer et intégrer des pipelines de déploiement d’agents IA (LangChain, AutoGen, équivalents). Mettre en place des scripts/tools d’automatisation (Python, Bash, Go) pour l’orchestration et le monitoring. Garantir la sécurité des développements et déploiements (DevSecOps, SAST/DAST, gestion des accès, RGPD). Produire la documentation technique et les livrables nécessaires à une future industrialisation. Assurer une veille active sur les évolutions LLM, architectures agentiques et outils d’automatisation. Compétences techniques requises Systèmes & Réseau Maîtrise avancée Linux/Unix Solides bases réseaux (TCP/IP, HTTP, DNS, VPN) Cloud & IaC AWS, Azure ou GCP Terraform, Pulumi ou CloudFormation Conteneurisation & Orchestration Docker, Kubernetes, Helm CI/CD Jenkins, GitLab CI, ArgoCD Automation / Config Management Ansible, Puppet, Chef Langages Python (niveau avancé) Bash, Go (appréciés) Monitoring & Logging Prometheus, Grafana, ELK Stack Sécurité / DevSecOps SAST/DAST (SonarQube, Snyk, Aqua Security) Conformité RGPD
Mission freelance
[LFR] DBA post gre SQL, Expérimenté à Paris - 1104
Publiée le
10 mois
450-590 €
Paris, France
Contexte Pour accroître sa compétitivité et poursuivre son développement dans les meilleures conditions, l’entreprise investit de manière importante dans son système d’information, notamment dans son infrastructure qui est considérée comme clé dans la transformation vers le digital et l’agilité nécessaire à son développement. Objet de la prestation La prestation se fera au sein des Database Administrators du département Infrastructure. Les administrateurs de bases de données ont pour principales activités d’assurer l’architecture, le build et le maintien en condition opérationnelle des bases de données. Ils accompagnent les équipes de développement et d’infrastructure dans l’optimisation, la mise à niveau et la résilience des environnements de leur périmètre. Au-delà de son rôle de DBA, il travaille en collaboration avec les autres équipes « Transversal Governance & Production Excellence » sur le build des projets et services et pour le suivi de certains services. Dans le cadre d’un remplacement et d’un contexte cloud first (Azure/AWS), les DBA ont besoin de renfort afin de travailler sur le design des solutions on-premises et cloud. La prestation se fera donc au sein de l’équipe DBA avec une priorité sur l’accompagnement des projets des équipes de développement. Il devra, après une période d’adaptation, participer aux astreintes. Il aura un rôle de contact privilégié avec les équipes basées en Belgique et devra prévoir des déplacements réguliers sur Bruxelles. Responsabilités : · Travailler en environnement de haute disponibilité · Travailler sur des environnements virtuels · Travailler dans un environnement hybride Microsoft OnPrem / Cloud Azure / Cloud AWS · Gérer les demandes standard et non standard des équipes de support aux applications et des développeurs concernant les nouveaux besoins ou l'évolution des composants de base de données. · S’intégrer aux process agiles des équipes de développement de son périmètre. · Travailler en étroite collaboration avec les équipes infrastructure pour comprendre et appliquer les processus et normes · Être impliqué dans l'étude concernant l'avenir des actifs infra. · Contribuer à la transformation de l'infrastructure informatique chez l'entreprise, qui consiste à mettre en place des solutions pour tirer parti des opportunités offertes par les nouvelles technologies (cloud, infrastructure sous forme de code, développement). · Définir les composants et l'architecture d'infrastructure appropriés à mettre en œuvre dans le cadre de projets d'entreprise. Conseillez et suggérez des solutions innovantes, le cas échéant. Les points clés auquel le candidat doit répondre à minima · Référent PostgreSQL · Administration N3 des environnements PostgreSQL (IaaS & PaaS : Azure PostgreSQL Flexible Server) · Définition et mise en œuvre de standards d’exploitation : sécurité, reloads, supervision, PRA · Automatisation des déploiements et des opérations via Ansible, Git, scripting · Intégration avec les outils Azure : Bicep, Log Analytics, Azure Monitor · Participation à la mise en place de dashboards techniques (Grafana) · Contribution au support, à la documentation, et à la démarche DevOps DBA · Expérience sur du réseau Azure ? 4 ans · Expérience sur du réseau AWS ? 2 ans · Astreinte 1 semaine/2 ou 3 · Niveau d'anglais B2 minimum obligatoire · Télétravail : tous les lundi et mardi, un vendredi sur 2 · Certification Azure DP300 Microsoft Certified: Azure Database Administrator Associate Profil recherché : · Expérience solide en tant que DBA PostgreSQL en environnement de production · Maîtrise des outils d’automatisation (Ansible, Git, scripts Shell ou Python) · Expérience avec PostgreSQL sur Azure (Flexible Server, PaaS, supervision Azure Monitor) · Esprit DevOps, rigueur dans l’automatisation et la documentation · Environnement technique moderne (cloud Azure, infra as code, supervision centralisée), équipe solide et projets à fort impact Les principales activités sont : · Étudier des solutions techniques pour améliorer ou mettre en place des services d'infrastructures · Comparez plusieurs scénarios et faires des recommandations · Rédiger des documentations techniques (documents de conception HLD et LLD) · Contribuer à la construction des solutions d'infrastructure · Conseiller, proposer et valider l'infrastructure à instancier dans les projets métiers · Déployer les infrastructures proposées avec les Delivery Center applicatifs · Transmettre les besoins des Delivery Center Applicatifs aux experts des périmètres concernés Compétences techniques : 1. PostgreSQL : Maîtrise de l’installation, configuration, mise à jour et sécurisation de PostgreSQL Séniorité : Avancé | Obligatoire : Oui 2. PostgreSQL : Optimisation des performances (analyse des plans d’exécution, tuning des requêtes, indexation) Séniorité : Avancé | Obligatoire : Oui 3. PostgreSQL : Sauvegarde et restauration (pg_dump, pg_basebackup, pgbackrest, etc.) Séniorité : Avancé | Obligatoire : Oui 4. PostgreSQL : Gestion des extensions (PostGIS, pg_stat_statements, etc.) Séniorité : Avancé | Obligatoire : Oui 5. Scripting (Bash, Python, PowerShell) pour automatiser les tâches Séniorité : Avancé | Obligatoire : Oui 6. Connaissance des systèmes Linux/Unix (Red Hat, Debian, etc.) Séniorité : Avancé | Obligatoire : Oui 7. Surveillance avec des outils comme Zabbix, Prometheus, Grafana, ou OEM Séniorité : Avancé | Obligatoire : Oui 8. Sécurité des bases de données (gestion des rôles, audit, chiffrement) Séniorité : Avancé | Obligatoire : Oui 9. Expérience avec les environnements cloud (AWS RDS, Azure Database) Séniorité : Avancé | Obligatoire : Oui 10. Azure databases PaaS services Séniorité : Avancé | Obligatoire : Oui 11. AWS databases PaaS services Séniorité : Avancé | Obligatoire : Non 12. Microsoft Certified: Azure Database Administrator Associate Séniorité : Oui | Obligatoire : Oui Type de projet (support / maintenance / implementation /…) : Deploiement d’infra Type de prestation (Client / Hybrid / Remote) : Hybrid (2,5J TT) Les astreintes (HNO, etc.) : oui La possibilité de renouvellement (oui/non) : Oui
Mission freelance
Ingénieur / Spécialiste IT Operations (H/F)
Publiée le
Administration linux
Ansible
Cloud
36 mois
400-450 €
Paris, France
Télétravail partiel
Votre Rôle et l'Environnement En tant qu'Ingénieur/Spécialiste IT Operations, vous serez un pilier central de l'équipe technique, garantissant la stabilité, la performance et la sécurité de l'infrastructure informatique. Vous travaillerez dans un environnement dynamique et international, nécessitant une maîtrise professionnelle de l'anglais pour interagir avec des équipes, des fournisseurs et des documentations techniques à l'échelle mondiale. Missions Principales (Key Responsibilities) Gestion et Maintenance (Operations & Maintenance): Assurer le maintien en condition opérationnelle (MCO) des systèmes (serveurs, réseaux, stockage, virtualisation) dans un environnement on-premise et Cloud (AWS, Azure, Google Cloud) . Surveiller l'infrastructure 24/7 (ou pendant les heures d'ouverture) à l'aide d'outils de monitoring (Nagios,Prometheus,Grafana, etc.) et répondre aux alertes. Gérer les sauvegardes (backup) et les plans de reprise d'activité (DRP - Disaster Recovery Plan). Support et Résolution d'Incidents (Incident & Problem Management): Diagnostiquer et résoudre rapidement les incidents techniques de niveau 2 et 3. Documenter les résolutions et participer à l'analyse des causes profondes (Root Cause Analysis - RCA) pour prévenir les récurrences. Projets et Amélioration Continue (Projects & Improvement): Participer à l'installation, la configuration et la mise à niveau de nouvelles infrastructures et applications. Contribuer à l'automatisation des tâches récurrentes (scriptingShell,Python,PowerShell) et à l'approche Infrastructure as Code (IaC) . Mettre en œuvre les politiques de sécurité (patching, gestion des accès, pare-feu). Communication et Documentation (Communication & Documentation): Rédiger la documentation technique (procédures, schémas) en anglais. Interagir quotidiennement en anglais avec les équipes internationales et les fournisseurs.
Mission freelance
DevOps Infrastructure Engineer (H/F)
Publiée le
36 mois
350-450 €
Valence, Auvergne-Rhône-Alpes
Je recherche actuellement pour mon client un.e DevOps Infrastructure Engineer (H/F) L'équipe de mon client supporte les outils et l'infrastructure des équipes de développement (embarqué et serveurs) dans leur mise en place de chaines de CI/CD sur une « stack » applicative commune. L'équipe est constituée de 6 collaborateurs sur deux sites (Suresnes et Valence dans la Drôme). Cette intégration continue est constituée de la « stack » suivante : Jira pour le suivi des tickets ; BitBucket comme gestionnaire de dépôts Git et solution de « code review » ; Jenkins pour l'intégration continue ; Artifactory pour les dépôts d'artefacts ; XRay (plugin Jira) pour les tests ; SonarQube/Blackduck pour le SAST et le SCA. La configuration de ces applications (création d'espaces, gestion des permissions, etc.) est réalisée à l'aide d'un outil interne de « self-service » basé sur les concepts GitOps. L'équipe Software Factory Infrastructure est une équipe IT dédiée, en charge de déployer et maintenir cette solution applicative et son infrastructure. Description L'objectif de la mission est de renforcer l'équipe sur les actions courantes qui sont les suivantes : La gestion du cycle de vie des solutions La documentation et le référencement de chaque changement dans les outils Participer au développement continu de la plateforme de Monitoring (PRTG). Contribuer à notre dynamique d'Infrastructure as a Code via Ansible Automation Platform. Participer à l'automatisation des tâches récurrentes. Assurer la MCO de l'ensemble des services (applications et infrastructure). Contribuer aux divers espaces documentaires. Monter en compétence sur les diverses applications afin de pouvoir accompagner fonctionnellement nos utilisateurs. Environnement technique Infrastructure : VMWare, Ansible, Kubernetes, Ubuntu, Fortigate, VMware Advanced Network Load Balancer, Zerto, PostgreSQL, … IT Tooling : ELK, PRTG, Crowd, Landscape, Kibana, … Applications : Bitbucket, Jira, Confluence, Jenkins, Sonarqube, Artifactory, Blackduck Compétences requises Maitrise des concepts DevOps et GitOps Maitrise de l'administration de système Linux Ubuntu Maitrise des environnements de virtualisation (VMWare & Azure) Maitrise des outils d' « Infrastructure as a Code » (Ansible, Terraform) Maitrise du réseau (Fortinet), Load Balancing, VLAN Expérience avérée en mise en œuvre et gestion d'outils de containerisation (K8S) Connaissance des outils de gestion de log (ELK) et de Monitoring (PRTG) Connaissance en base de données (PostgreSQL) Capacité de planifier et mettre en œuvre Capacité à comprendre et analyser avant d'agir Capacité à prendre en charge le support de ses solutions Connaissance de Git et Jenkins Connaissance d'au moins un langage de programmation (Python) Anglais courant à l'oral et à l'écrit Savoir parler chinois (mandarin) est un plus
Offre d'emploi
ARCHITECTE CLOUD STOCKAGE (NetApp)
Publiée le
Ansible
AWS Cloud
Azure
3 ans
Puteaux, Île-de-France
Télétravail partiel
Nous recherchons pour notre client un architecte cloud stockage pour une mission longue Concevoir, industrialiser et piloter des architectures de stockage hybrides et multi-cloud basées sur les solutions NetApp (ON-PREM & Cloud) , en assurant performance, résilience, sécurité et optimisation des coûts pour des charges de travail critiques. Responsabilités principales • Architecture & Design o Définir les HLD/LLD pour Azure, AWS et Private Cloud VMware, intégrés aux solutions NetApp (Azure NetApp Files, FSx for NetApp ONTAP, Cloud Volumes ONTAP, ONTAP on-prem). o Modéliser les patterns : NAS (NFS/SMB), sauvegarde et archivage, multirégion/DR. o Dimensionner la capacité, la perf (IOPS/latence/throughput), et établir RPO/RTO, SLA/SLO. o Dimensionner la consolidation des données (SnapMirror/SVM-DR, XCP, BlueXP Copy & Sync). o Définir les HLD/LLD de l’observabilité (Active IQ Unified Manager, NetApp DII), capacity planning et QoS. • Sécurité & Conformité o Intégrer IAM/AAD/IAM AWS, chiffrement at-rest/in-flight, antivirus, durcissement, traçabilité. o Contribuer aux audits (ISO 27001, NIS2, DORA, etc.) et à la gestion des risques. • Optimisation & FinOps o Gouverner les coûts: tiering (FabricPool vers Blob/S3), classes de stockage, réservations/commitments. o Standards, catalogues de services, modèles Terraform réutilisables, guardrails. Environnement technique • NetApp: ONTAP 9.x, Cloud Volumes ONTAP, Azure NetApp Files, Amazon FSx for NetApp ONTAP, SnapMirror/SnapVault, SnapCenter, FlexVol/FlexGroup, FlexClone, FabricPool, QoS, SVM-DR, NDMP, NFSv3/v4.1, SMB 3.x, iSCSI/MPIO. • Azure: VNet/ExpressRoute, Cloud Volumes ONTAP, ANF, Managed Disks, Storage Accounts, Key Vault, Azure VMs. • AWS: VPC/Direct Connect, FSx ONTAP, KMS. • Automatisation: Terraform, Ansible (collections NetApp). • Réseau: DNS/AD, LDAP/Kerberos, SMB signing, NFS sec, routage & pare-feu. Compétences requises • 5–8 ans d’expérience en architecture stockage dont ≥3 ans sur NetApp ONTAP (cloud & on-prem). • Maîtrise d’au moins deux environnements parmi Azure, AWS, VMware, et des patterns hybrides. • Pratique avancée des migrations (SnapMirror, XCP) et de la résilience (DRP, tests de bascule). • Solides bases en sécurité (chiffrement, IAM, clés gérées, durcissement) et réseau (NFS/SMB/iSCSI). • Connaissance en Scripting/Infra as Code (Terraform/Ansible) et automatisation d’opérations. Soft skills • Leadership technique, pédagogie, sens du service. • Capacité à formaliser (HLD/LLD, DAT, runbooks) et à défendre des choix d’architecture. • Esprit FinOps: compromis coût/perf/risque, mesure & itération. Certifications appréciées (plus) • NetApp: NCDA, NCIE, NCSA (Cloud). • Azure/AWS: AZ-104/305/700, AWS SAA/SAP. • VMware: VCP-DCV, VCP-CMA. • Sécurité: AZ-500, Security Specialty. Livrables attendus • Dossiers d’architecture (HLD/LLD), matrice RACI, DAT, schémas, plans de migration & de tests DR. • Dossiers d’exploitation (sauvegarde, restauration, PRA/PCA) et rapports de performance.
Offre d'emploi
Administrateur support & infra F/H
Publiée le
25k-35k €
Nantes, Pays de la Loire
Administrateur support & infra F/H - Nantes 📢 Offre d'emploi : Administrateur Support & Infrastructure F/H Type de contrat : CDI ou Freelance Localisation : Nantes 🔍 Contexte de la mission Dans le cadre d'un projet stratégique de transformation et de structuration IT, nous recherchons un Administrateur Support & Infra (F/H) capable d'intervenir sur des sujets variés allant du support utilisateur à la gestion d'environnements virtualisés. Vous intégrerez une équipe technique engagée, avec une forte autonomie et un vrai rôle de proposition. 🎯 Vos missions Support utilisateur & gestion IT quotidienne : Accueil des nouveaux collaborateurs (création comptes AD, attribution matériel) Gestion des stocks et récupération du matériel Suivi des demandes via outils ITSM (GLPI, Redmine) Infrastructure & virtualisation : Mise en place d'environnements virtualisés (Azure ou infrastructure interne) Déploiement de masters, configuration des postes Pilotage du réseau informatique et accompagnement à l'ouverture de nouvelles agences Optimisation & structuration : Paramétrage et gestion des environnements techniques Amélioration continue des process IT Force de proposition sur les outils, méthodes et organisation
Mission freelance
Lead MLOps Python - Spécialiste IA/RAG
Publiée le
IA
MLOps
Python
3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
139 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois