L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 202 résultats.
Offre d'emploi
Database Engineer (H/F)
WINSIDE Technology
Publiée le
Amazon Redshift
Ansible
Azure
1 an
38k-43k €
370-400 €
Lille, Hauts-de-France
Contexte Le/La Database Engineer est garant de la performance, de la disponibilité et de l'intégrité des systèmes de gestion de bases de données de l’entreprise. Il/elle conçoit, déploie et maintient des architectures de données robustes, scalables et automatisées pour supporter les applications et l'exploitation des données métiers. En lien direct avec les équipes de l’IT, les Data Architects et les équipes de développement, il/elle participe activement à l’optimisation des requêtes, à la sécurisation des données, à la gestion du cycle de vie des bases et à la veille technologique sur les solutions de stockage. Missions Administration & Opérations Implémenter, configurer et maintenir les solutions de bases de données (SQL, NoSQL, Cloud-native). Assurer la haute disponibilité, les stratégies de sauvegarde et les plans de reprise d'activité (PCA/PRA). Contribuer au déploiement de standards de configuration conformes aux pratiques DevOps et à l'approche "Database as Code" Performance & Optimisation Surveiller les performances des bases de données via des outils de monitoring. Analyser et optimiser les requêtes complexes, l'indexation et le partitionnement des données. Proposer et mettre en oeuvre des mesures de tuning pour garantir des temps de réponse optimaux. Sécurité & Gouvernance des Données Administrer les politiques d'accès aux données et le chiffrement (Cloud & On-Premise). Automatiser la gestion des schémas et les processus de rafraîchissement d'environnements. S’assurer de la conformité des plateformes aux exigences RGPD et aux politiques de sécurité internes. Profil recherché Maîtrise des concepts de bases de données : modélisation (Merise, UML), SQL avancé, NoSQL, réplication, sharding, et intégration des changements de base de données dans les pipelines CI/CD. Expérience avec des outils et moteurs tels que : PostgreSQL, Oracle, Opensearch, Redis, Snowflake. Bonne compréhension des environnements hybrides (On-Prem / Cloud : AWS RDS, Azure SQL, Aiven). Connaissance des standards de gestion de données et de sécurité (Audit, chiffrement au repos et en transit). Pratique de l'automatisation (Terraform, Ansible, scripts shell). Connaissance d’au moins un langage de programmation courant (Python, Go, ou Java) pour le tooling DB. Bon niveau en administration Linux et Windows Server orientée performance (I/O, RAM, CPU). Compétences professionnelles : Être orienté vers l’amélioration continue, toujours à la recherche de nouvelles solutions pour optimiser les performances. Faire preuve d’autonomie et avoir une volonté constante de s'améliorer. Avoir un état d’esprit positif, axé sur la résolution de problèmes en proposant des solutions durables. Être en capacité de travailler sous pression (gestion d'incidents de production) tout en respectant les délais. Posséder une aisance en anglais, tant à l’écrit qu’à l’oral.
Offre d'emploi
Ingénieur DevOps – Nantes (H/F)
AUBAY
Publiée le
DevOps
Java
Python
40k-50k €
44000, Nantes, Pays de la Loire
Tu veux rejoindre un projet d’envergure ? Tu aimes travailler au croisement du développement, du cloud et de la production ? Aubay Solutec Grand Ouest cherche un(e) Ingénieur DevOps / Intégration Applicative pour accompagner la transformation digitale d’un client grand compte. Notre ADN : 🔹 Expertise 🔹 Innovation 🔹 Collaboration 🔹 Engagement 🔹 Éthique 🎯 Ta mission : garantir la fiabilité, la performance et l’exploitabilité de solutions critiques. Intégré(e) à une squad Agile, tu joueras un rôle clé sur l’ensemble du cycle de vie applicatif, de la conception au run, en intervenant sur des infrastructures Cloud Native. Tes responsabilités : Prendre en charge des projets de bout en bout : études, conception, automatisation, déploiement et suivi post-mise en production. Concevoir, déployer et maintenir des architectures Cloud (AWS / GCP selon les projets). Mettre en place, fiabiliser et automatiser les environnements via Terraform , Ansible et les outils IaC Cloud Natif. Définir et industrialiser les pipelines CI/CD (GitLab CI/CD, Jenkins, Digital AI, Nexus/Artifactory). Assurer l’intégration et la gestion des images Docker au sein des écosystèmes Kubernetes / Helm . Garantir la stabilité, la résilience et la sécurité des produits en production ; contribuer activement à la résolution d’incidents. Déployer et améliorer les outils de supervision / monitoring : Dynatrace, ServiceNow, ELK, SonarQube . Rédiger une documentation claire et fiable pour les équipes métiers et les équipes d’exploitation. Participer à la montée en compétences des squads métier (présentations, démonstrations, bonnes pratiques). Contribuer à l’amélioration continue des pratiques DevOps (automatisation, observabilité, fiabilité, tooling). 🧰 Ton environnement technique · Docker, Kubernetes (GKE / Cloud), Helm · Terraform, Ansible, GitLab Ops · GitLab CI/CD, Jenkins, Digital AI, Artifactory, Nexus, SonarQube · AWS, GCP (selon projets) · Python, Shell · Spark3 / Hadoop, pipelines IA / LLM (selon contexte) · Agile (Scrum / SAFe)
Offre d'emploi
Tech Lead Infra (H/F)
WINSIDE Technology
Publiée le
Gestion de projet
ITSM
1 an
Lille, Hauts-de-France
Mission Le / la Tech Lead Infra est l’expert(e) technique référent(e) sur un périmètre d’infrastructures stratégiques et de services associés. Il/elle assure : la conception technique et la validation des solutions de son domaine, le maintien en conditions opérationnelles et l’amélioration continue (réduction de la dette technique, résilience, exploitation), l’expertise de dernier recours (N3/N4) pour les incidents majeurs, le pilotage opérationnel des activités Hosting. Sa mission principale est de garantir la stabilité, la performance et la sécurité des services informatiques. Responsabilités principales 1. Gouvernance & Expertise technique Assurer la cohérence, la performance et la sécurité des architectures du domaine. Participer à la conception et à la validation des évolutions majeures et nouveaux services. Assurer la veille technologique. Définir et maintenir les standards, bonnes pratiques et procédures d’exploitation. Apporter un support architectural aux équipes projets. Valider techniquement les solutions proposées par les partenaires (gatekeeper). 2. Qualité & Amélioration continue Contribuer au Plan d’Amélioration Continue (CSI). Transférer l’expertise aux équipes Run (N1/N2/N3). Identifier et automatiser les tâches récurrentes. Garantir l’application des processus ITIL (gestion des changements, capacité…). 3. Support & Opérations critiques Intervenir en expertise ultime (N4) sur les incidents majeurs. Superviser et valider les analyses de causes racines (RCA). Garantir la conformité technique des opérations MCO. Évaluer les risques techniques liés aux changements et vulnérabilités. Piloter opérationnellement les activités Hosting. Contribuer aux dispositifs de sauvegarde et PRA. Compétences requises Compétences techniques Architecture IT : conception, rétro-conception, sécurité Veille technologique : analyse et proposition d’innovations Support au changement : évaluation d’impacts, migration, modernisation Documentation technique Gestion des risques ITSM : gestion des incidents, problèmes et changements Expertises Hosting Cloud IaaS/PaaS : AWS, Azure, GCP ; automatisation (Terraform, Ansible) ; conteneurs (Docker, Kubernetes) OS : Windows Server, Linux/Unix, sécurité, patching Virtualisation & hyperconvergence : VMware, Hyper-V Stockage & sauvegarde : SAN/NAS, PRA, sauvegardes isolées Services d'annuaire : Active Directory, LDAP, IAM Compétences comportementales Orientation client & service Leadership transversal Communication claire Capacité d’analyse et de synthèse Autonomie et prise de décision Transmission et pédagogie Rigueur, respect des processus Orientation qualité et performance Langues Anglais (courant) Expérience Bac+4/5 (informatique ou équivalent) 5 à 8 ans minimum d’expérience en infrastructures on-premise et Cloud Une première expérience en management (hiérarchique ou fonctionnel) est appréciée Très bonne maîtrise des environnements ITSM et méthodes projet Livrables attendus Feuille de route des services et budget annuel Tableau de bord de performance opérationnelle Dossiers de cadrage / business case Bilan annuel d’optimisation des coûts (FinOps) Plan d’amélioration continue (CSI) Rapports de qualité des actifs Cahier des charges et documentation PRA / sauvegardes isolées Indicateurs de performance Satisfaction métiers Time-to-Market des évolutions Contribution à la réduction des coûts (TCO) Disponibilité réelle vs SLA Taux d’obsolescence technique Niveau de conformité aux bonnes pratiques et standards Taux de résolution des problèmes (CSI) Avancement du plan d’amélioration continue
Offre d'emploi
Ingénieur Infrastructure Cloud Microsoft H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
40k-50k €
Villeneuve-d'Ascq, Hauts-de-France
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, l'activité Services en région Nord-Normandie accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Pour l'une de nos clients, grand acteur de l'agro-alimentaire, vous rejoignez une équipe d‘Ingénieurs systèmes afin de participer activement aux projets de transformation IT (80% Build) et au maintien en conditions des infrastructures OnPremise et cloud (20% Run). Vous travaillez en transverse avec les équipes réseau, sécurité, support et projets. Vos responsabilités : • Administrer et faire évoluer les environnements Microsoft Windows Server, Active Directory • Participer à la migration et à l'exploitation d'environnements Cloud publics et privés • Mettre en œuvre les solutions Infrastructure as Code (Iac) via Packer, Terraform, Ansible • Gérer et optimiser les environnements VMware avec vSphere, vCenter • Contribuer aux projets de transformation IT (sécurité, automatisation, modernisation) • Assurer le support de niveau 3 sur les infrastructures serveurs Mettre en place une veille technologique et contribuer à la mise en place de bonnes pratiques L'environnement technique : Microsoft Windows Server, AWS ou Azure, Terraform, PowerShell, Ansible, VMware, Active Directory, DNS, GPO (formations à prévoir). Ce que nous vous proposons : Valeurs : en plus de nos 3 fondamentaux que sont l'audace, la bonne foi et la réactivité, nous garantissons un management à l'écoute et de proximité, ainsi qu'une ambiance familiale Contrat : en CDI avec un démarrage selon vos disponibilités (nous acceptons les préavis) Localisation : site client basé à Villeneuve d'Ascq (59) Package rémunération & avantages : • Le salaire : rémunération annuelle brute selon profil et compétences • Les basiques : mutuelle familiale et prévoyance, titres restaurant, remboursement transport en commun à 50%, avantages du CSE (culture, voyage, chèque vacances, et cadeaux), RTT (jusqu'à 12 par an), plan d'épargne, prime de participation • Nos plus : forfait mobilité douce & Green (vélo/trottinette et covoiturage), prime de cooptation de 1000 € brut, e-shop de matériel informatique à des prix préférentiels (smartphone, tablette, etc.) • Votre carrière : plan de carrière, dispositifs de formation techniques & fonctionnels, passage de certifications, accès illimité à Microsoft Learn • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : 6sn8ls8a26
Mission freelance
Senior Data Engineer
Signe +
Publiée le
MySQL
12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Concevoir, développer et maintenir des data pipelines et solutions de data warehouse en environnement cloud Mettre en place et industrialiser les processus ETL / ELT et l’orchestration des pipelines en production Traduire les besoins métiers en solutions techniques data robustes en collaboration avec les équipes transverses Définir et appliquer les standards techniques et bonnes pratiques d’ingénierie data Participer à l’amélioration continue des architectures data et des performances des pipelines Expérience requise 6 à 10 ans d’expérience en Data Engineering Expérience confirmée en implémentation de pipelines data et solutions de data warehousing cloud Expérience en modélisation de données et orchestration de pipelines en environnement production Expérience de travail en équipes cross-fonctionnelles Compétences techniques Maîtrise avancée SQL Plateformes Data Warehouse : Snowflake (préféré) ETL / ELT : IICS ou équivalent Transformation data : dbt (préféré) Python pour traitement de données Cloud : AWS (préféré) Orchestration : Airflow (préféré) CI/CD : GitHub Actions Versioning : Git Infrastructure as Code : Terraform Mise en place de standards d’ingénierie et patterns techniques Soft skills Esprit collaboratif et orientation solution Autonomie et proactivité Communication efficace avec équipes techniques et métiers Formation Bachelor minimum (Master apprécié) en informatique ou domaine équivalent Langue Anglais obligatoire
Mission freelance
[LFR] Administration Zabbix, Sénior à Saint-Denis - 1280
ISUPPLIER
Publiée le
10 mois
300-450 €
Saint-Denis, Île-de-France
Description et localisation Objectifs Mettre en place et paramétrer nouvelle infrastructure de supervision Zabbix. Description détaillée des tâches qui constituent la mission • Installation et Configuration : Installer et configurer le serveur Zabbix, les agents et autres composants nécessaires. • Supervision : Définir et configurer des éléments de supervision (items) pour collecter des données sur les performances des systèmes, applications et réseaux. • Déclencheurs : Créer des déclencheurs pour détecter des conditions anormales et générer des alertes en cas de dépassement de seuils prédéfinis. • Modèles (Templates) : Développer et maintenir des modèles qui standardisent les configurations de supervision pour différents types de serveurs et applications. • Alertes et Notifications : Configurer des actions pour envoyer des notifications (e-mails, SMS, etc.) en cas d'alertes, et définir des escalades si les problèmes ne sont pas résolus. • Cartes et Tableaux de Bord : Créer des cartes réseau et des tableaux de bord pour visualiser l'état et les performances des différents éléments supervisés. • Optimisation et Maintien : Surveiller les performances du serveur Zabbix lui-même et optimiser les configurations pour assurer une supervision efficace et minimiser l'impact sur les ressources système. • Rapports et Analyse : Générer des rapports réguliers sur l'état des systèmes supervisés, analyser les tendances et proposer des améliorations. • Mises à Jour : Assurer la mise à jour régulière de Zabbix et de ses composants pour bénéficier des dernières fonctionnalités et corrections de sécurité. • Documentation : Documenter et faire les transferts de connaissances. .1 Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : • Solide expérience en administration Zabbix, idéalement sur des versions récentes. • Compétence confirmée dans les environnements Unix/Linux et/ou Windows. • Maîtrise technique sur des technologies variées (Zabbix, Python, Shell, etc.). Les compétences requises : • Expertise sur l’administration Zabbix, Python, scripting Shell, définition de template de supervision, utilisation des APIs, création de dashboard et de remonté des alarmes (webhook) • Connaissance intermédiaire de Linux, Windows, Ansible, Réseau, ESX, ... • Notions de base sur des environnements comme VMware, solutions de stockage SAN Environnement technique : SGBD Postgresql Oracle MONGODB Micrososft Sql Server Mysql NoSQL Couchbase Oracle RDB sur OpenVMS PAAS SGBD (AWS et Azure) Serveurs Unix Solaris / AIX, Linux Suse / Red Hat / Centos / Ubuntu, Windows Server Middlewares Apache, Tomcat, Weblogic, CFT, MQ, SFTP, JMS, VTOM, suite logicielle TIBCO, Networker, Oracle Tuxedo Plateformes/ logiciels Teraform, Jenkins, Ansible, squash TM, Postman, Docker, Kubernetes Observabilité Nagios, Datadog, Splunk; Zabbix, Dynatrace Saint-Denis, France • Les astreintes (HNO, etc…) : Oui potentiellement mais pas régulières • La possibilité de renouvellement : oui • Type de prestation (Client / Hybrid / Remote) : Hybride • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jours clients & 2 jours TT
Offre d'emploi
Architect Technique Cloud Senior H/F
CONSORT GROUP
Publiée le
1 mois
75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Architect Technique Cloud Senior H/F C’est votre mission Vous êtes passionné·e par le Cloud et l’architecture technique ? Ce poste est fait pour vous. En tant qu’ Architecte Technique Cloud Senior – Infrastructure (AWS / Cloud Privé) , vous êtes responsable du design, de la cohérence et de la robustesse de nos architectures Cloud et du support technique des équipes dans leur déploiement et migration vers le Cloud public . Côté build : Concevoir et définir des architectures techniques Cloud (AWS & Cloud privé) Mettre en œuvre les solutions d’infrastructure en conformité avec les standards et bonnes pratiques Participer aux projets de migration du Cloud privé vers AWS Rédiger et maintenir la documentation technique : dossiers d’architecture et de conception Proposer des axes d’optimisation (coûts, performances, sécurité) Accompagner les équipes de développement dans l’expression de leurs besoins d’infrastructure et de déploiement Garantir la pérennité des solutions techniques et la cohérence globale de l’architecture Côté run : Fournir un support technique de niveau expert aux équipes internes Veiller à la qualité, robustesse et sécurité des architectures déployées Travailler en étroite collaboration avec les équipes projets, sécurité et exploitation S’inscrire dans la gouvernance d’architecture et le plan d’urbanisme du SI Être force de proposition sur les choix technologiques et l’optimisation continue C’est votre parcours Vous avez au moins 8 ans d’expérience globale , dont au moins 5 ans sur AWS et architectures Cloud hybrides . Vous aimez concevoir des infrastructures Cloud robustes et évolutives sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : AWS : EC2, S3, RDS, Lambda, IAM, VPC, SSM Cloud hybride et migration Cloud privé → Cloud public Infrastructure as Code : Terraform fortement souhaité, VRA ou équivalent Outils de documentation technique et gouvernance (RFI/RFP, dossiers d’architecture) Certifications : AWS (niveau confirmé), TOGAF souhaitée Anglais technique (lu/écrit) C’est votre manière de faire équipe : Excellentes compétences en communication et collaboration Autonomie et capacité à gérer plusieurs sujets en parallèle Sens de la rigueur documentaire et de la structuration Force de proposition et esprit d’initiative C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : La défense Contrat : CDI Télétravail : Hybride Salaire : De 65 K€ à 70] K€ (selon expérience) brut annuel Famille métier : Infrastructure / Cloud / Architecture Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Tech Lead Drupal H/F
DCS EASYWARE
Publiée le
Orvault, Pays de la Loire
Nous recherchons pour notre client Nantais, un·e Tech Lead Drupal H/F passionné·e pour rejoindre nos équipes et jouer un rôle clé dans la réussite de nos projets digitaux. Véritable expert·e technique et référent·e pour les développeur·euse·s, vous occupez une place centrale entre le·la développeur·euse senior et le·la manager. Voici les missions que nous souhaitons vous confier : - Accompagner techniquement l'équipe de développement pour créer et gérer les solutions Drupal répondant aux besoins de notre client,- Assurer les revues de code tant au niveau des nouveaux développements que des maintenances correctives et évolutives des sites web existants,- Gérer le déploiement des sites web sur les différents environnements de dev, recette et production sous AWS (Gitlab, CI, Ansible, Terraform , test automatisé, ...),- Collaborer avec l'ensemble des membres des différents services techniques et métiers (SSI, Infra, Data, ...),- S'engager sur le respect des bonnes pratiques et la mise en oeuvre des principes de sécurité,- Être force de proposition sur des solutions innovantes tant au niveau des sites web que des environnements de développement et de déploiement.Vous justifiez d'une expérience en développement web. Vous possédez une solide expertise sur Drupal 9/10 ainsi que sur Next.js et React, et vous maîtrisez les outils et technologies liés au déploiement tels que GitLab CI, Ansible, Docker et Terraform. Vous avez une bonne connaissance des environnements AWS, et une expérience en services managés serait particulièrement appréciée. Vous savez également optimiser les performances et gérer des systèmes de cache comme Redis ou des solutions CDN. Vous avez déjà vécu une première expérience réussie de management technique d'équipe, et vous êtes à l'aise pour accompagner, encadrer et faire monter en compétences des développeur·euse·s. Enfin, vous êtes familier·ère avec la méthodologie Scrum, et vos qualités personnelles font de vous un·e véritable moteur au sein d'une équipe technique. Notre processus de recrutement en 4 étapes ! Tout simplement - Dans un premier temps, vous échangerez avec l'un d'entre nous par téléphone - Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien physique ou TEAMS - Pour finir, discutez métiers avec l'un de nos managers opérationnels - Bienvenue chez nous ! Nous avons hâte de vous lire et de faire votre connaissance ! À très vite !
Offre d'emploi
Ingénieur / Intégrateur Observabilité (DataDog)
MGT Conseils
Publiée le
Datadog
1 an
40k-60k €
400-600 €
Hauts-de-Seine, France
Résumé du poste L’ingénieur/intégrateur Observabilité est responsable de la mise en place, de l’industrialisation et de l’optimisation de la plateforme DataDog. Il assure l’intégration et le monitoring des métriques, logs, traces et événements provenant des environnements On-Premise et Cloud (AWS). Il joue un rôle clé dans la structuration des pipelines de logs, leur parsing, leur normalisation et leur enrichissement. Missions principales 1. Intégration & Configuration de DataDog Déployer, configurer et maintenir les agents DataDog (infrastructures, conteneurs, serveurs applicatifs, bases de données…) Intégrer les services AWS : CloudWatch, Lambda, ECS/EKS, API Gateway, S3, RDS… Mettre en place l’APM et instrumenter les applications (traces et profiling) Gérer la collecte et le parsing des logs DataDog : Configuration des pipelines de logs (Grok, Remapper, Processors) Normalisation via les pipelines standards ECS/Datadog Création de règles de parsing (patterns, regex, grok, JSON) Nettoyage, filtrage, réduction du volume (cost control) Mise en place de tags automatiques pour optimiser la recherche et les dashboards 2. Conception & Industrialisation Créer et maintenir les tableaux de bord (dashboards) orientés OPS, métier et SLA/SLO Définir et automatiser les seuils d’alerting intelligents : anomalies, prévisions, monitoring synthétique Structurer la plateforme : tags, naming conventions, auto-découverte Automatiser l’observabilité via Infrastructure as Code (Terraform recommandé) 3. Support & Expertise Accompagner les équipes projets et dev pour instrumenter leurs applications avec les librairies DataDog APM Former les équipes IT (Dev, Ops, SecOps) aux bonnes pratiques d’observabilité Diagnostiquer les problèmes de performance, latence, saturation, erreurs applicatives
Offre d'emploi
Développeur Java Spring Boot H/F
█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
CI/CD
38k-45k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Cloud Engineer NAS sur Paris 17
EterniTech
Publiée le
NAS
NetApp
3 mois
Paris, France
Je recherche pour un de mes clients un Cloud Engineer NAS sur Paris 17 Description: The service will: A. Storage Infrastructure Management · Designing and deploying Network-Attached Storage (NAS), and cloud-based storage solutions. · Configuring volumes, and storage tiers based on performance needs. · Optimizing storage performance through tuning and load balancing. · 24/7 providing service and Early morning Organization. · Providing and sharing documentation ( LLD, Procedure, Process … B. Data Protection & Backup · Implementing backup and disaster recovering strategies to prevent data loss. · Working with backup solutions in needed. · Developing replication strategies across data centers for business continuity. C. Storage Security & Compliance · Implementing encryption, access controls, and role-based permissions to secure stored data. · Ensuring compliance with GDPR, HIPAA, ISO 27001, and other regulatory standards. · Monitoring and preventing ransomware and unauthorized access to storage systems. · Participating to Audit Issue Remediation. D. Capacity Planning & Optimization · Conducting storage utilization analysis and forecast future storage needs. · Optimizing storage efficiency with features like deduplication, compression, and thin provisioning. · Working on automating storage management using scripts (Python, Bash, or PowerShell). E. Troubleshooting & Performance Tuning · Identifying and resolving latency, IOPS bottlenecks, or disk failures. · Performing firmware updates, storage patches, and system health checks. · Working closely with network and database teams to optimize end-to-end data flow. · Incident Management ( Resolution and interface). ---------- Expertise’s: • NAS NetApp storage expertise – mandatory. • Switch Broadcom - mandatory. • NAS upgrade – mandatory. • NAS Refresh – mandatory. • NetApp Cloud Volume Ontap and/Or AWS FSX N - appreciated • Hyperconverged solution expertise are appreciated: Nutanix, VSAN. • Proven expertise in IT production environment (incident, 24H/7 on duty, early morning organization), with DRP architecture. • Scripting expertise’s and automation: Python, Ansible, Terraform • Strong general knowledge in IT and Datacenter infrastructure architectures • Documentation: LLD, Exploitation Procedure, process, training materials • Expertise providing service in a dynamic, matrix-structured global organizations. • English environment • French would be appreciated. ---------- Delivery : at least 3 days onsite per week
Offre d'emploi
Développeur Talend H/F
HAYS France
Publiée le
Développement
ETL (Extract-transform-load)
Talend
50k-60k €
Monaco
Nous recherchons pour notre client son futur Développeur Talend ( H/F ). Vos missions sont les suivantes : Structurer les données selon plusieurs niveaux d’agrégation et élaborer des processus avancés de transformation et d’harmonisation pour garantir leur exploitation opérationnelle. Suivre de près les performances des jobs d’extraction et de modélisation de données, et mettre en place des optimisations continues pour en améliorer l’efficacité. Assurer la robustesse et la tolérance aux pannes des workflows d’intégration de données, tout en garantissant leur capacité à monter en charge. Environnement technique général : ETL Talend | Linux Ubuntu et CentOS, Shell Unix | AWS RDS (PostgreSQL et MySQL/MariaDB) - AWS OpenSearch (ElasticSearch) - AWS Elasticache Redis | MariaDB sur On-Premise Linux (standalone et cluster Galera) | Supervision : Nagios, Grafana, collectd, NewRelic | DevOps : Terraform, Ansible Poste à pourvoir en CDI 39H à Monaco (statut selon niveau de formation) Télétravail : 2 jours par semaine Démarrage : Préavis acceptés. Information utile : Nécessite un permis de travail délivré en 14 jours environ. Rémunération et avantages : Fixe – Equivalent à 50/60K brut annuel en France (Charges salariales différentes) Primes sur objectifs (2 fois par an) Participation au Transport, CSE, Mutuelle, Tickets restaurant
Offre d'emploi
Développeur Python/OpenAPI/Apigee/Gitlab
OBJECTWARE
Publiée le
Apigee
Gitlab
OpenAPI
3 ans
40k-45k €
400-550 €
Île-de-France, France
Definition du profil : Au sein de l'équipe API Platform, votre mission sera de contribuer activement à l'amélioration de la plateforme API, afin de faciliter/standardiser la production d'api et la consommation d'apis chez Accor. Missions : -Diriger la conception, le développement et la mise en œuvre de la gouvernance API et des solutions associées. -Collaborer avec des équipes pluridisciplinaires pour définir les exigences et les spécifications des API. -S'assurer que les API sont sécurisées, évolutives et conformes aux meilleures pratiques du secteur. -Encadrer et guider les développeurs en leur fournissant un leadership et un soutien technique. -Superviser les processus de test, de déploiement et de maintenance des API. -Évaluer et améliorer en permanence les performances et la fiabilité de la plateforme API. -Porter et enforcer les choix/décisions au profit de la Communauté -Se tenir informé des nouvelles technologies et tendances en matière d'API pour stimuler l'innovation. Challenges : -Automatisation des process de publication/documentation des APIs (gen AI, pipelines,..) Skills : Expérience API Management (Apigee ou équivalent) Bonne compréhension des APIs REST/OpenAPI Connaissance Infrastructure as Code (Terraform) Expérience architecture serverless AWS (Lambda, API Gateway, DynamoDB) Mindset DevOps/SRE (automatisation, observabilité) Conception et développement de pipelines CI/CD Capacité à travailler en autonomie Compétences techniques : Apigee - Confirmé - Important OpenAPI/Swagger - Intermédiaire - Important JWT/OIDC - Intermédiaire - Souhaitable Node.js - Confirmé - Impératif Python - Confirmé - Impératif Jest/pytest - Intermédiaire - Souhaitable GitLab CI/CD - Confirmé - Impératif AWS (Lambda, API Gateway, DynamoDB) - Confirmé - Important Terraform - Confirmé - Important Docker - Intermédiaire - Souhaitable
Offre d'emploi
Mission Freelance - DevOps Public Network – Cloud Réseau & Sécurité - Lille
KUBE Partners S.L. / Pixie Services
Publiée le
Cloud
DevOps
Google Cloud Platform (GCP)
3 ans
Lille, Hauts-de-France
Bonjour Pour l’un de mes clients, je recherche un Senior DevOps Public Network. Contexte de la mission • Mission au sein d’une équipe infra cloud orientée réseau et sécurité. • Objectif renforcer le build de solutions réseau et sécurité en infra as code. • Environnement GCP et Cloudflare. • Automatisation en Python FastAPI et Terraform. • Travail sur DNS certificats TLS load balancer firewall WAF. • Développement d’API et scripting Python. • Contribution CI CD avec Github Actions. • Équipe Agile avec livraison continue. Profil recherché • Senior DevOps orienté réseau et sécurité cloud. • Très bon niveau en Python et FastAPI. • Solide expérience Terraform et infra as code. • Bonne maîtrise GCP - AWS est un plus. • À l’aise avec Github Actions et les conteneurs. • Autonome communicant anglais professionnel requis. Informations pratiques • Mission long terme. • Freelance ou portage salarial. • Démarrage ASAP ou sous un mois maximum. • Localisation Lille. • 3 jours de présentiel par semaine. Intéressé ou envie d’en savoir plus, postuliez avec moi votre CV à jour.
Mission freelance
Ingénierie Senior SRE/DevOps H/F
Grafton
Publiée le
3 mois
550-950 €
France
Ingénieur SRE / DevOps Senior - Cloud (GCP) Localisation : Paris / Île‑de‑France - Hybride Type : Mission longue - Freelance ou portage Contexte de la mission Dans le cadre d'un programme stratégique de modernisation cloud, nous recherchons un Ingénieur SRE / DevOps Senior expert des environnements Google Cloud, Kubernetes et des infrastructures critiques. Responsabilités Déployer, gérer et superviser les environnements Cloud (UAT, Préprod, Prod). Optimiser les performances, la sécurité et les coûts des infrastructures. Automatiser les déploiements et maintenir les pipelines CI/CD. Collaborer avec les équipes de développement et les partenaires pour définir les besoins d'infrastructure. Proposer des améliorations continues et maintenir la documentation. Gérer les incidents, assurer le support technique et participer aux astreintes. Profil recherché Bac+5 en informatique ou équivalent. Certification Google Cloud ou Kubernetes appréciée. Minimum 5 ans d'expérience en DevOps / SRE / Cloud Engineering. Minimum 3 ans d'expérience en production : incidents, monitoring, astreintes. Solide expérience en gestion d'incidents critiques et analyses post‑mortem. Excellentes compétences en communication, autonomie et sens du service. Environnement technique Requis Cloud public (GCP, AWS ou Azure) - 3 ans minimum. Kubernetes : autoscaling, Operators, Helm, RBAC, stockage. Terraform. Souhaité GCP : GKE, Cloud SQL, IAM, Secrets, Memory Store. ArgoCD. Prometheus, Grafana. MySQL. GitLab CI. Sécurité cloud et conteneurs. Linux (environnements conteneurisés). Scripting : Shell, Python. #LI-ST1
Offre d'emploi
INTEGRATEUR TECH-OPS
KEONI CONSULTING
Publiée le
Mongodb
PostgreSQL
YAML
18 mois
20k-60k €
100-500 €
Paris, France
Contexte : Nous recherchons un TechOps, un référent transversal garant de la qualité d’intégration, de la fiabilité opérationnelle, et de l’exploitabilité by design des solutions déployées au sein de l’équipe Infrastructure. Il participera à renforcer la fiabilité opérationnelle (RUN), l’amélioration continue, la standardisation, l’automatisation des processus d’exploitation et la montée en maturité vers les pratiques modernes de Platform Engineering. La ressource devra s’impliquer pour devenir un référent technique transverse, capitalisant sur les périmètres applicatifs et les solutions techniques. La répartition indicative des activités sera de 60 % au sein du Bureau Technique et 40 % en contributions techniques transverses (documentation, automatisation, amélioration continue, outillage). MISSIONS OBJET DE LA PRESTATION Préparation, coordination et suivi des mises en production. Contrôle et validation des livrables techniques. Intégration et paramétrage des solutions logicielles. Réalisation des tests techniques : unitaires, intégration, validation d’exploitabilité. Installation des nouveaux modules et des évolutions applicatives. Participation aux analyses d’impacts techniques. Contribution à l’évaluation des risques techniques. Vérification de la conformité aux normes de sécurité, d’architecture et d’exploitation. Respect strict des normes, standards, architectures, procédures et bonnes pratiques d’exploitation. Participation active à l’évolution des standards techniques du TechOps. - - - - - - - - - - - - Déploiement et maintien de solutions techniques et d’automatisations (scripts, pipelines CI/CD, supervision, IaC lorsque applicable). Standardisation des outils, patterns et bonnes pratiques. Contribution aux services et solutions opérées par l’équipe Platform Engineering. Production et mise à jour de la documentation technique (DEX, référentiels, procédures…). Reporting régulier auprès du responsable Infrastructure et des ISM (Integration Service Managers). Accompagnement, vulgarisation et partage de connaissances auprès des équipes internes. Participation à l’acculturation DevOps au sein du Bureau Technique. Solide rigueur technique et capacité d’analyse. Aisance rédactionnelle et esprit de synthèse. Excellente communication orale et écrite. Aptitude à vulgariser et à accompagner les équipes dans la montée en compétences. Capacité à être force de proposition et à mener une veille technologique régulière. PROFIL & ENVIRONNEMENT TECHNIQUE L’environnement technique de l’équipe d’Infrastructure est composé des éléments ci Compréhension limitée des concepts de production et DevOps, capacité à exécuter des tâches simples sous supervision (par exemple, exécution de scripts ou suivi des indicateurs de performance). Capacité à configurer des environnements de développement et de production, à utiliser des outils de gestion de version (comme Git) et à exécuter des tâches de maintenance préventive. Maîtrise des outils d'intégration et de déploiement continu (CI/CD), capacité à gérer des conteneurs (Docker, Kubernetes), et à optimiser les processus de production tout en surveillant les performances. Compétences expertes Expertise dans la gestion d'infrastructures cloud (AWS, Azure, GCP), capacité à concevoir des architectures résilientes, à implémenter des pratiques de sécurité, et à diriger des initiatives d'amélioration continue. Systèmes & Architecture Infrastructure Unix, Linux ,Windows Server ,Orchestration & Scheduling,Control-M ,supervision / Observabilité, Zabbix, Instana, Prometheus,Grafana, Kibana ,Scripting & Programmation, Shell, Python (scripting), powerShell, Python (dev),YAML,SQL,Java, NodeJS, ReactJS, Réseau & Équilibrage, HAProxy, Nginx3, API & Intégration, API REST, gestion & Analyse des Logs, Loki, Elasticsearch, Workflows & Traitements techniques, Apache Airflow ,Gestion de code (VCS) Compétences techniques essentielles (obligatoires) - - - - - - - - Systèmes & Architecture Infrastructure o Très bonne maîtrise des systèmes d’exploitation Linux et Windows Server (niveau expert). o Compréhension des environnements Unix/AIX et des mécanismes de haute disponibilité (HACMP, VCS, Windows Cluster). o Bonne compréhension des architectures d’infrastructure toutes couches (OS, réseau, middleware, API, stockage, supervision). Cloud & Modernisation o Connaissance solide des concepts Cloud (public, privé, hybride). o Compréhension des principes d’architecture Cloud (scalabilité, résilience, sécurité, patterns d’intégration). o Savoir travailler dans des environnements Cloud et accompagner la migration de solutions legacy. Automatisation & Infrastructure-as-Code o Maîtrise d’Ansible pour l’automatisation des configurations et des déploiements. o Connaissance de Terraform (IaC) pour comprendre ou valider les modèles d’infrastructure automatisée. o Connaissance de Vault pour la gestion sécurisée des secrets. o Capacité à intégrer et à standardiser les outils DevOps dans la chaîne d’exploitation. Orchestration & Traitements o Maîtrise d’Apache Airflow pour l’orchestration de workflows techniques et applicatifs. CI/CD & DevOps o Bonne connaissance des chaînes CI/CD (GitLab CI, GitHub Actions, Jenkins). o Capacité à valider l’exploitabilité d’un pipeline et à définir les prérequis techniques. o Capacité à intégrer des solutions DevOps, sans nécessairement développer des pipelines complexes. Langages & Scripting o Maîtrise d’un langage de programmation tel que Java ou Python (lecture, compréhension, validation technique). o Très bonne maîtrise du Shell (niveau expert), Python scripting et PowerShell. o Bonne maîtrise de YAML pour la lecture des configurations modernes (CI/CD, Kubernetes, Airflow). o Connaissances de base en SQL (lecture, diagnostic simple). Observabilité / Supervision / Logs o Connaissance des outils de supervision (Zabbix, Instana). o Capacité à lire et interpréter des logs via Loki, Elasticsearch, Kibana, Grafana, Prometheus. o Savoir identifier des incohérences, anomalies ou points d'amélioration sur la chaîne d’exploitabilité. Réseau, API & Équilibrage - - o Bonne compréhension du fonctionnement des API REST (consommation, contrats, validations). o Connaissance des équilibreurs de charge (HAProxy, Nginx). o Comprendre les mécanismes de SLB/GSLB (Load Balancing global/local). Écosystème applicatif & composants techniques o Compréhension des serveurs d’applications (Apache, Tomcat, JBoss). o Connaissance des systèmes de messagerie (Kafka, RabbitMQ, IBM MQ Series). o Connaissance des solutions de transferts (TOM/CFT/PeSIT). o Familiarité avec les bases de données (MS SQL, Redis, MongoDB, PostgreSQL) et leurs outils (DBeaver/SQL Manager). Les compétences optionnelles apportant un plus sont : - - - - - Maîtrise supplémentaire de langages : YAML avancé, C++, C#, HTML/CSS. Connaissance des solutions de virtualisation (VMWare, Hyper-V…). Connaissance de PostgreSQL et MongoDB (niveau opérationnel). Familiarité avec la gestion de projet et les méthodologies agiles. Compréhension plus avancée des solutions de coffre-fort (Vault, CyberArk…).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
202 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois