Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 702 résultats.
Freelance
CDI

Offre d'emploi
DevOps Confirmé / Référent Technique Supervision & Logs - Expert Checkmk & Industrialisation

Publiée le
Ansible
API REST
Bash

24 mois
Île-de-France, France
Télétravail partiel
Rejoignez l'équipe IT de notre client Leader mondial, au cœur de ses systèmes critiques, au sein d'une petite équipe de 3 personnes. Nous recherchons un(e) Ingénieur(e) Confirmé(e) doté(e) d'un grand recul et d'une âme de Lead pour assurer l'excellence opérationnelle et l'évolution des plateformes stratégiques : le Monitoring Checkmk et le Puit de Logs ElasticSearch . 🎯 Vos Responsabilités et Enjeux Clés En tant que Référent Technique, votre mission se déploiera sur trois axes : Expertise Cœur de Métier (Monitoring & Logs) : Administrer, maintenir en conditions opérationnelles (MCO) et faire évoluer les plateformes Checkmk et ElasticSearch/ELK . Développer des plugins/extensions Checkmk en Python ou Bash pour garantir une couverture de supervision exhaustive (Systèmes, Réseau, Applicatif). Assurer l'intégration de données via appels API REST pour enrichir la supervision. Mener les diagnostics avancés et le troubleshooting à partir des données de monitoring et de logs. Industrialisation & DevOps (Le Rôle de Lead) : Être le moteur de l' Infra as Code : concevoir et maintenir les Playbooks Ansible pour le déploiement des agents et des configurations (Linux/Windows). Optimiser la chaîne CI/CD via les pipelines GitLab et le Gitflow pour industrialiser les livraisons. Proposer des actions d'optimisation et garantir un haut niveau de disponibilité des services. Encadrement & Projet : Apporter votre recul et votre pédagogie pour la montée en compétence de l'équipe et des clients. Assurer le Suivi de Projet, le Reporting (PowerPoint) et la création de documentations d'administration et client. 🛠️ Votre Expertise Technique Impérative Supervision : Maîtrise d'un outil de monitoring majeur (idéalement Checkmk ou Nagios/Zabbix) et capacité à développer des checks. Industrialisation / IaC : Maîtrise indispensable d' Ansible et des outils Git/GitLab CI/CD . Systèmes : Expertise forte en environnement Linux (RedHat, Debian, etc. – le principal) et bonnes connaissances Windows Server . Scripting : Compétences confirmées en Bash et Python (ou PowerShell). Logs : Connaissances en ElasticSearch/ELK (maintenance et analyse de logs). Réseau & API : Connaissances des protocoles de supervision ( SNMP, TCP/IP, Load Balancer ) et expérience des appels API REST .
Freelance

Mission freelance
Intégrateur de solutions cybersécurité – SOC Log Integrator & Parsing Engineer

Publiée le
Apache Kafka
AWS Cloud
Azure

1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Nous recherchons un SOC Log Integrator & Parsing Engineer pour rejoindre une équipe Cybersécurité au sein du Security Operations Center (SOC) . Vous serez responsable de l’ensemble du processus de collecte, parsing et normalisation des logs à travers des environnements cloud et on-premise , en support des opérations SOC 24/7. Rattaché(e) au Build Team Lead , vous collaborerez étroitement avec les équipes Cybersécurité, IT et métiers afin de garantir des mécanismes de défense robustes, scalables et automatisés . Responsabilités Concevoir, implémenter et maintenir des pipelines complets de collecte et parsing de logs Gérer et optimiser les systèmes d’ingestion et de transfert de logs (Fluentd, Kafka, etc.) Développer des parsers avancés pour normaliser les données selon des schémas spécifiques Assurer la qualité, fiabilité et standardisation des logs sur l’ensemble des systèmes Intégrer de nouvelles sources de logs en coordination avec les équipes Réseau, Applicatives et SOC Développer et maintenir les règles de parsing, de normalisation et d’enrichissement pour ingestion dans les SIEM (Elastic, Splunk, Sentinel, etc.) Implémenter des pipelines CI/CD pour l’automatisation du déploiement des configurations Appliquer les pratiques DevSecOps pour sécuriser et fiabiliser les processus d’ingestion Créer des mécanismes de supervision continue du pipeline d’ingestion Contribuer à l’amélioration continue de l’observabilité et des capacités de détection du SOC Documenter l’ensemble des workflows, parsers et composants d’intégration
Freelance

Mission freelance
Expert Collibra

Publiée le
AWS Cloud
Collibra
Databricks

3 mois
500 €
Paris, France
Télétravail partiel
Opportunité : Expert Collibra - Transformation Data (Secteur Énergie) Rôle : Expert Collibra (5-7 ans d'expérience) Lieu : Paris (mode hybride 2-3 jours/semaine) Durée : 3 mois (démarrage ASAP, fin 31/03/2026) Budget Max : 500 €/jour Le Contexte : Grande entité du secteur de l'énergie, en pleine migration vers une architecture Data Cloud moderne (AWS, Databricks). L'enjeu est de garantir une Gouvernance de la Donnée infaillible pour piloter la performance. La Mission Stratégique : L'expert Collibra est au cœur de la sécurisation et de la traçabilité des données entre deux plateformes critiques : AWS (SMUS) et Databricks Unity Catalog (DBX) . L'objectif est de s'assurer que Collibra est non seulement un catalogue, mais le moteur de la politique d'accès et de traçabilité inter-systèmes . Responsabilités Clés : Métadonnées & Traçabilité (Lineage) : Définir les connecteurs et les mécanismes d'ingestion des métadonnées et de la traçabilité des transformations Data entre AWS et Databricks. Gestion des Accès : Concevoir l'intégration de Collibra avec les mécanismes de sécurité Cloud (AWS IAM/IDC, Lake Formation) et Databricks (Unity Catalog). Il s'agit d'évaluer l'automatisation de l'octroi/révocation des accès et de mettre en place des workflows d'audit robustes. Profil Recherché : Un architecte pratique et un expert de l'implémentation Collibra, maîtrisant les enjeux de sécurité dans les écosystèmes AWS et Databricks .
Freelance
CDI

Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)

Publiée le
Architecture
AWS Cloud
Databricks

12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Freelance

Mission freelance
Architecte Cloud & On-Premises (anglophone) – Expertise FinOps

Publiée le
Architecture
Azure
Cloud

12 mois
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Architecte Cloud & On-Premises anglophone , intervenant sur l’optimisation des coûts d’un environnement multi-cloud et d’infrastructures on-premises. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/FIN/4975 dans l’objet de votre message La prestation consiste à optimiser les coûts Cloud et On-Premises dans un environnement multi-cloud global, en produisant des rapports détaillés, en mettant en œuvre la gouvernance, en soutenant les équipes internes et en fournissant des recommandations structurées. . Gouvernance Cloud & On-Premises Contribuer à la définition de la gouvernance pour les environnements Cloud et On-Premises. Participer à la mise en œuvre opérationnelle de cette gouvernance. 2. Production et amélioration des rapports Cloud & On-Premises Produire des rapports pertinents sur la consommation et les coûts Cloud & On-Premises. Améliorer en continu ces rapports pour les rendre exploitables par le management. Fournir des rapports permettant de piloter la conformité, la consommation et les coûts. 3. Collaboration avec des équipes transverses globales Collaborer avec des équipes multifonctionnelles basées dans plusieurs pays. Comprendre leurs besoins et contribuer à l’analyse des données. Établir des partenariats de travail permettant d’atteindre des résultats FinOps tangibles. 4. Support aux équipes Infrastructure & Operations (I&O) Accompagner les équipes I&O dans la définition d’objectifs et de KPI pertinents. Participer à la récupération, structuration et modélisation des données nécessaires au pilotage des coûts. 5. Cartographie des flux de données Cartographier, avec les équipes I&O, les flux de données relatifs aux environnements Cloud et On-Premises. Aider à construire un modèle de données supportant les travaux FinOps. 6. Analyse et prévision des coûts d’hébergement Analyser les coûts d’hébergement Cloud & On-Premises. Élaborer des prévisions (forecast) pour anticiper l'évolution des dépenses. 7. Recommandations d’optimisation Formuler clairement des recommandations d’optimisation des coûts. Accompagner et suivre la mise en œuvre de ces recommandations. 8. Appui à la prise de décision via les données Utiliser des outils et technologies permettant des décisions data-driven. Contribuer à l’amélioration de la capacité analytique et du reporting FinOps. 9. Contribution aux projets et programmes Aider projets et programmes à réaliser des estimations de coûts. Construire et formaliser des modèles de coûts et de financement. Contribuer à l’élaboration de business cases internes.
Freelance

Mission freelance
Développeur EBX Senior

Publiée le
Apache Kafka
API REST
AWS Cloud

3 mois
480-520 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme de transformation digitale, nous recherchons un Développeur EBX senior pour contribuer à la construction et à l’évolution d’un référentiel de données d’entreprise (MDM). Objectifs et responsabilités Paramétrer et développer la solution EBX pour la gestion des données référentielles Concevoir et développer des interfaces d’exposition des données (API REST, topics Kafka) Participer à la définition de l’architecture applicative en collaboration avec les équipes métiers, techniques, sécurité et infrastructure Contribuer à la conception technique des projets : analyse des besoins, rédaction des exigences techniques Assurer la documentation technique et le suivi des phases de tests et de mise en production
Freelance

Mission freelance
Chef de projet technique Data plateforme - Nantes

Publiée le
Agile Scrum
AWS Cloud
Azure

1 an
400-550 €
Nantes, Pays de la Loire
Tâches : Cadrer les différents travaux à réaliser en apportant un regard externe en mettant en lumière les éléments suivants : Besoins utilisateurs et cas d’usage Identification des données Schéma d’architecture Solutions intermédiaire et cible, chiffrées Exigences relatives à la gouvernance des données et à la conformité (cyber, …) Trajectoire de mise en œuvre • Piloter et coordonner les différents interlocuteurs intervenant dans le projet de mise en œuvre de la plateforme Data, de la phase de conception à la mise en production. • Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Analysts, Product Owners, Architectes, equipe Data métier et spécialisées…). • Garantir la qualité, la cohérence et la disponibilité des données nécessaires au pilotage e-business. • Définir et suivre le backlog produit Data en lien avec les équipes métier et techniques. • Piloter la réalisation à l’aide des outils internes (Jira Align). Attendu : Accompagner la mise en place d’une plateforme Data au service du pilotage e-business d’une entité spécialisée dans l’accélération digitale et e-business. Vous interviendrez en tant que Chef de projet technique Data, au sein d’une organisation agile et transverse, pour coordonner et piloter la construction, l’intégration et la mise à disposition d’une solution Data.
Freelance

Mission freelance
onsultant en exploitation applicative / développement

Publiée le
AWS Cloud
Docker
Javascript

3 ans
400-480 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
recherche un consultant en exploitation applicative / développement pour : Gérer l’exploitation des applications internes Réduire la charge opérationnelle via des développements spécifiques Assurer la communication entre utilisateurs, équipes produit et développement Mission en régie, facturée au réel (jours prestés). Gestion des tickets (Jira Service Management) Résolution d’incidents / demandes non couvertes par les outils existants Développement de modules et outils pour réduire la charge d’exploitation Rédaction de documentations techniques Maîtrise d'Oracle PL/SQL Connaissances en PHP (Slim), JS, Angular Environnement Docker (AWS apprécié) Bonus : Github, Shell Qualités humaines : autonomie, curiosité, communication, sens du service Issy-les-moulineaux 2 jours de TT
Freelance

Mission freelance
SysOps Kubernetes

Publiée le
Kubernetes

6 mois
400-530 €
Lyon, Auvergne-Rhône-Alpes
nous recherchons un administrateur Kubernetes qui participera au tour d’astreinte Le produit Hadock est une offre d’hébergement et d’orchestration de conteneurs on-premise basée sur Kubernetes. Nos grands enjeux actuels tournent autour?: - du run zéro crise (sujet valable pour toute la DSI) - d'une nouvelle version de l’offre «?v2?» (nouvelle stack technique basée sur Rancher/ArgoCD) laquelle doit arriver pour la fin de l’année 2025 - d’un sujet de transformation des applications pour les accompagner vers la mise en œuvre des bonnes pratiques Kube et ainsi une préparation à la migration vers notre offre V2 et à terme vers le cloud pour certaines - de l’automatisation pour se rapprocher des services des hyperscaleurs?: services standardisés, as code, provisioning rapide, rationalisation des ressources, scalable, etc… (sujet valable pour tous les services d’infrastructure dont ceux de DIGIT) Afin de renforcer l’équipe Hadock, nous recherchons un profil SysOps Kubernetes senior avec une expérience confirmée en administration de clusters Kube / outillages associés, en environnements de production à fort enjeu. Le service Hadock est un produit du département DIGIT qui vise à fournir de l’hébergement de conteneurs orchestrés par Kubernetes. Nous utilisons également Rancher pour gérer nos quelques dizaines de clusters (et Kubespray pour nos 4 « gros » clusters historiques). Les compétences recherchées sont les suivantes?(non exhaustives) : Système et Administration Linux : commandes Linux, scripting shell, file systems etc. Scripting?: langages BASH, Python, etc. Networks and security : connaissances de base concernant DNS, VPN, firewall, proxy server, loadbalancer Stockage?: connaissance de base concernant SAN, NAS CI/CD pipeline : Git, Ansible, ArgoCD Monitoring-supervision/logs : Victoria Metrics, Grafana, Prometheus, … Containers : connaissances avancées concernant Kubernetes, Docker. Certification CKA, la CKS est un plus En complément, « nice to have » : Rancher, Peering BGP pour la micro-segmentation (Cilium <-> Cisco ACI et Cilium <-> Fortinet) Cloud computing : AWS, Azure, GCP… Les activités se déroulent autour de 3 grands axes : Le build» qui suit le cycle de vie produit : Prototypage / Conception / Réalisation / Tests & Recette / Déploiement / livraison / Résorption Le MCO évolutif/correctif?: Suivi du bon fonctionnement en production / Assurer les évolutions techniques de la plate-forme / Maintenir le niveau de sécurité des éléments de la plate-forme / Assister les équipes projets dans la prise en main de l’environnement Le «?run?» : Réponse à des demandes, support aux équipes projets et traitement des incidents/crises + Participation aux astreintes technique N3 soir&WE une fois les compétences suffisantes acquises?; accompagnement à la mise en œuvre des bonnes pratiques Les livrables attendus sont les suivants?: Code, Documentation technique, Procédures Techniques, Dossier d'Architecture Technique, Request For Change pour les CAB, MaJ des tickets dans Jira, Participation à la préparation des PI planning … T
CDI

Offre d'emploi
Tech Manager Java-AWS

Publiée le
Angular
AWS Cloud
Java

90k-95k €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Tech Manager Java-AWS en CDI répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à sourcing à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/TECH/4968 en objet du message Vos responsabilités Missions : Faciliter l'émergence d'une vision technique commune, alignée avec la stratégie DSI ; Manager une équipe d'une vingtaine de développeurs ; Animer la réflexion continue autour des pratiques de qualité et fédérer l'équipe autour de standards de développement ; Coordonner le pilotage de la dette : faciliter l'identification, l'évaluation, et l'intégration au backlog des sujets de dettes avec le PO ; En tant que responsable du partage de connaissance technique, créer les conditions d'apprentissage et de montée en compétence pour tous ; Faciliter la coordination technique transverse ; Encourager l'équipe à comprendre les enjeux métier et incarner cette logique de valeur ; Incarner les valeurs agiles et favoriser la prise de responsabilité collective.
CDI

Offre d'emploi
Développeur .NET / Azure Junior

Publiée le
.NET CORE
Azure

Île-de-France, France
Télétravail partiel
Rattaché(e) à l’équipe de développement, vous participerez à la conception, au développement et à la maintenance d’applications et de services cloud basés sur la plateforme Microsoft Azure et les technologies .NET . Vos principales missions seront : Concevoir, développer et tester des applications en .NET Participer à l’intégration continue et au déploiement sur Microsoft Azure (App Services, Functions, Storage, etc.) Collaborer avec les équipes produit, QA et DevOps pour assurer la qualité et la fiabilité des livrables Participer à la rédaction de la documentation technique et fonctionnelle Assurer la maintenance évolutive et corrective des applications existantes
Freelance
CDI

Offre d'emploi
Senior Data Engineer – Optimisation et stabilisation d’une pipeline PySpark

Publiée le
Amazon Elastic Compute Cloud (EC2)
Apache Airflow
AWS Cloud

12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
L’équipe développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe. Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels).
Freelance

Mission freelance
AI Engineer Azure – IA Générative

Publiée le
Microsoft Copilot Studio
Azure AI Foundry
Azure DevOps

3 mois
Paris, France
Télétravail partiel
Nous recherchons un AI Engineer Azure confirmé pour le compte d’un grand groupe dans le cadre d’un projet stratégique autour de l’IA Générative . La mission consiste à concevoir et développer des solutions d’assistants IA en exploitant les services avancés de la plateforme Microsoft Azure . 🎯 Vos missions principales : Concevoir et développer des solutions IA Générative (LLM, RAG, Agents) dans Azure. Mettre en œuvre et exploiter les services Azure AI Foundry et Copilot Studio . Déployer des assistants IA répondant aux besoins métiers et intégrés aux outils internes. Développer et intégrer des modèles IA/ML personnalisés (fine-tuning, optimisation). Collaborer avec les équipes techniques et métiers pour définir les cas d’usage et maximiser la valeur business. Contribuer à la mise en production et à l’orchestration des pipelines IA via Azure DevOps.
Freelance

Mission freelance
Expert Kubernetes / OPENSHIFT - mission long terme Projets IAC et conteneurs

Publiée le
IAC
Kubernetes
Openshift

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche pour un de ses clients grands comptes un Expert Kubernetes et mise en place de chaines CI/CD, dans le cadre de projets de conteneurisation OnPremise et IAC. La mission sur le périmètre KUBERNETES comporte deux volets principaux : • Accompagnement à l'installation et configuration des clusters • Aide à l'administration et maintenance des clusters La chaîne CI/CD sera composée des éléments ci-dessous : • Gitlab (repository + pipelines + runners) • Hashicorp Vault • Artifactory • Kaniko • Trivy • Grype • Syft • Checkov • Kubernetes • ArgoCd Description de la mission : - Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) - Administration/ Maintien en condition opérationnel des clusters Openshift - Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Participer à l'alimentation de la roadmap technique et à l'élaboration des normes d'exploitation.
Freelance

Mission freelance
Developpeur Front end H/F

Publiée le
Angular
Apache Kafka
Azure Kubernetes Service (AKS)

2 ans
450-500 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Developpeur Front end H/F à Paris, France. Contexte : Les missions attendues par le Developpeur Front end H/F : Les technologies utilisées sont : TypeScript, NestJS, MongoDB, Angular, Kafka, Lambda, Glue, Jenkins, Git. Missions Principales : Developement : Développer des services applicatifs en respectant les normes mise en place sur le projet. Base de Données : Gestion et optimisation des bases de données MongoDB, y compris l'écriture et l’optimisation de pipeline mongodb. Performance & Sécurité : Garantir la performance, la scalabilité et la sécurité des services développées. Profil : Développeur senior avec minimum 5 ans d’experience Compétences Techniques demandées : Excellente maîtrise de TypeScript, NestJS . Solides compétences en MongoDB : optimisation, requêtes complexes, indexation, etc. Expérience avérée en développement frontend avec Angular . Familiarité avec les architectures microservices et l’utilisation de Kafka pour le traitement des flux de données. Connaissance des outils et pratiques DevOps (Git, CI/CD, Docker, Kubernetes) est un plus. Cadre de travail : Présentiel 3 Jr/ Semaine à Saint Denis. Télétravail 2 jrs / semaine
CDI

Offre d'emploi
DevOps (H/F)

Publiée le

60k-70k €
Nice, Provence-Alpes-Côte d'Azur
CDI Client final - DevOps Expérimenté (F/H) - Nice - 60K - Télétravail 2jours/semaine Vous êtes un profil devOps confirmé à la recherche d’une nouvelle opportunité en CDI à Nice ? Notre client, un acteur reconnu dans le secteur des télécommunication, recrute pour renforcer son équipe composée d'une vingtaine de personnes. Vos missions principales : - Concevoir, déployer et maintenir les pipelines CI/CD - Automatiser l'infrastructure - Gérer les conteneurs et l'orchestration - Superviser les plateformes Cloud - Mettre en place le monitoring - Collaborer avec les équipes de développement pour améliorer les processus et outils
3702 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous