Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 133 résultats.
Freelance

Mission freelance
Cloud GenAI Architect h/f

Publiée le
Cloud
IA Générative

3 mois
450-760 €
Paris, France
Télétravail partiel
Contribuer aux travaux d’architecture d’entreprise (EA) au niveau Groupe. Participer à la définition et à l’évolution du Cloud & GenAI Architecture Blueprint. Apporter une expertise transversale sur les technologies Cloud (Azure / GCP / AWS) et les approches GenAI (LLM, RAG, vector DB, sécurité, gouvernance). Évaluer les solutions, produire des synthèses, recommandations et documents d’architecture. Interagir avec les équipes globales : IT Strategy, Cloud, Data, Security, métiers. Vulgariser et synthétiser les enjeux pour les dirigeants et parties prenantes.
CDI

Offre d'emploi
CDI - DBA PostgreSQL / MariaDB (H/F)

Publiée le
MariaDB
PostgreSQL

Paris, France
Télétravail partiel
Contexte du poste Au sein de la DSI, vous serez responsable de la gestion, optimisation et sécurisation des bases de données MariaDB et PostgreSQL . Vous participerez aux projets d’évolution, aux migrations cloud et à l’intégration de nouvelles bases de données (Redis, Kubernetes). 🛠️ Missions principales Administration et optimisation de PostgreSQL et MariaDB . Gestion des performances, tuning SQL et maintenance. Sauvegarde, restauration et plan de reprise d’activité. Support et troubleshooting niveau N3. Participation à l’architecture des bases et à l’industrialisation des processus. Collaboration avec les équipes DevOps et Cloud (Azure, GCP, AWS). Mise en place et suivi de nouvelles bases de données (Redis, Kubernetes).
Freelance

Mission freelance
Testeur Technique / Intégrateur Industry 4.0 - BELGIQUE

Publiée le
MES (Manufacturing Execution System)

6 mois
550 €
Belgique
Télétravail partiel
Nous recherchons un(e) Intégrateur(trice) Industry 4.0 pour rejoindre l’équipe Manufacturing 4.0 d’un grand acteur de l’aéronautique, dans le cadre d’un projet ambitieux de modernisation des systèmes industriels et digitaux de l’usine du futur. Contexte : Les usines produisent des éléments de turboréacteurs en titane avec une précision extrême (jusqu’à 10 µm). L’équipe Manufacturing 4.0 apporte des outils digitaux et des moyens technologiques pour soutenir les équipes métiers et la production industrielle. Le projet vise à concevoir et déployer une solution Industry 4.0 intégrée, performante, sécurisée et scalable, incluant robotique, pilotage par la donnée et intelligence artificielle. Vos missions principales : Assurer l’intégration des différents modules du système d’information industriel. Préparer et réaliser les tests techniques du système « Usine du futur » : robustesse, performance, scalabilité, sécurité, traçabilité. Analyser les protocoles, flux et structures de données. Identifier et corriger les problèmes, proposer des améliorations. Participer à l’optimisation des performances du système et à la mise en place de la chaîne CI/CD. Collaborer étroitement avec les équipes IT, MES, UNS, PLM, maintenance et qualité industrielle. Profil recherché : Ingénieur ou bachelor expérimenté en informatique, avec 5+ ans sur des projets de grands systèmes d’information. Expérience en intégration de systèmes industriels et tests techniques approfondis (Recette, IVVQ, Qualification, Acceptance). Curiosité technique et capacité à résoudre les problèmes. Connaissance du monde industriel/OT et des architectures SI industrielles (atout). Bon relationnel, autonome et capable de travailler en équipe. Maîtrise du français à l’oral et à l’écrit ; anglais technique apprécié. Compétences techniques requises : Connaissance des architectures de systèmes d’information. Expérience sur cloud public (AWS, Azure, GCP). Idéalement : MES, conteneurs (Podman), IIOT, brokers (Kafka, MQTT), plateformes Big Data/Data Lakes. Certifications ISTQB, Katalon Practitioner ou équivalent appréciées. Conditions : Mission de 4 mois, possible extension. Présentiel sur le site industriel (Belgique) avec télétravail possible 1 à 2 jours/semaine. Horaires de jour, flexibles selon interventions. Qualités attendues : Autonomie, pro-activité, curiosité et esprit critique constructif. Esprit d’équipe, polyvalence et orientation résultat.
CDI

Offre d'emploi
Data Engineer Python/DBT

Publiée le
Databricks

45k-50k €
Occitanie, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre premium
CDI

Offre d'emploi
Data Architecte Databricks - Paris

Publiée le
Databricks

65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Data Engineer

Publiée le
Big Data
IA
Java

3 ans
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tester différents LLM peu importe le provider (aws, gcp, azure) Préparer les jeux de données Définir les conditions de succès et d’échec et paramétre les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendu Faire des développements su les produits de la squaq (Java / Python) L'équipe a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. La squad souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment).
CDI

Offre d'emploi
Expert·e Openstack

Publiée le

50k-70k €
Paris, France
Télétravail partiel
Pour le compte de l'un de nos clients du CAC 40, nous recherchons un·e Expert·e Openstack ! Vos missions seront : - Etre force de propositions sur le développement et le maintiens de nouvelles fonctionnalités - Pouvoir représenter le produit Openstack Cloud Service au seins de comités - Pouvoir apporter sa contribution à la roadmap et à la stratégie produit - Contribuer à l'amélioration continue du projet - Participer à la maintenance du produit et au dépannage - Cloud Computing : AWS, Azure, Google Cloud, bonnes pratiques du cloud OpenStack (niveau maîtrise requis) -Outils de gestion : Active Directory, DNS, DHCP, NMS (Network Management System) -Langages de Scripting : Python, PowerShell, Bash -DevOps et Automatisation : Jenkins, Ansible, GitLab, Nexus -Orchestration de conteneurs : Kubernetes
CDI

Offre d'emploi
Data Architecte Databricks

Publiée le
Databricks

65k-80k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
CDI

Offre d'emploi
Data Architecte Databricks

Publiée le
Databricks

65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Lead MLOps Python - Spécialiste IA/RAG

Publiée le
IA
MLOps
Python

3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
CDI
Freelance

Offre d'emploi
Expert Genesys & IA – Transformation des Centres de Contacts (H/F)

Publiée le
Genesys
IA

3 ans
Île-de-France, France
Contexte Dans le cadre de programmes de transformation digitale à l’échelle internationale , nous recherchons un Expert Genesys & Intelligence Artificielle pour accompagner l’évolution de centres de contacts omnicanaux. La mission s’inscrit dans un contexte multi-pays, multi-entités, avec un fort enjeu d’innovation autour de l’ IA et de la GenAI appliquées à l’expérience client. Objectif de la mission Concevoir, déployer et optimiser des solutions Genesys (Cloud / PureConnect / Enterprise) enrichies par des technologies d’ IA afin d’améliorer : la qualité des interactions clients, la performance opérationnelle, l’automatisation et le self-service intelligent. Activités principales Concevoir des architectures de centres de contacts intelligents basées sur Genesys. Définir et mettre en œuvre des solutions de : routage avancé et prédictif, IVR intelligents, workflows d’automatisation intégrant l’IA. Piloter l’intégration de chatbots, assistants virtuels et moteurs NLP dans les parcours clients. Assurer l’intégration de Genesys avec : les systèmes de téléphonie, les CRM, les plateformes d’IA cloud (Google, Azure, IBM Watson, etc.). Contribuer à l’innovation continue via l’introduction de nouvelles fonctionnalités IA/GenAI. Analyser les KPIs , mesurer la performance des solutions et proposer des optimisations. Garantir la conformité aux exigences de sécurité, confidentialité et standards sectoriels . Former et accompagner les équipes locales dans différents pays. Assurer un rôle de référent technique et fonctionnel sur les solutions Genesys & IA. Livrables attendus Solutions Genesys opérationnelles et optimisées intégrant des briques IA. Parcours clients omnicanaux intelligents et automatisés. Documentation technique et fonctionnelle. Rapports de performance et recommandations d’amélioration continue. Supports de formation et transfert de compétences aux équipes locales
CDI

Offre d'emploi
 Développeur Full Stack IA

Publiée le
Angular
CI/CD
Docker

40k-45k €
Paris, France
Télétravail partiel
Redlab cherche pour le compte d'un grand acteur public , un développeur fullstack IA Rôle Conçoit des applications end-to-end intégrant des modèles IA (ML, NLP, LLM). Profil polyvalent : front + back + intégration IA + CI/CD + cloud. Missions clés Développer interfaces front React/Vue/Angular. Concevoir API backend (Node.js, Python, Java, C#). Intégrer des modèles IA via microservices. Déployer en cloud (AWS/GCP/Azure/Outscale). Assurer tests, monitoring, Documentation détaillée Assurer une bonne qualité de code
Freelance

Mission freelance
Architecte Fonctionnel SI - Solution DATA & RGPD(Assurance)

Publiée le
Agile Scrum
Angular
Apache Kafka

12 mois
680-750 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de la transformation du groupe assurance, plusieurs projets stratégiques sont en cours : Nouveau Référentiel Client (point unique de vérité sur clients MM individuels et entreprises) Programme CRM Plateforme Data / IA Refonte et évolution des espaces digitaux Autres projets de transformation SI La Direction de l’Architecture (MH TECH) est composée de 3 départements : Stratégie SI et gouvernance d’architecture Architecture SI Architecture Technique Objectif de la mission : Apporter une expertise en architecture de solution et fonctionnelle , contribuer à la définition des architectures applicatives et assurer un rôle de conseil stratégique auprès des équipes projets. Nature et étendue de la prestation : Le consultant sera amené à : Définir l’architecture applicative cible et les états stables de la solution Rédiger les dossiers d’architecture selon la méthodologie du groupe MH Analyser les demandes d’évolutions applicatives et leurs impacts sur la solution globale Contribuer aux dossiers d’arbitrage pour les décisions sur les évolutions Préparer et alimenter les Comités Solution Définir les interfaces et règles d’interfaçage du SI de gestion et son écosystème Conseiller et valider les choix techniques Identifier et suivre les adhérences entre programmes et projets de transformation Accompagner les projets de la phase de cadrage à la mise en production Assurer la cohérence entre livrables majeurs et projets connexes (spécifications, développement, recette, migration, conduite du changement) Modéliser la cartographie du SI gestion sous HOPEX (vision cible et trajectoire) Taille du projet : Projet de taille moyenne ou ensemble de petits projets Livrables attendus : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution Dossiers d’arbitrage Dossiers d’analyse des adhérences entre programmes et projets de transformation SI Analyses fonctionnelles et/ou applicatives sur thèmes transverses critiques Cartographies applicatives et données sous HOPEX Comptes rendus hebdomadaires Compétences attendues :Fonctionnelles : Connaissance du domaine assurance santé / prévoyance / épargne / retraite Expertise en enjeux digitaux et data Maîtrise des pratiques et méthodologies d’architecture SI : TOGAF, ArchiMate, UML, Zachman, SAFE, SCRUM, RUP Capacité à formaliser et communiquer l’architecture aux parties prenantes Techniques : Technologies digitales : SPA, BFF, Front SPA (Angular), JAVA EE 5-17, Spring Boot, microservices, API REST, Kafka, Kubernetes, OpenShift Sécurité et identité : SSO, OIDC, OAuth2, SAML, France Connect Data & IA : solutions Big Data Open Source, Cloud (Snowflake…), MDM, DQM, data virtualisation, LLM, RAG, Agentique Architecture CQRS et patterns associés, Cloud Ready Gouvernance et architecture data : GDPR, DORA, Observabilité LLM, Data Architecture Outil de référence : MEGA Modélisation de données : MERISE, UML
CDI

Offre d'emploi
 Ingénieur Big Data / Bases de Données

Publiée le
AWS Cloud
BigQuery
Cassandra

40k-54k €
Paris, France
Télétravail partiel
Redlab cherche pour le compte d'un client grand compte , un ingénieur big Data /bases de données Expert des architectures data : bases de données SQL & NoSQL, Big Data, pipelines, gouvernance, performance, sécurité. Missions clés Administrer et optimiser bases SQL & NoSQL. Concevoir pipelines ETL/ELT sur données hétérogènes. Travailler sur Hadoop, Spark, Hive, Delta Lake. Mettre en place partitionnement, Mettre en place sharding, caches. Déployer en cloud (AWS/Azure/GCP). Forte maitrise des Bases de données
CDI
Freelance

Offre d'emploi
Architecte Sécurité & Réseau Cloud - SRE

Publiée le
F5
Openshift

6 mois
40k-80k €
400-550 €
Paris, France
Mission Principale : Vous êtes le garant de la posture de sécurité et de la connectivité de nos plateformes. Vous concevez une architecture "Security by Design" et "Zero Trust", en définissant les patterns de sécurité qui permettent à nos équipes de développer et d'opérer des services fiables et sécurisés à grande échelle. Vous déclinez les exigences de la Securité Fonctionnelle dans le SI Responsabilités Clés : Conception d'Architecture Sécurisée sur le Cloud IBM : Produire les HLD (High-Level Design) et les DAT (Dossier d'Architecture Technique) pour les briques de sécurité (IAM, PKI, gestion des secrets, etc.) et réseau (segmentation, peering, firewalling, WAF). Gestion des Identités et des Accès (IAM) : Définir et implémenter la stratégie de gestion des identités (humaines et machines), les politiques de moindres privilèges et les processus de revue des accès sur IBM Cloud et Keycloack. Gestion des flux Nord-Sud et Est-Ouest : Définir et implémenter une strategie des flux dans le SI entre les différentes applications/Layers Sécurité des Flux et Chiffrement : Établir les standards pour la sécurisation des flux réseaux (mTLS, VPN, etc.) et les politiques de chiffrement des données au repos et en transit. Infrastructure à Clés Publiques (PKI) : Piloter la stratégie de gestion du cycle de vie des certificats pour l'ensemble de nos services en s’appuyant sur Secret Manager ou Hashicorp Vault Patterns & Automatisation : Créer et maintenir les patterns d'architecture de sécurité réutilisables, notamment sous forme de modules IaC, en collaboration avec l'Architecte Infra. Test de Sécurité : Concevoir, planifier et superviser les campagnes de test de Sécurité, de l'hypothèse à l'analyse post-mortem, en collaboration avec les équipes SRE, de développement. Et l’Architecte Resilience IT et Chaos Engineering Veille et Conseil : Agir en tant qu'expert et conseiller auprès du Leader des Architectes Sécurité sur les menaces et les stratégies de mitigation. Compétences et Profil Recherché : Connaissance technique indispensable : IBM Cloud, Haschicorp, HSM Thalès, Openshift, Istio, SPIRE, Secret Manager, F5, IPS/IDS, ALB, HPCS, Keycloack, Directlink, Keyprotect, Workload Protection Expertise technique : Maîtrise des services de sécurité des principaux fournisseurs cloud (IBM plus GCP ou Azure), des concepts Zero Trust, des protocoles réseau (TCP/IP, BGP), des WAF. Automatisation : Expérience significative avec des outils d'IaC (Terraform) pour l'implémentation de contrôles de sécurité ainsi des outils tel que IBM Workload Protection pour automatiser les contrôles. Qualités personnelles : Rigueur, esprit d'analyse, pragmatisme, excellentes capacités de communication pour vulgariser des sujets complexes. Expérience : 8+ ans d'expérience dont une part significative dans l'architecture de sécurité pour des environnements cloud critiques.
Freelance
CDD

Offre d'emploi
NV - Expert NSX-T ACI

Publiée le
Cisco ACI
Cloud
Data Center

3 mois
Paris, France
Télétravail partiel
Bonjour Je recherche un expert sur NSX-T et Cisco ACI. L'expert réseau et cloud confirmé (8+ ans) doit etre capable de piloter des projets d’architecture et de transformation à l’international. Le profil doit maîtriser NSX-T, ACI, l’automatisation (Terraform, Ansible, Python) ainsi que connaitre les environnements cloud (AWS, Azure ou GCP). Compétences obligatoires : Vmware NSX-T Cisco ACI Expériences Data Center Connaissances cloud Bon niveau d'anglais PARLE et ECRIT Démarrage : asap Lieu: Paris avec 2 jours de télétravail par semaine Durée : 3 mois renouvelable Pour tout intéret, merci de m'envoyer votre cv à jour. NV
133 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous