L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 125 résultats.
Mission freelance
Concepteur Développeur Big Data
Publiée le
Apache Spark
AWS Cloud
Azure
12 mois
400 €
Courbevoie, Île-de-France
Télétravail partiel
Mission Concepteur Développeur Big Data – Société de l'Énergie Localisation : Courbevoie (3 jours/semaine sur site) Tarif max : 400€/jour Démarrage : 05/01/2026 Durée : 12 mois (fin 04/01/2027) – prolongeable Expérience requise : 4-5 ans minimum Prestations principales : Analyse besoins RH/Finance + rédaction spécifications techniques Conception/développement pipelines ETL/ELT (Spark, Hadoop, Databricks, Snowflake) Intégration sources données/API + contrôle qualité Déploiement cloud (AWS/Azure/GCP) ou clusters Hadoop/Spark Optimisation performances (partitionnement, tuning clusters) Tests unitaires/intégration + revues code Maintenance évolutive, support incidents, veille techno Compétences obligatoires : Big Data, Hadoop, Spark, Python PostgreSQL, Databricks Livrables : Spécifications techniques + diagrammes Code source/scripts + tests complets Documentation exploitation + rapports performances Plan déploiement/rollback Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance . Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop) , les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP) , afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.
Mission freelance
Expert Infrastructure Virtualisation
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
2 ans
650-680 €
Noisiel, Île-de-France
Télétravail partiel
Mission : La prestation d’expertise technique et fonctionnelle vise à couvrir les activités de conception et d’architecture des infrastructures virtuelles du client, d’expertise technique et de support niveau 3 de ces dernières, ainsi que les activités d’automatisation des procédures et process. Une répartition des prestation est possible entre les expertises sur les « infrastructures virtuelles » et celles « Devops » orientés sur l’automatisation. Plusieurs niveaux de qualification peuvent être attendus : Expertise technique et fonctionnelle de niveau Avancé Expertise technique et fonctionnelle de niveau Expert
Offre d'emploi
Ingénieur DevOps GCP/MLOps
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
MLOps
1 an
48k-50k €
480-510 €
Île-de-France, France
Télétravail partiel
Dans le cadre de projets stratégiques orientés Data & Intelligence Artificielle, nous recherchons un Ingénieur DevOps GCP/MLOps intervenant sur l’ensemble du cycle de vie des solutions : design, build et run . Vous intégrerez une équipe dédiée au périmètre DATA, en collaboration étroite avec les squads métiers. ✅ Vos missions Conception, gestion et automatisation d’infrastructures Cloud sur GCP Mise en place et optimisation de chaînes MLOps : collecte et préparation de la donnée, feature engineering, entraînement, déploiement, monitoring et amélioration des modèles Industrialisation des pipelines CI/CD et automatisation des déploiements Maintien en condition opérationnelle des plateformes et applications Gestion du cycle de vie applicatif Analyse et résolution d’incidents d’infrastructure Rédaction des procédures et documentation technique ✅ Profil recherché Expérience confirmée en tant qu’Ingénieur DevOps ou MLOps sur GCP (obligatoire) Maîtrise de Terraform (y compris en environnement restreint / air-gapped idéalement) Solides compétences en scripting, automatisation et normalisation Connaissance des pratiques CI/CD, observabilité et monitoring Capacité à intervenir en production (MCO / MEP) ✅ Environnements techniques Cloud : GCP (AWS apprécié) MLOps / IA : Kubeflow, TensorFlow, PyTorch, notebooks, Python Containerisation & orchestration : Kubernetes, Docker, ArgoCD, EKS (atout) CI/CD : Jenkins, Helm, Artifactory, Container Registry IaC : Terraform Monitoring & logs : ELK, OpenSearch, Grafana, Cloud Monitoring / Logging ✅ Soft Skills Rigueur, autonomie et sens du service Aisance relationnelle et travail en équipe Réactivité, partage et communication Gestion du stress et capacité de conseil
Mission freelance
Expert Python Lead MLOps AZURE - Spécialiste IA/RAG La Défense (92)
Publiée le
Azure
Python
1 an
750 €
Paris, France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure Obligatoire Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP Profil du candidat Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing Azure - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Description de l‘entreprise Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Offre d'emploi
chef de projet technique - move to cloud
Publiée le
Azure
CI/CD
Pilotage
6 mois
Paris, France
Télétravail partiel
Appel d’offres – Chef de Projet Move To Cloud (Technico-Fonctionnel) 1. Contexte de la mission Dans le cadre d’un programme de transformation numérique, notre client, une mutuelle , lance un projet de migration Move To Cloud portant sur un périmètre d’environ cinquante applications . L’objectif principal est le pilotage opérationnel de la migration des applications vers le cloud, sans mission d’urbanisme ni de conception d’architecture. 2. Objectifs de la mission Le Chef de projet Move To Cloud interviendra sur : Le pilotage global du projet de migration des applications La coordination des équipes techniques et métiers Le suivi des plannings, des risques et des livrables La gestion des mises en production Le reporting projet auprès des parties prenantes 3. Périmètre et responsabilités Pilotage de projets de migration Move To Cloud (environ 50 applications) Coordination des différents acteurs (équipes infra, applicatives, métiers, prestataires) Organisation et animation des comités projet Suivi des processus de mise en production Supervision des chaînes CI/CD Suivi de la performance et de la stabilité via des outils de monitoring (Dynatrace ou équivalent) Gestion des risques, dépendances et arbitrages Documentation et communication projet Nota : Aucun travail d’urbanisme ou d’architecture n’est attendu. Le poste est orienté exclusivement pilotage et coordination . 4. Profil recherché Compétences et expériences Chef de projet technique confirmé Expérience avérée dans le pilotage de projets Move To Cloud sur un volume significatif d’applications Expérience sur Azure ou autre environnement cloud (AWS, GCP) Bonne compréhension des environnements techniques applicatifs Maîtrise des processus de mise en production Connaissance des pratiques CI/CD Expérience avec des outils de monitoring (Dynatrace ou équivalent) Environnement Une expérience dans le secteur de l’assurance ou de la mutuelle est un plus (non bloquant) Anglais technique requis
Mission freelance
Architecte Sécurité Senior SI, Cloud/On premise - Paris - Vorstone
Publiée le
Architecture
AWS Cloud
Azure
1 an
700-900 €
Paris, France
Télétravail partiel
Vorstone recherche un profil d'Architecte Sécurité H/F pour un client grand group basé à Paris Présentation du groupe Le groupe est un leader mondial. Il propose des solutions innovantes reposant sur des technologies en amélioration continue, et produit. Afin de répondre aux besoins de ses clients, l’organisation est structurée en lignes de métier mondiales : Industriel Marchand, Grande Industrie, Électronique, Santé et Ingénierie/Construction. Descriptif de l’entité L’entité concernée est le centre de services partagés global chargé de fournir les services d’infrastructure IT aux différentes DSI métier internes . La transformation IT opérée en 2014 a conduit à la création de ce centre ainsi qu’à la structuration des DSI métiers. Les lignes de service couvertes sont les suivantes : ● Poste de travail utilisateur ● Services Cloud ● Sécurité & Conformité ● Infrastructure Sites ● Architecture & Projets Transverses L’organisation entre maintenant dans une nouvelle phase de transformation visant une structure plus efficace et simplifiée, avec déploiement progressif d’un nouveau modèle jusqu’en 2026. Les lignes de service sont désormais regroupées en trois catégories correspondant aux étapes du cycle de gestion des services : ● Plan & Control (Gouvernance & Service Management) ● Design & Build (Ingénierie & Innovation) ● Deploy & Operate (Transition & Opérations) Les priorités actuelles portent sur : ● Cloud & Plateformes : introduction de GCP comme nouveau fournisseur cloud, en complément d’AWS et Azure. ● Cybersécurité : repositionnement de la ligne de service “Sécurité & Conformité”, nouvelle feuille de route sécurité (plateforme unifiée CSIRT…) et focus sur les solutions CNAPP, CSPM, CIEM, CWPP. ● Innovation : exploitation des capacités Gemini pour les utilisateurs. ● Efficacité opérationnelle : harmonisation ServiceNow, optimisation des processus et rationalisation des fournisseurs (MSP cloud, NOC/SOC, service desk). Missions L’Architecte Sécurité rejoindra l’équipe “ Sécurité & Conformité – Ingénierie & Innovation ” et apportera son expertise pour concevoir et déployer des architectures de sécurité dans un environnement majoritairement cloud public (AWS, GCP, Azure), tout en prenant en compte les infrastructures on-premise et les contraintes spécifiques à certains pays et activités. 1/ Concevoir et déployer des solutions de sécurité ● Rôle de chef de projet et architecte sécurité pour la conception et le déploiement de services de sécurité dans un contexte en constante évolution (organisation, politiques, menaces, outillage). ● Documentation et maintien de la connaissance du portefeuille de solutions de sécurité. ● Référent sur l’ingénierie des services de sécurité de son périmètre. ● Intégration des exigences et tests de sécurité dans les backlogs projets. ● Proposition de solutions pour assurer la conformité aux référentiels internes d’infrastructure. 2/ Intégrer la sécurité dans les projets et services ● Promotion de l’approche Secure by Design . ● Réalisation d’analyses de risques techniques. ● Conseil et support aux équipes sur les aspects sécurité. ● Identification et formalisation des actions de sécurité, avec suivi associé. 3/ Définir les standards de sécurité ● Contribution aux politiques et standards sécurité du groupe. ● Participation à la définition et à l’automatisation des contrôles de conformité et indicateurs sécurité.
Offre d'emploi
Architecte Solution
Publiée le
API
AWS Cloud
ETL (Extract-transform-load)
1 an
La Défense, Île-de-France
Télétravail partiel
Contexte de mission Renfort ponctuel suite au changement de poste de l’Architecte Solution Integration. Participation à un programme stratégique international visant à consolider et moderniser les solutions d’intégration data & applicatives du groupe. L’Architecte Solution Integration interviendra dans le cadre du programme stratégique de globalisation, rationalisation et modernisation des solutions d’intégration du groupe. Sous la responsabilité du Directeur Integration Platform et du manager de programme, il aura pour missions : Rôle & Responsabilités : Analyse & Cadrage Architecture & Design Authority Documentation & Gouvernance Innovation & Expertise
Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Mission freelance
Data Engineer H/F
Publiée le
Azure
3 ans
Île-de-France, France
Description : Livrables : • Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. • Analyser et interpréter des données complexes afin d’en extraire des informations exploitables. • Collaborer avec des équipes inter fonctionnelles pour identifier et résoudre les défis liés aux données. • Développer et maintenir des pipelines de données, des modèles et des outils de reporting. • Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. • Fournir une expertise technique et des conseils aux parties prenantes pour soutenir les prises de décisions fondées sur les données. Expertise : • Diplôme de niveau Bachelor ou Master en informatique, data science ou domaine connexe. • Plus de 5 ans d’expérience en data engineering, data analytics ou rôle similaire. • Expérience avérée dans la livraison de solutions data dans un environnement dynamique. • Maîtrise des technologies et architectures data modernes, telles que les plateformes cloud, les frameworks big data et les solutions de data warehousing. • Expertise en langages de programmation tels que Python, SQL et Spark. • Maîtrise de la modélisation de données, des processus ETL et des techniques de transformation de données. • Expertise des plateformes cloud orientées data (ex. : AWS, Azure, Google Cloud). • Maîtrise des outils de visualisation et de reporting (ex. : Power BI, Tableau). • Connaissance approfondie des bonnes pratiques en matière de sécurité, gouvernance et conformité des données.
Offre d'emploi
Data Architecte - Lyon
Publiée le
AWS Cloud
Azure
Databricks
60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Data Engineer Databricks - Paris
Publiée le
AWS Cloud
Azure
Databricks
50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Chef de projet technique Data plateforme - Nantes
Publiée le
Agile Scrum
AWS Cloud
Azure
1 an
400-550 €
Nantes, Pays de la Loire
Tâches : Cadrer les différents travaux à réaliser en apportant un regard externe en mettant en lumière les éléments suivants : Besoins utilisateurs et cas d’usage Identification des données Schéma d’architecture Solutions intermédiaire et cible, chiffrées Exigences relatives à la gouvernance des données et à la conformité (cyber, …) Trajectoire de mise en œuvre • Piloter et coordonner les différents interlocuteurs intervenant dans le projet de mise en œuvre de la plateforme Data, de la phase de conception à la mise en production. • Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Analysts, Product Owners, Architectes, equipe Data métier et spécialisées…). • Garantir la qualité, la cohérence et la disponibilité des données nécessaires au pilotage e-business. • Définir et suivre le backlog produit Data en lien avec les équipes métier et techniques. • Piloter la réalisation à l’aide des outils internes (Jira Align). Attendu : Accompagner la mise en place d’une plateforme Data au service du pilotage e-business d’une entité spécialisée dans l’accélération digitale et e-business. Vous interviendrez en tant que Chef de projet technique Data, au sein d’une organisation agile et transverse, pour coordonner et piloter la construction, l’intégration et la mise à disposition d’une solution Data.
Offre d'emploi
DevOps Infrastructure – Spécialisation Agentic AI & LLM (H/F)
Publiée le
AI
Ansible
AWS Cloud
3 ans
61k-67k €
530-640 €
Île-de-France, France
Télétravail partiel
Nous recrutons un profil DevOps expérimenté pour intervenir sur des environnements innovants autour des agents autonomes (Agentic AI) et des modèles de langage (LLM). Vous participerez à la conception, au déploiement et à l’expérimentation de POC avancés visant à améliorer la supervision, l’automatisation et la résolution proactive d’incidents au sein d’infrastructures complexes. Le poste s’inscrit dans une démarche agile, collaborative et orientée industrialisation. Missions Concevoir et gérer des environnements d’expérimentation Kubernetes/Docker, intégrés à des pipelines CI/CD (Jenkins, GitLab CI, ArgoCD). Automatiser la collecte, la préparation et l’exploitation de datasets d’infrastructure (logs, CMDB, monitoring) pour alimenter des agents IA basés sur LLM. Développer et intégrer des pipelines de déploiement d’agents IA (LangChain, AutoGen, équivalents). Mettre en place des scripts/tools d’automatisation (Python, Bash, Go) pour l’orchestration et le monitoring. Garantir la sécurité des développements et déploiements (DevSecOps, SAST/DAST, gestion des accès, RGPD). Produire la documentation technique et les livrables nécessaires à une future industrialisation. Assurer une veille active sur les évolutions LLM, architectures agentiques et outils d’automatisation. Compétences techniques requises Systèmes & Réseau Maîtrise avancée Linux/Unix Solides bases réseaux (TCP/IP, HTTP, DNS, VPN) Cloud & IaC AWS, Azure ou GCP Terraform, Pulumi ou CloudFormation Conteneurisation & Orchestration Docker, Kubernetes, Helm CI/CD Jenkins, GitLab CI, ArgoCD Automation / Config Management Ansible, Puppet, Chef Langages Python (niveau avancé) Bash, Go (appréciés) Monitoring & Logging Prometheus, Grafana, ELK Stack Sécurité / DevSecOps SAST/DAST (SonarQube, Snyk, Aqua Security) Conformité RGPD
Mission freelance
H/F - Architecte VMware NSX-T
Publiée le
Ansible
Architecture
AWS Cloud
3 mois
550-700 €
Paris, France
Télétravail partiel
Au sein du département Network Product , la ligne de produits Data Center & Cloud est responsable de la gestion des infrastructures réseau de Data Centers et d’environnements Cloud. Cela comprend les routeurs, commutateurs, load balancers, accès Internet, interconnexions de Data Centers, backbone DWDM , ainsi que les environnements réseau Cloud (AWS, Azure, Google Cloud, Intercloud). Les services d’ingénierie associés couvrent la conception, la mise en œuvre et le support des produits et solutions réseau, dans le cadre du programme One Network visant à harmoniser et moderniser les infrastructures. Les principales missions sont : Contribuer à l’évolution à moyen et long terme des produits et à leur amélioration continue. Assurer le conseil, la sélection, la conception, la construction sécurisée et l’intégration des solutions réseau concernées. Faciliter la communication et la coordination entre les équipes fonctionnelles, les partenaires stratégiques et les fournisseurs. Garantir la qualité de service (QoS) dans la livraison et le support des solutions. Fournir une expertise technique de haut niveau sur les produits et services du périmètre.
Offre d'emploi
Ingénieur Réseau Sécurité (H/F)
Publiée le
Alcatel
AWS Cloud
Cloud
12 mois
40k-45k €
450 €
Île-de-France, France
Télétravail partiel
Nous recherchons, pour l’un de nos clients grands comptes, " un(e) Ingénieur Réseau Sécurité (H/F) " Missions principales : Maintenir et faire évoluer les services réseau et sécurité du catalogue SITT. Assurer le maintien en condition opérationnelle (MCO) des services, en respectant les SLA. Gérer les fournisseurs, coordonner les équipes internes et piloter les projets d’évolution. Industrialiser et automatiser les services (ex. déploiement load balancing, firewalling). Assurer la supervision des services (Zabbix) et la gestion de l’obsolescence. Réaliser un reporting régulier sur l’activité et la capacité des services. Assurer la documentation technique et le transfert de compétences. Participer à la comitologie projets et définir les charges et plannings.
Offre d'emploi
Ingénieur Big Data / Bases de Données
Publiée le
AWS Cloud
BigQuery
Cassandra
40k-54k €
Paris, France
Télétravail partiel
Redlab cherche pour le compte d'un client grand compte , un ingénieur big Data /bases de données Expert des architectures data : bases de données SQL & NoSQL, Big Data, pipelines, gouvernance, performance, sécurité. Missions clés Administrer et optimiser bases SQL & NoSQL. Concevoir pipelines ETL/ELT sur données hétérogènes. Travailler sur Hadoop, Spark, Hive, Delta Lake. Mettre en place partitionnement, Mettre en place sharding, caches. Déployer en cloud (AWS/Azure/GCP). Forte maitrise des Bases de données
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
125 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois