L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 889 résultats.
Mission freelance
Chef de projet & Expert Cybersécurité (H/F)
Cherry Pick
Publiée le
Active Directory
Active Directory Domain Services (AD DS)
AWS Cloud
12 mois
600-660 €
Paris, France
Contexte Dans le cadre du renforcement de ses obligations réglementaires et normatives en matière de sécurité des systèmes d’information (ANSSI – OSE, directive NIS/NIS2, norme ISO/IEC 27001), notre client recherche un Expert Cybersécurité & Responsable de Projets Techniques afin d’assurer le pilotage de projets stratégiques liés à la sécurisation des infrastructures Systèmes, Réseaux et Cloud. L’environnement est critique et fortement réglementé. Objet de la mission Assurer le pilotage, la coordination et la mise en œuvre opérationnelle de projets de cybersécurité, en environnements on-premise et Cloud , en lien avec les équipes techniques, sécurité, RSSI et directions métiers. Missions principales 1. Pilotage de projets cybersécurité Planifier et piloter les projets sécurité Superviser les chantiers de sécurisation des infrastructures Coordonner équipes internes et prestataires Animer les comités techniques et comités de pilotage (COPIL) Assurer le suivi des plans de remédiation suite audits (ANSSI, OSE, NIS2…) Produire les supports de pilotage et reporting Accompagner les audits de sécurité Exemples de projets confiés : Pilotage de plans de remédiation sécurité Mise en œuvre de fédérations d’annuaires Segmentation et cloisonnement réseau Mise en œuvre d’architectures réseau et sécurité Déploiement de bastion d’administration Sécurisation de services Web Préparation et suivi des audits de sécurité 2. Expertise technique attendueSécurité Réseau & Infrastructures Pare-feu, segmentation, cloisonnement, durcissement IDS / IPS Bastion d’administration Sécurisation des flux IAM / Gestion des identités IAM et gouvernance des identités MFA, SSO, fédération Active Directory / Azure AD / LDAP Durcissement AD PKI & Certificats Gestion de certificats Chaînes de confiance Gouvernance PKI Sécurité Cloud Azure / AWS / GCP DevSecOps (CI/CD sécurisé, Infrastructure as Code) Bonnes pratiques Cloud Security 3. Reporting & Gouvernance Production d’indicateurs sécurité Analyse et synthèse des risques Support aux comités SSI Alignement avec les exigences réglementaires (ANSSI, NIS2, RGS) Contribution à la conformité ISO/IEC 27001
Offre d'emploi
Expert DBA SQL Server / Cloud Azure
Gentis Recruitment SAS
Publiée le
Azure
Azure DevOps
Database
12 mois
Paris, France
Contexte de la mission Au sein de la DSI du client, l’équipe DBA intervient sur l’architecture, le build et le maintien en condition opérationnelle des bases de données utilisées par différentes applications critiques. Dans un contexte cloud first , l’environnement évolue progressivement vers des solutions Azure et AWS , avec une forte composante SQL Server sur Azure . Le consultant interviendra au sein d’une équipe DBA et collaborera étroitement avec les équipes infrastructure, développement et opérations afin d’accompagner les projets techniques et garantir la disponibilité des environnements de bases de données. Missions principales Le consultant interviendra notamment sur les activités suivantes : • Assurer l’architecture, le déploiement et l’administration des bases de données SQL Server • Maintenir et optimiser les environnements de bases de données en production • Participer à la mise en place et à l’amélioration des solutions d’infrastructure database • Accompagner les équipes de développement dans l’optimisation et l’évolution des bases de données • Mettre en œuvre des architectures haute disponibilité (clusters SQL Server, failover, Always On) • Automatiser les déploiements et l’administration via scripting et outils DevOps • Participer à l’amélioration continue des processus d’infrastructure et d’exploitation • Rédiger la documentation technique (architecture, HLD / LLD, procédures) • Contribuer aux projets d’évolution vers les services PaaS database dans le cloud Environnement technique Bases de données SQL Server (principal) PostgreSQL MongoDB Oracle Cloud Azure AWS Infrastructure Windows Server SQL Server clusters / Always On Environnement hybride On-premise / Cloud Automatisation et DevOps Azure DevOps CI/CD Bicep Scripting PowerShell Python Bash Monitoring Zabbix Prometheus Grafana
Offre d'emploi
Expert·e Virtualisation
Blue Soft
Publiée le
25k-70k €
Paris, France
Pour le compte de l'un de nos clients grands compte, nous recherchons un·e Ingénieur·e, Expert·e virtualisation VmWare, Nutanix, HyperV ! CDI uniquement. En tant qu'expert·e virtualisation, vous serez amené·e à réaliser les activités suivantes: - Administrer, exploiter, et maintenir en conditions opérationnelles les infrastructures virtualisées On Premise et/ou dans le Cloud - Assurer le bon fonctionnement des architectures en place - Gérer le capacity planning - Etudier et implémenter les campagnes de mise à jour des composants en concordance avec les matrices éditeurs - Assurer le support N3 et des astreintes (suivant mission/client) - Assurer le suivi, le monitoring et le reporting des plateformes en place avec les outils comme Skyline, vRealize ou Aria - Analyser et comprendre l'origine d'un dysfonctionnement dans le cas d'un incident. - Contribuer à la démarche d'amélioration continue en proposant des axes d'amélioration - Rédiger les documentations techniques (documents d'architecture ou d'exploitation...) Environnement technique : - Virtualisation : VSphere, ESXi, VCenter, VSAN, AHV, prisme central - Plateforme : HPe Synergy, Dell Open Manage, Nutanix - Nice to have : VRealize et/ou ARIA
Offre d'emploi
Ingénieur·e Sécurité Opérationnelle / SecOps H/F
CONSORT GROUP
Publiée le
75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Ingénieur·e Sécurité Opérationnelle / SecOps H/F C’est votre mission VVous êtes passionné·e par la sécurité opérationnelle des systèmes d’information ? Ce poste est fait pour vous. En tant qu’ Ingénieur·e Sécurité Opérationnelle / SecOps , vous êtes responsable de la protection , de la sécurisation et de la supervision de notre écosystème SI, dans un contexte critique santé . Côté build : Déployer, administrer et faire évoluer les solutions de sécurité endpoints (Trend Micro) Mettre en place et renforcer les politiques de sécurité des accès utilisateurs et distants (Zscaler) Contribuer à la protection et à la gouvernance des données sensibles (Varonis) Améliorer en continu les règles de sécurité et de détection Accompagner les équipes infrastructure, réseau et poste de travail dans l’intégration des bonnes pratiques sécurité Côté run : Traiter les incidents de sécurité (N2 / N3) Analyser, qualifier et prioriser les alertes de sécurité Mettre en œuvre les actions de remédiation et les correctifs nécessaires Assurer la supervision avancée et la détection proactive des anomalies (Superna / Eyeglass) Maintenir le niveau de conformité attendu dans le secteur santé Contribuer aux audits de sécurité et aux exigences réglementaires Assurer un reporting clair et structuré en contexte critique C’est votre parcours Vous avez au moins 3 à 6 ans d’expérience en sécurité opérationnelle / SecOps / SOC , dans des environnements exigeants. Vous aimez intervenir sur des sujets concrets, analyser, corriger et améliorer en continu. Vous recherchez un environnement où la rigueur , l’ autonomie et la collaboration sont essentielles. C’est votre expertise : Sécurité opérationnelle / SecOps / SOC Trend Micro Zscaler Varonis Superna (Eyeglass) Environnements postes de travail et serveurs Dell C’est votre manière de faire équipe : Rigueur et sens des responsabilités Esprit d’analyse et capacité à gérer les situations critiques Autonomie et pragmatisme Bonne communication, notamment en environnement santé Esprit collaboratif et sens du service C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Paris 5ième Arrondissement Contrat : CDI Télétravail : Oui Salaire : De 55 K€ à 65 K€ (selon expérience) brut annuel Famille métier : Sécurité opérationnelle / SecOps / Systèmes Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
DATA MESH PLATFORM MANAGER SENIOR F/H
SMARTPOINT
Publiée le
AWS Cloud
Azure
CI/CD
12 mois
100-600 €
Île-de-France, France
Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform – GDP) comme un produit interne, en garantissant : Sa livraison technique Son adoption à l’échelle de l’entreprise Son excellence opérationnelle Son amélioration continue RESPONSABILITÉS CLÉSConstruction et Livraison de la Plateforme (Responsabilité principale)1. Responsabilités Concevoir et implémenter l’architecture de la plateforme Data Self-Service Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité, accès self-service) Définir et faire respecter les standards techniques et les patterns d’architecture Garantir la scalabilité, la performance et la sécurité Prendre des décisions techniques hands-on et valider les solutions 2. Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme Architecture Cloud et Infrastructure3. Responsabilités Piloter la conception et l’exploitation d’architectures cloud et hybrides avec le Group Data Architect Coordonner avec l’équipe Group Data Delivery l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Piloter l’automatisation et l’Infrastructure as Code Garantir les exigences de sécurité et de conformité 4. Livrables attendus Blueprint d’architecture cloud (avec le Group Data Architect) Framework de sécurité et de gestion des accès Pilotage Delivery & Exécution5. Responsabilités Être responsable du cycle de vie de livraison de la plateforme Définir le backlog et le processus de priorisation Gérer les releases et les déploiements en production Suivre la performance et la fiabilité Gérer les risques et incidents techniques 6. Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et gestion des versions Dashboards de suivi delivery Indicateurs SLA / métriques de fiabilité Déploiement & Adoption par les Domaines7. Responsabilités Déployer la plateforme dans les différents domaines métiers Permettre aux équipes domaine de construire leurs data products Déployer le modèle opérationnel Data Mesh Accompagner l’onboarding et l’adoption Résoudre les problématiques d’adoption opérationnelle 8. Livrables attendus Framework et processus d’onboarding des domaines Guidelines du cycle de vie des data products Playbooks d’accompagnement des domaines Indicateurs d’adoption et d’usage Supports de formation et documentation d’onboarding Product Management (orienté usage) & Amélioration Continue9. Responsabilités Recueillir les besoins utilisateurs et exigences plateforme Définir la vision produit et la roadmap Mesurer l’usage et la création de valeur Améliorer l’expérience développeur et utilisateur 10. Livrables attendus Vision produit et proposition de valeur KPIs plateforme et métriques d’adoption Boucles de feedback utilisateur et backlog d’amélioration Roadmap d’évolution de la plateforme Documentation, Standardisation & Gouvernance11. Responsabilités Documenter les capacités et processus de la plateforme Garantir la conformité avec la gouvernance fédérée des données du Groupe 12. Livrables attendus Référentiel documentaire de la plateforme Standards techniques et guides d’implémentation Framework de gouvernance et conformité Playbooks de bonnes pratiques Communication Opérationnelle & Reporting Exécutif13. Responsabilités Communiquer sur l’avancement et l’impact de la plateforme Fournir un reporting de niveau exécutif Assurer l’alignement des parties prenantes 14. Livrables attendus Dashboard exécutif du projet Dashboards de performance plateforme Présentations en comité de pilotage Suivi des décisions, risques et incidents Promotion Interne & Évangélisation15. Responsabilités Promouvoir la valeur de la plateforme dans l’organisation Soutenir les initiatives d’adoption interne Construire une communauté plateforme 16. Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations plateforme et portfolio de cas d’usage Expérience requise Minimum 15 ans d’expérience en data platform, data engineering ou architecture Expérience prouvée dans la construction et livraison de plateformes data en production Forte expérience hands-on en delivery technique Expérience en platform engineering ou data engineering avancé Expérience en environnement grand groupe ou multi-entités Expérience pratique du Data Mesh obligatoire Compétences techniquesArchitecture & Engineering Architecture data distribuée Conception de systèmes distribués Infrastructure as Code Pratiques DevOps / DataOps / CI/CD Ingénierie performance et scalabilité Cloud & Infrastructure Expertise avancée AWS et Azure Architectures hybrides et on-premise Sécurité et gouvernance cloud Plateforme Data Data products & gestion du cycle de vie Pipelines et orchestration Gestion des métadonnées et catalogues Frameworks de gouvernance data Observabilité data Product & Delivery Approche produit appliquée aux plateformes techniques Gestion roadmap & backlog Méthodologies Agile Développement orienté valeur Soft Skills critiques Leadership technique et opérationnel fort Orientation exécution et delivery Capacité à intervenir de manière hands-on dans des environnements complexes Excellente communication transverse Sens fort de la responsabilité Esprit analytique et pragmatique Capacité d’influence sans autorité hiérarchique directe Vision stratégique avec focus opérationnel Gestion des parties prenantes au niveau exécutif et opérationnel Anglais courant obligatoire (écrit et oral) Indicateurs de succès Plateforme livrée et opérationnelle en production Adoption par les domaines métiers Nombre et qualité des data products déployés Fiabilité et performance de la plateforme Satisfaction et usage des utilisateurs Réduction du time-to-market des cas d’usage data
Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st
WorldWide People
Publiée le
DevSecOps
12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
Mission freelance
Consultant.e VMWare F/H
METSYS
Publiée le
Powershell
VMware NSX
1 an
580-600 €
Paris, France
METSYS est un intégrateur de solutions Cloud, Microsoft et Cybersécurité. Pour l'un de nos clients grands-comptes, de forte notoriété dans son secteur, nous recherchons un.e Consultant.e VMWare F/H pour un démarrage le 13 mars à Paris 13ème arrondissement. Dans le cadre de cette mission, vous aurez notamment en charge les sujets suivants : Accompagner la croissance des métiers tout en optimisant les plateformes de Virtualisation dans un environnement complexe ; Contribuer aux projets techniques et métiers en collaboration avec les équipes réseaux, stockage et DevOps ; Elaborer et mettre en œuvre des solutions d'industrialisation et d'automatisation ; Déployer et maintenir des infrastructures de virtualisation ESXi, VCF, NSX, VSAN ; Support N3 auprès des équipes serveurs ; Effectuer le MCO des plateformes de virtualisation NSX, VSAN, ESXi ; Gérer les changements ; Traiter les incidents et les demandes ; Résoudre les problèmes.
Mission freelance
Expert Observabilité Datadog
Comet
Publiée le
AWS Cloud
Datadog
Grafana
12 mois
400-550 €
Île-de-France, France
Compétences techniques : Datadog - Expert - Impératif Cloud AWS - Confirmé - Important Prometheus/Grafana - Confirmé - Important Vos principales missions : Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
Offre d'emploi
Ingénieur DevOps IA
VISIAN
Publiée le
Linux
Python
Terraform
1 an
40k-45k €
400-740 €
Paris, France
Descriptif du poste Au cœur du AI Innovation Lab d'un groupe bancaire international multi‑entités, vous aurez pour mission de concevoir, déployer et expérimenter des Proof‑of‑Concept (POC) innovants autour des agents autonomes et des modèles de langage (LLM) appliqués aux jeux de données d'infrastructures IT. L'objectif : fournir des aides intelligentes à la production, faciliter la supervision, l'automatisation et la résolution proactive d'incidents. Le poste s'inscrit dans une démarche agile, collaborative et orientée industrialisation à terme. Missions principales Concevoir et gérer des environnements d'expérimentation Kubernetes/Docker avec intégration CI/CD (Jenkins, GitLab CI/CD, ArgoCD). Automatiser la collecte, la pré‑traitance et l'exploitation des datasets d'infrastructure (logs, CMDB, monitoring) pour entraîner et alimenter des agents basés sur LLM. Développer et intégrer les pipelines de déploiement d'agents IA en collaboration avec les data‑scientists et ingénieurs IA (utilisation de LangChain, AutoGen ou équivalents). Implémenter des scripts et outils en Python, Bash, Go pour l'automatisation des tâches infra, l'orchestration et le monitoring. Garantir la sécurité du développement et des déploiements dans un environnement réglementé : DevSecOps, outils SAST/DAST, gestion des accès, conformité RGPD. Produire la documentation technique des POC, rédiger les spécifications d'industrialisation pour les équipes produit. Assurer une veille technologique continue sur les évolutions des architectures agentiques, LLM et de l'automatisation infra. Compétences techniques clés Systèmes d'exploitation : Maîtrise avancée de Linux/Unix et des concepts réseaux (TCP/IP, HTTP, DNS, VPN). Cloud & IaC : AWS, Azure, GCP – Terraform, Pulumi, CloudFormation. Conteneurisation & orchestration : Docker, Kubernetes, Helm. CI/CD : Jenkins, GitLab CI, ArgoCD. Automation configuration : Ansible, Puppet, Chef. Langages : Python (expert), Bash, Go (appréciés). Monitoring & logging : Prometheus, Grafana, ELK Stack. Sécurité & conformité : DevSecOps, gestion des vulnérabilités (SonarQube, Snyk, Aqua Security), conformité RGPD.
Mission freelance
Expertise sécurité Azure / Palo Alto / F5
CS Group Solutions
Publiée le
Azure
6 mois
Paris, France
Nous recherchons un Expertise Azure et Palo Alto/ F5 Compétences techniques Azure - Expert - Important Palo Alto - Confirmé - Important F5 - Confirmé - Important Description détaillée Mission d’expertise technique pour l’ouverture urgente d’une application du client sur Internet via l’infrastructure Azure. L’expert doit maîtriser pleinement les composants de sécurité en cours de déploiement : Le livrable est - Compétences techniques Palo Alto (workloads) F5 Azure DNS Azure Firewall Environnement Microsoft Azure
Offre d'emploi
Développeur Node.js F/H
ADDIXWARE
Publiée le
AWS Cloud
Front-end
JavaFX
1 an
Nice, Provence-Alpes-Côte d'Azur
Poste en télétravail intégral, axé sur le développement de modules applicatifs disposant d'interfaces utilisateurs avancées et d'une forte composante cloud. L'environnement technique repose sur des architectures déployées sur AWS, avec une infrastructure automatisée et isolée pour chaque client. Missions - Développement de fonctionnalités front-end et back-end sur une plateforme en Node.js / TypeScript - Création et amélioration d'interfaces utilisateurs permettant la génération et la gestion de contenus structurés - Participation à la conception et au maintien d'infrastructures cloud sur AWS - Mise en place et évolution d'infrastructure mono-tenant pour chaque client, avec mutualisation partielle des composants - Déploiement d'applications conteneurisées via Docker et orchestrées avec ECS - Automatisation des déploiements et de l'infrastructure via Terraform Environnement technique - Langages : Node.js, TypeScript, Angular - Cloud : AWS (ECS, Lambda, S3, etc.) - Conteneurisation : Docker - Infrastructure as Code : Terraform - Architecture : mono-tenant, multi-infra client - Méthodologie : Agile / CI-CD
Offre d'emploi
Ingénieur Data Event Management
VISIAN
Publiée le
Apache Kafka
Java
Python
1 an
40k-45k €
230-540 €
Paris, France
Intégration au sein de l'équipe Data Event Management Intégration au sein de l'équipe Data Event Management qui gère les trois offres de services suivantes : Offre Infra. Kafka sur ITCloud OnPremise Offre Infra. Kafka sur IBMCloud/dMZR Activités principales Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail ITIL Agile/Scrum à l'échelle Product Based Projets principaux en cours Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK Technologies Utilisées Outils administratifs: ServiceNow, Jira, Confluence Infrastructure as Code: Ansible, Terraform Langages: Bash, Java (Spring/JHipster), Python Repository: Artifactory Database: SQL Server, PostgreSQL Conteneurisation: Docker/Kubernetes Provider Cloud: ITCloud, IBMCloud Orchestration: Airflow, Autosys, BPM Versionning: Git Messaging: Kafka CI/CD: GitLab CI Operating system: Redhat Monitoring: ELK, Dynatrace, LogDNA, Sysdig Sécurité: HashiCorp Vault, Cyberarc
Mission freelance
Développeur confirmé Python / Fullstack orienté AWS — Startup Biotech | Lyon
Tenth Revolution Group
Publiée le
AWS Cloud
Microservices
Python
6 mois
270-400 €
Lyon, Auvergne-Rhône-Alpes
🏢 Contexte Rejoignez une startup biotech innovante basée à Lyon, en pleine croissance. Vous interviendrez sur le développement et l'évolution d'une architecture microservices à fort enjeu technologique. 🎯 Missions Développement et maintenance d'applications Python dans une architecture microservices Conception et intégration de services AWS (SQS, SNS) Participation à l'amélioration continue de l'infrastructure cloud Collaboration étroite avec les équipes techniques et produit 🧠 Profil recherché Solide expérience en développement Python (80% du poste) Bonne maîtrise d'AWS, notamment SQS et SNS (20% du poste) Expérience en architecture microservices Autonome, rigoureux et à l'aise dans un environnement startup
Mission freelance
MLOps - SageMaker
Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud
3 mois
400-550 €
Paris, France
Au sein d'une équipe de 7 ML Engineers , vous serez l'expert Infrastructure dédié au pôle ML. Votre mission est de bâtir, maintenir et faire évoluer la stack technique permettant de propulser des systèmes de Machine Learning scalables et fiables. Vous ferez le pont entre le monde du DevOps et celui de la Data Science pour garantir l'efficacité opérationnelle des pipelines de production. Missions : Gestion de l’Infrastructure : Maintenir et optimiser la stack infrastructure dédiée au ML en respectant l'état de l'art et les bonnes pratiques AWS. Automatisation (IaC) : Provisionner et gérer les ressources via Terraform pour assurer la reproductibilité des environnements. Orchestration de Workflows : Piloter et configurer les pipelines de données complexes et les workflows ML via Apache Airflow (MWAA). Support Projets Spécifiques : Collaborer avec l'équipe sur l'intégration d'outils avancés comme les bases de données vectorielles (Vectiroeilles), Open Search et l'indexation. Cycle de vie ML : Mettre en place des serveurs dédiés MLFlow pour le suivi de l'entraînement des modèles et optimiser les phases de prédiction. Exploitation SageMaker : Utilisation intensive d'Amazon SageMaker pour l'entraînement et le déploiement de modèles.
Offre d'emploi
Data Engineer H/F
HN SERVICES
Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI
45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Data Engineer expérimenté à sénior pour intervenir sur un projet Data pour l’un de nos clients situé à Aix-en-Provence. Contexte et mission : Dans le cadre du renforcement de l’équipe Data, vous serez intégré.e à une squad dédiée à la création d’une infrastructure robuste pour le produit DATA. Vous participerez à la conception et au développement de processus d’ingestion, de transformation et d’exposition des données sur la plateforme Google Cloud Platform (GCP). Vous collaborerez étroitement avec d’autres équipes pour : Mettre en place les jobs d’ingestion et de préparation des données. Développer des pipelines de données performants et maintenables. Exploiter les outils de l’écosystème cloud : Composer, dbt, BigQuery. Contribuer à l’amélioration continue des capacités de livraison du produit DATA. Environnement technique : GCP BigQuery, Linux, Python, SQL, dbt, Composer.
Mission freelance
AWS Senior Data Engineer / Data Architect (Event-Driven & Streaming)
Tenth Revolution Group
Publiée le
Amazon Redshift
AWS Cloud
AWS Glue
6 mois
400-650 €
Auvergne-Rhône-Alpes, France
Contexte Dans le cadre de la modernisation d’une plateforme data, vous concevez et mettez en œuvre des architectures cloud-native orientées événements sur AWS. L’objectif est de remplacer les traitements batch par des pipelines distribués, temps réel ou quasi temps réel, robustes et scalables. Missions principales Vous définissez des architectures data serverless event-driven, concevez des pipelines d’ingestion et de transformation distribués et mettez en place des systèmes découplés basés sur la messagerie en garantissant la scalabilité, la résilience et l’optimisation des coûts. Vous transformez les flux ETL batch en pipelines cloud-native, implémentez les patterns asynchrones (retry, DLQ, idempotence, gestion des timeouts) et industrialisez les déploiements via l’Infrastructure as Code et la CI/CD. Vous déployez le monitoring, le logging et le tracing afin de suivre la performance, la latence et la qualité des flux. Compétences clés Solide expérience des architectures event-driven et des systèmes distribués, de l’event sourcing et du message brokering, de la gestion du backpressure et de la latence ainsi que de la transformation distribuée et du traitement de gros volumes. Ce poste n’est pas orienté BI, reporting ou data engineering batch classique Positionnement Rôle transverse avec une forte interaction avec les équipes data, cloud, DevOps et applicatives, impliquant une responsabilité importante sur les choix techniques et les bonnes pratiques. Synthèse Profil d’architecte data AWS spécialisé en serverless et en architectures orientées événements, capable de concevoir des pipelines distribués scalables et résilients.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
889 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois