Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 654 résultats.
Offre premium
Freelance
CDI

Offre d'emploi
Data Mesh Platform Manager

EXteam
Publiée le
Data Mesh

3 ans
Levallois-Perret, Île-de-France
Objectifs et livrables Key Responsibilities Platform Build and Delivery (Core Responsibility) Responsibilities Design and implement the Self-Service Data platform architecture Define platform capabilities (data products, pipelines, governance, observability, self-service access) Define and enforce technical standards and architecture patterns Ensure scalability, performance, and security Make hands-on technical decisions and solution validation Expected Deliverables Architecture decision records (ADR) Reference architecture patterns and reusable templates Platform capability roadmap Platform technical standards Cloud Architecture and Infrastructure Responsibilities Drive the Design and operate cloud and hybrid architecture with the Group Data Architect Coordindate with the Group Data Delivery Team the implementation on Amazon Web Services and Microsoft Azure Lead the Integration of on-premise systems Lead the Implemention of automation and infrastructure as code Ensure security and compliance requirements Expected Deliverables Cloud architecture blueprint (with the help of the Group Data Architect) Security and access management framework Delivery and Execution Management Responsibilities Own platform delivery lifecycle Define backlog and prioritization process Manage releases and production deployment Track performance and reliability Manage risks and technical issues Expected Deliverables Platform roadmap (short / mid / long term) Product backlog and prioritization framework Release plan and version management process Delivery tracking dashboards Platform SLA / reliability metrics Deployment and Domain Adoption Responsibilities Deploy platform across business domains Enable domain teams to build data products Deploy Data Mesh operating model Support onboarding and adoption Resolve operational adoption challenges Expected Deliverables Domain onboarding framework and process Data product lifecycle guidelines Domain enablement playbooks Adoption and usage metrics Training materials and onboarding documentation Product Management (Usage-Driven) & Continuous improvement Responsibilities Capture user needs and platform requirements Define product vision and roadmap Measure usage and value delivery Improve developer and user experience Expected Deliverables Product vision and value proposition Platform KPIs and adoption metrics User feedback loops and improvement backlog Platform enhancement roadmap Documentation, Standardization & Governance Responsibilities Document platform capabilities and processes Ensure compliance with group Federated Computational Data Governance Expected Deliverables Platform documentation repository Technical standards and implementation guidelines Governance and compliance framework Best practice playbooks Operational Communication and Executive Reporting Responsibilities Communicate platform progress and impact Provide executive-level reporting Manage stakeholder alignment Expected Deliverables Executive Project Dashboard Platform performance dashboards Steering committee presentations Decisions, Risks and issues tracking Internal Promotion and Evangelization Responsibilities Promote platform value across the organization Support internal adoption initiatives Build platform community Expected Deliverables Internal platform communication materials Adoption strategy and rollout plan Platform demos and use case portfolio Required Experience Minimum 15 years of experience in data platform, data engineering, or architecture Proven experience building and delivering production-grade data platforms Strong experience in hands-on technical delivery and implementation Experience in platform engineering or advanced data engineering Experience in large-scale enterprise or multi-entity environments Practical experience with Data Mesh mandatory. Technical Skills Architecture & Engineering Distributed data architecture Distributed systems design Infrastructure as code DevOps / DataOps / CI/CD practices Performance and scalability engineering Cloud & Infrastructure Advanced expertise in AWS and Azure Hybrid and on-premise architectures Cloud security and governance Data Platform Data products and data lifecycle management Data pipelines and orchestration Metadata and catalog management Data governance frameworks Data observability Product & Delivery Product mindset applied to technical platforms Roadmap and backlog management Agile delivery methodologies Value-driven development Critical Soft Skills Strong technical and operational leadership Execution and delivery mindset Ability to operate hands-on in complex environments Excellent cross-functional communication Strong ownership and accountability Problem-solving and pragmatic decision-making Ability to influence without direct authority Strategic thinking with operational focus Stakeholder management at executive and operational levels Fluent English (mandatory — written and spoken) Success Metrics Platform successfully delivered and operational in production Adoption across business domain Number and quality of deployed data products Platform reliability and performance User satisfaction and platform usage Reduced time-to-market for data use cases
Freelance
CDI
CDD

Offre d'emploi
Lead Tech / CDP Full Stack — .NET Core 10 • Vue.js • Microservices • Kubernetes • Dapr

Craftman data
Publiée le
Azure DevOps
Microsoft SQL Server

12 mois
40k-45k €
400-650 €
Le Havre, Normandie
Notre client engage la modernisation complète de son SI, du legacy .NET Framework / BizTalk / SQL Server vers une architecture cloud-native micro-services (.NET Core 10, Kubernetes, Dapr, PostgreSQL, Vue.js). Nous cherchons LE Lead Tech qui sait à la fois architecturer, coder et embarquer une équipe. Hands-on à 30-50 %, vous êtes la pierre angulaire entre les architectes, les développeurs et le Directeur de Programme. La mission Vous prenez le lead technique full stack des chantiers de transformation applicative. Vous animez les équipes au quotidien en contexte agile, suivez l'avancement dans Azure DevOps, contribuez activement au code (30 % à 50 % du temps) et portez les décisions techniques back & front. Vous êtes rattaché au Directeur de Programme et travaillez en binôme étroit avec l'équipe architecture. Le contexte technique Modernisation du SI vers une architecture cloud-native micro-services : Stack actuelle .NET Framework, App Services Azure, SQL Server, BizTalk, Windows, Vue.js Stack cible .NET Core 10, Kubernetes, Docker / Podman, Linux, PostgreSQL, Dapr, Vue.js Vos terrains de jeu1. Lead .NET microservices • Définir, challenger et implémenter les architectures (clean / hexagonale) avec les architectes • Trancher les décisions techniques back & front et débloquer les sujets complexes • Contribuer au développement .NET Core 10+ et Vue.js, orienté micro-services (K8s, Dapr) • Relire le code, faire du pair programming, animer les revues techniques 2. Pilotage technique & agilité • Animer les rituels agiles (daily, sprint planning, refinement, rétros) avec pragmatisme • Suivre l'avancement dans Azure DevOps (backlog, sprints, bugs) • Lever les blocages des développeurs et sécuriser les engagements de sprint • Maintenir une visibilité claire sur l'avancement technique full stack 3. Collaboration avec l'architecture • Aligner les implémentations full stack sur la vision globale portée par les architectes • Participer aux ateliers d'architecture back / front et aux arbitrages techniques • Garantir l'application des patterns et standards architecturaux • Faire le lien entre les décisions d'architecture et leur mise en œuvre opérationnelle 4. Delivery & industrialisation CI/CD • Contribuer à la mise en place des pipelines CI/CD avec les DevOps • Superviser les déploiements et la qualité des livrables • Capitaliser sur les patterns réutilisables (microservices + UI Vue.js, Dapr)
Freelance

Mission freelance
Développeur Python Senior | RESIM ADAS | Environnement Cloud & HPC

RIDCHA DATA
Publiée le
Bash
Calcul hautes performances (HPC)
DevOps

1 an
Boulogne-Billancourt, Île-de-France
Nous recherchons un Développeur Python Senior pour intervenir sur une plateforme stratégique de re-simulation ADAS, au cœur des enjeux de validation des projets véhicules. Cette plateforme s’appuie sur des infrastructures cloud pour exécuter des chaînes complexes de simulation, intégrant : • des traitements batch intensifs (CPU / GPU) • des workflows majoritairement développés en Python • des environnements cloud • de fortes exigences en robustesse, performance, traçabilité et automatisation Le projet est critique pour le respect des jalons véhicules et s’inscrit dans une démarche d’amélioration continue des capacités de simulation. 🎯 Votre mission En lien direct avec les équipes de développement et les référents techniques, vous serez en charge de : • Développer, maintenir et optimiser les scripts Python des chaînes de simulation • Améliorer la robustesse, la lisibilité et la maintenabilité du code existant • Optimiser les performances des traitements et l’utilisation des ressources IT (CPU, RAM, GPU, stockage, réseau) • Industrialiser et automatiser les workflows techniques • Contribuer à l’analyse et à la résolution d’incidents complexes • Participer aux choix techniques et aux architectures logicielles • Mettre en place les bonnes pratiques de développement (tests, qualité, logging, sécurisation) • Participer aux rituels Agile du projet 📦 Livrables attendus • Code Python documenté et conforme aux standards projet • Scripts et outils d’automatisation opérationnels • Documentation technique (conception, usage, intégration) • Rapports d’optimisation de performance si nécessaire • Bilans des tests unitaires et d’intégration réalisés
Freelance
CDI

Offre d'emploi
Ing Devops - DigitalBackbone

RIDCHA DATA
Publiée le
CI/CD
DevOps
Google Cloud Platform (GCP)

1 an
Île-de-France, France
RIDCHA DATA est à la recherche d’un DevOps Engineer GCP – Confirmé pour accompagner son client acteur majeur dans le secteur industrie. 1- Descriptif du poste Au sein de l’équipe produit Digital Backbone, l’Ingénieur DevOps qui contribuera au design, construction et aux opérations de la platforme. Le projet se situe aussi dans le cadre de l’ouverture de l’entreprise vers le cloud et la recherche des solutions pour l’échange des données entre les applications en interne et les applications dans le cloud tout en garantissant leur sécurité. Expertises recherchées : • Mise en place des services cloud public (GCP) intranet et usines • Mise en place d’une automatisation de ces services via Ansible et Terraform • Mise en place d’une chaine de CI/CD pour le déploiement de ces services d’un environnement de développement jusqu’à l’environnement de production • Toute mise en place de service s’accompagne d’un monitoring • Gérer un environnement Docker • Gérer sur ces environnements l’aspect sécurité et finops (gestion des couts) • Support L3 sur la plateforme • Support au RUN sur la plateforme. 2- Livrables • Livrable de la platforme Cloud GCP, Intranet et usines. • Documentation technique • Mise en place des dashbord monitorant les services déployés • Site Reliability engineering • Coaching des équipes projets au travers des supports et standard • Support du dev au RUN vis-à-vis des projets livrés.
Freelance
CDI
CDD

Offre d'emploi
Architecte Fonctionnel SI & Data – Senior

RIDCHA DATA
Publiée le
TOGAF

1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte Dans un environnement multi-BUs, multi-outils et multi-processus , une grande organisation renforce sa Direction des Systèmes d’Information Interne afin de structurer et faire évoluer son Système d’Information Corporate. Le poste s’inscrit dans une démarche de transformation SI & Data , avec un fort enjeu d’alignement stratégique, de gouvernance et de valorisation de la donnée. 🚀 Missions principales 🏗 Architecture fonctionnelle & urbanisation SI Définir et faire évoluer l’architecture fonctionnelle cible du SI Maintenir la cartographie fonctionnelle Définir les principes d’urbanisation Garantir la cohérence des flux et processus métiers Contribuer aux choix structurants et aux études d’opportunité 📊 Gouvernance SI & Data Structurer et animer la gouvernance SI et Data Piloter les instances de gouvernance Garantir la qualité et la cohérence des données Mettre en place et suivre les référentiels 🗺 Pilotage de la roadmap SI Consolider la feuille de route SI Identifier et piloter les dépendances entre projets Contribuer aux arbitrages stratégiques Accompagner les métiers et la DSI sur les cadrages complexes 🤝 Accompagnement transverse Assurer la cohérence globale des solutions SI Intervenir sur les sujets à forte complexité ou à enjeux stratégiques Animer les équipes projets (chefs de projet, AMOA, référents data…) Favoriser l’usage et la valorisation de la donnée 🧩 Périmètre fonctionnel SI Finance SI RH & Activité CRM & Connaissance Client Data & IA
Freelance
CDI
CDD

Offre d'emploi
Data Engineer TJM MAX 580 Python + Azure + Microsoft Fabric/Cognite

Craftman data
Publiée le
Azure
Microsoft Fabric
Python

6 mois
40k-55k €
400-580 €
Paris, France
Contexte de la mission Grand groupe international du secteur industriel et énergétique, présent à l’échelle mondiale, engagé dans la transformation de ses activités via une entité digitale interne structurée en équipes pluridisciplinaires. Cette organisation conçoit, développe et déploie des solutions numériques à grande échelle afin de soutenir les opérations métiers dans un environnement international. Objectifs et livrables Dans le cadre d’un projet stratégique, nous recherchons un(e) Data Engineer disposant de solides compétences en Python, Azure, Microsoft Fabric et idéalement Cognite. Le/la consultant(e) sera responsable de la conception, du développement et de la mise en production d’une architecture de données robuste et évolutive. Missions principales : Recueillir et analyser les besoins métiers et utilisateurs Concevoir l’architecture de données adaptée aux enjeux du projet Développer les pipelines de données Industrialiser et mettre en production les flux de données Assurer la maintenance, l’évolution et l’optimisation de l’architecture existante Compétences requises : Technologies : Python (expert) Azure Cloud (confirmé) Microsoft Fabric (confirmé, forte maîtrise appréciée) Cognite (confirmé, forte maîtrise appréciée) Langues : Anglais courant (écrit et oral) Profil recherché : Solide expérience en Data Engineering et architecture cloud Capacité à comprendre les enjeux métiers et à les traduire en solutions techniques Autonomie dans la conception, la livraison et l’amélioration continue Maîtrise des environnements data modernes et des bonnes pratiques de mise en production
Freelance
CDI
CDD

Offre d'emploi
Ingénieur SRE (H/F)

RIDCHA DATA
Publiée le
Ansible
AWS Cloud
Azure

1 an
40k-45k €
400-500 €
La Défense, Île-de-France
🧩 Contexte de la mission Dans un environnement complexe et exigeant, vous intervenez au sein d’une équipe SRE (Site Reliability Engineering) afin d’assurer la fiabilité, la performance et la disponibilité de plateformes critiques en production. Le projet s’inscrit dans un contexte de transformation et d’industrialisation des systèmes, avec une forte orientation vers l’automatisation, la qualité de service et l’amélioration continue. 🎯 Vos missions principales Rattaché(e) au responsable SRE, vous intervenez sur les activités suivantes : Assurer la gestion opérationnelle des applications critiques en haute disponibilité Participer à la maintenance et à l’évolution des plateformes techniques (environnements Linux, Docker, Kubernetes) Gérer des environnements hybrides (Cloud & Data Center privé) Contribuer à la sécurisation des plateformes (design, configuration, implémentation) Développer et améliorer des outils liés à la production Optimiser le monitoring technique et fonctionnel des plateformes Garantir le maintien en condition opérationnelle (MCO) et la performance des systèmes Gérer les incidents, évolutions et reporting dans le respect des SLA Participer à la mise en production via des tests automatisés (unitaires, fonctionnels, smoke tests) Apporter un support technique aux équipes internes et utilisateurs Participer aux astreintes (support 24/7) 🛠️ Compétences requises ✔️ Techniques Développement (niveau confirmé) SRE / Production Engineering (confirmé) Environnements Linux / UNIX Conteneurisation : Docker, Kubernetes Outils : Git, Jenkins, Ansible / Saltstack Cloud : AWS / Azure Monitoring : Grafana, Zabbix, Nagios Scripting : Bash Notions en réseaux distribués ➕ Atouts Kubernetes (certification CKA appréciée) Java / SQL Architecture API Normes ITIL / Sécurité SI (ISO 27001) Connaissances en cryptographie / PKI
Offre premium
Freelance

Mission freelance
Business Analyst expérimenté à Vannes

Deodis
Publiée le
Data Engineering
JIRA

36 ans
400-460 €
Vannes, Bretagne
Le projet vise à accompagner le Pôle Produit Risques dans la gestion d'évolutions majeures de produits, notamment dans le cadre d'enjeux réglementaires importants pour 2026. Le Business Analyst sera intégré à une des squads pour travailler en étroite collaboration avec le Product Owner et les équipes IT. Les livrables attendus incluent : Animation d'ateliers de cadrage et rédaction des compte-rendus. Formalisation des besoins utilisateurs dans la backlog Produit (rédaction de récits, organisation d'ateliers d'affinage). Réalisation d'analyses des risques métier (ARM) en lien avec les métiers et les IT. Maintien à jour de la documentation produit métier et fonctionnelle. Support aux pôles utilisateurs pour les supports de conduite du changement. Définition, maintien et application des plans de tests produits. Profil Le profil recherché est celui d'un Business Analyste expérimenté avec une bonne communication et un fort esprit d'équipe, capable de travailler sur des projets importants et challengeant en termes de délais. Les compétences et expériences requises sont : Expérience de l'agilité. Expérience de projets DATA (Puits de données, SID, modélisations et conception d'objets métiers). Expérience de projets "réglementaires" sur les domaines Financiers et Risques (Réformes Bâloises, BCBS239, IFRS9,...). Connaissances environnement DATA (ETL, langage SQL, AB Initio). Maîtrise des outils bureautiques (Excel, Powerpoint). Maîtrise de JIRA Software. Les qualités personnelles attendues sont : Rigoureux, Organisé et pragmatique. Autonome, curieux, volontaire, disponible, et forte capacité d'adaptation. Esprit collectif. Bonne communication (Clarté et synthèse). La mission se déroule à Vannes et nécessite une présence sur site a minima 3 jours par semaine (lundi, mardi et jeudi).
Freelance

Mission freelance
Architecte DevOps / FinOps GCP – Data & IA

Craftman data
Publiée le
DevOps
Google Cloud Platform (GCP)
MLOps

3 mois
590-700 €
Paris, France
Dans le cadre d’un programme stratégique Data & IA, nous recherchons un Architecte DevOps / FinOps avec une forte expertise GCP. Vous interviendrez sur des enjeux structurants autour de la conception et de l’industrialisation d’architectures Data & IA en environnement cloud et hybride. À ce titre, vous serez en charge de : Concevoir et mettre en œuvre des architectures data robustes et scalables Définir les standards d’architecture (Data, IA, DevOps, MLOps, Cloud) Mettre en place des pratiques de gouvernance des modèles (incluant les LLM) Encadrer les enjeux de conformité, risques et éthique liés à l’IA Structurer et diffuser les bonnes pratiques (Data, Cloud, DevOps) Intégrer une approche FinOps dès la conception des architectures Piloter la performance des pipelines data & IA Optimiser les coûts (Cloud, GPU, workloads IA) Contribuer à la mise en place de modèles de refacturation
Freelance
CDI
CDD

Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500

Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes

8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Intégration HPC – Simulation Numérique

RIDCHA DATA
Publiée le
Calcul hautes performances (HPC)
Google Cloud Platform (GCP)
Linux

1 an
Île-de-France, France
🎯 Contexte Dans le cadre d’un programme stratégique autour de la simulation numérique , une grande organisation industrielle renforce ses équipes afin d’optimiser le développement de produits via des solutions de calcul avancé (HPC). La simulation numérique joue un rôle clé dans la réduction des coûts de prototypage et l’amélioration des performances, en s’appuyant sur un écosystème de logiciels métiers spécialisés (acoustique, thermique, etc.). 🚀 Missions principales Mise en place et maintien d’environnements Linux (Shell / Bash) Développement de scripts pour orchestrateurs HPC (Slurm, LSF) Installation et configuration de postes Windows 10/11 (Batch, PowerShell, XML) Monitoring des ressources (serveurs, licences) Diagnostic des incidents multi-environnements : Windows Linux Orchestrateurs Logiciels de simulation Utilisation de MPI pour le calcul distribué (multi-nœuds) Accompagnement des utilisateurs (support, compréhension des besoins) Participation à des projets en mode Agile Contribution à des environnements Cloud (notamment GCP) 📦 Livrables attendus Documentation technique (conception) Code source développé Tests unitaires et d’intégration
Freelance
CDI

Offre d'emploi
Développeur Sénior backend Java Core - Multithreading calculs distribués (7 ans et plus)

Digistrat consulting
Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Freelance
CDI
CDD

Offre d'emploi
Architect Puits de logs / Log Management

RIDCHA DATA
Publiée le
Backlog management
Security Information Event Management (SIEM)
SOC (Security Operation Center)

1 an
Île-de-France, France
🚀 Contexte de la mission Dans le cadre du renforcement d’un Security Operations Center (SOC) , nous recherchons un Architecte Data Visibility / Log Management afin d’accompagner la structuration, le déploiement et l’exploitation de la chaîne de collecte des logs de sécurité. 👉 La mission couvre l’ensemble du cycle de vie de la visibilité des données : du cadrage des besoins jusqu’à l’exploitation opérationnelle. 🎯 Objectifs de la mission Renforcer la couverture de détection du SOC Structurer les besoins en log management Déployer une chaîne de collecte robuste et sécurisée Assurer la pérennité et l’évolutivité de la visibilité data 🧩 Vos missions 🔍 Lot 1 : Cadrage & Architecture Exploiter les audits existants et identifier les écarts Définir l’architecture cible de collecte des logs Traduire les besoins en choix techniques et principes d’architecture Rédiger le cahier des charges Participer aux consultations (RFP) Définir une trajectoire d’évolution adaptée ⚙️ Lot 2 : Implémentation Élaborer le plan de déploiement (roadmap, dépendances, tests) Piloter la mise en place de la chaîne de collecte (agents, pipelines, SIEM) Garantir la qualité des logs (format, complétude, horodatage) Conduire les phases de tests et de validation Produire la documentation technique complète Assurer le transfert de compétences aux équipes internes 📦 Livrables attendus Cahier des charges & dossier d’architecture cible Dossier RFP complet Feuille de route de déploiement Plans de tests & comptes rendus de recette Documentation d’exploitation et troubleshooting Support de transfert de compétences 🛠️ Environnement technique SOC / SIEM Log management & data visibility Collecte et traitement des logs (parsing, normalisation, enrichissement) Protocoles de collecte et sécurisation des flux Environnements hybrides (on-premise / cloud) Contraintes de volumétrie, performance et résilience
Freelance
CDI
CDD

Offre d'emploi
Log Manager SOC / SIEM (H/F)

RIDCHA DATA
Publiée le
Backlog management
Security Information Event Management (SIEM)
SOC (Security Operation Center)

1 an
Île-de-France, France
📍 Localisation : Île-de-France / Hybride 📅 Démarrage : Mai 2026 ⏳ Durée : Mission longue (jusqu’à fin 2026) 🚀 Contexte de la mission Dans le cadre du renforcement d’un Security Operations Center (SOC) , nous recherchons un Log Manager / SIEM pour structurer, déployer et industrialiser la gestion des logs de sécurité. 👉 L’objectif est d’améliorer la collecte, la qualité et l’exploitation des logs afin de renforcer les capacités de détection et de réponse aux incidents. 🎯 Vos missions 🔍 Cadrage & structuration Analyser les sources de logs existantes et identifier les gaps Définir les besoins en collecte et exploitation des logs Participer à la formalisation des besoins (cadrage, documentation, RFP si nécessaire) ⚙️ Implémentation & exploitation Mettre en place et optimiser la chaîne de collecte des logs Configurer les flux : collecte, parsing, normalisation, enrichissement Assurer l’intégration des sources dans le SIEM Garantir la qualité, la cohérence et la complétude des logs Participer aux phases de tests, validation et mise en production 📊 Amélioration continue Optimiser les performances et la volumétrie des flux Assurer le maintien en condition opérationnelle de la chaîne de collecte Documenter les processus et procédures (run, troubleshooting) Accompagner les équipes SOC dans l’exploitation des logs 🛠️ Environnement technique SOC / SIEM Log management Collecte et traitement des logs (parsing, normalisation, enrichissement) Protocoles de collecte et sécurisation des flux Environnements hybrides (on-premise / cloud) Contraintes de volumétrie, performance et résilience
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Cybersécurité OT - Hardening

RIDCHA DATA
Publiée le
Android
Center for Internet Security (CIS)
Cybersécurité

1 an
Boulogne-Billancourt, Île-de-France
🎯 Contexte Dans le cadre d’un programme international de cybersécurité industrielle, une grande organisation souhaite renforcer la sécurité de ses systèmes d’information industriels (OT/IT). La mission s’inscrit dans une démarche globale de renforcement, standardisation et amélioration continue des politiques de sécurité appliquées aux environnements industriels. 🧩 Périmètre technique Postes industriels IT (environnements OT) Postes industriels OT Équipements mobiles industriels (tablettes, devices) Serveurs MES (Manufacturing Execution System) 🚀 Missions principales Réaliser un audit des politiques de sécurité existantes Identifier les écarts entre les politiques définies et les configurations réelles Conduire des audits de configuration des équipements Analyser les dispositifs de contrôle existants Proposer des solutions d’ automatisation et d’amélioration Définir et formaliser des politiques de sécurité adaptées Participer à une organisation en mode Agile Collaborer avec des équipes internationales et pluridisciplinaires 📦 Livrables attendus Rapport d’état des lieux des politiques de sécurité Analyse des dispositifs de contrôle existants Documentation des politiques de sécurité Analyse de risques Plan de remédiation (mesures correctives) Comptes rendus des réunions
1654 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous