Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 888 résultats.
Freelance

Mission freelance
Administrer moteurs bases de données et plateformes data

Publiée le
Google Cloud Platform (GCP)
Oracle
PostgreSQL

1 an
370-390 €
Tours, Centre-Val de Loire
Télétravail partiel
Missions principales L’ingénieur de Production data assure : L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. La gestion des incidents et participe à la résolution des problèmes Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) Maintien en conditions opérationnelles des plateformes Suivi et amélioration des performances (mémoire, disques, index, requêtes), Stratégies de sauvegarde, restauration et supervision La gestion des accès et création des comptes autorisés à se connecter aux plateformes De la veille technologique La gestion documentaire du périmètre Astreinte
Freelance

Mission freelance
Consultant(e) Data Migration Finance (H/F)

Publiée le
SAP
SAP S/4HANA

1 an
Paris, France
Télétravail partiel
Nous recherchons pour l'un de nos clients un (e) consultant(e) Data Migration Finance (H/F) Vos missions seront : Un grand groupe international du secteur de l’énergie déploie un programme stratégique de transformation d’entreprise visant à harmoniser et standardiser les processus Finance et Achats à l’échelle mondiale, tout en rationalisant le paysage ERP du Groupe. Dans ce cadre, une entité centrale de services partagés métiers (non IT) joue un rôle clé dans : la gestion du RUN Finance global , la maîtrise du Core Model Finance , la qualité et la gouvernance des données Finance dans un environnement ERP de nouvelle génération SAP S/4 Le/la consultant(e) interviendra en support direct des équipes RUN Finance , sur des migrations de données Finance et Business Partner , dans un contexte multi-pays, multi-ERP et fortement évolutif. Objectif du poste : Contribuer à la sécurisation , à la qualité et à la cohérence des données Finance lors des migrations vers un ERP cible , tout en garantissant l’alignement avec le Core Model Finance groupe et les exigences RUN . Migration & qualité des données Finance Participer aux projets de migration de données Finance (FI principalement, CO selon périmètre) dans un contexte SAP ECC → S/4HANA. Contribuer à la migration des données de base Finance (tiers / partenaires métier, comptes généraux, centres de coûts, objets de contrôle de gestion) et, selon le périmètre, des données transactionnelles . Analyser les données sources et contribuer aux activités de mapping et de transformation vers le Core Model Finance cible . Participer aux activités de nettoyage des données , aux contrôles de cohérence et aux tests de migration (tests unitaires, d’intégration et d’acceptation utilisateur). Core Model & RUN Finance Contribuer à la documentation des processus de données Finance en lien avec le Core Model groupe . Participer à la gestion des données de référence Finance dans une logique RUN et groupe . Contribuer à l’ amélioration continue du catalogue de services RUN . Coordination & conduite du changement Travailler en collaboration avec les équipes Finance, IT, Data, projet et RUN . Participer aux actions de conduite du changement et à l’ adoption des nouveaux outils ERP (interfaces utilisateurs, gestion des partenaires métier). Accompagner les utilisateurs clés Finance dans la prise en main des nouveaux modèles de données .
CDI

Offre d'emploi
Consultant data MDM F/H

Publiée le

45k-50k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Dans un monde où l'innovation est un levier de performance, la transformation numérique ne se limite plus à l'adoption de nouvelles technologies. Elle repose sur des stratégies audacieuses, un accompagnement humain adapté, et une capacité à anticiper les enjeux à venir. Chez Coexya Consulting, nous considérons que les femmes et les hommes sont au coeur de la réussite des projets de transformation. Pour renforcer notre équipe, nous recherchons une personne expérimentée pour un poste de consultant Data MDM F/H. CE QUE L'ON VOUS PROPOSE En lien avec le responsable opérationnel de la practice Data Strategy et notamment de l'offre MDM, vos missions sont les suivantes : - Contribuer au développement de l'offre Data MDM : participation à la structuration de notre démarche, production de contenus méthodologiques, diffusion de bonnes pratiques, veille. - Intervenir, en particulier sur les aspects fonctionnels et technologiques, sur les phases clés associées à la construction d'un projet MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation. - Mener les ateliers de cadrage puis la définition des modèles de données et des processus de gestion des données référentielles. - Concevoir et préconiser les solutions technologiques répondant aux besoins par un benchmark des solutions du marché. - Echanger avec les équipes techniques. - Identifier les opportunités de missions et de besoins chez vos clients. - Participer aux avant-ventes : rédaction d'offres, soutenances orales, valorisation de notre savoir-faire.
Freelance

Mission freelance
Expert Machine Learning Ops( Expert MLOps)

Publiée le
Cloud
IA
Kubernetes

6 mois
400-550 €
Paris, France
Télétravail partiel
Re, Une autre recherche (Machine Learning Ops) – Expert MLOps (IA / ML / LLM) | Industrialisation & Production IA 🎯 Contexte & enjeux Vous jouerez un rôle clé dans la définition et la mise en œuvre des bonnes pratiques MLOps (CI/CD, monitoring, sécurité, reproductibilité). 🛠️ Responsabilités principales · Conception, mise en place et maintien de pipelines MLOps (CI/CD, versioning des modèles et datasets) · Conteneurisation et déploiement des services IA ( Docker, Kubernetes ) · Mise en œuvre d’outils de tracking et registre de modèles (MLflow, Comet ML ou équivalent) · Industrialisation d’architectures LLM / NLP et RAG (Retrieval-Augmented Generation) · Intégration et orchestration de frameworks LLM ( LangChain, LangSmith, Semantic Kernel ) · Déploiement de solutions IA sur Cloud Provider (AWS, Azure ou GCP) · Mise en place de boucles de feedback continu (monitoring de la dérive, retraining automatique, human-in-the-loop) · Garantie de la sécurité, qualité et reproductibilité des modèles en production 🧠 Compétences requises · Minimum 3 ans d’expérience en industrialisation IA/ML/DL en production · Excellente maîtrise de Python et des librairies clés (NumPy, Pandas, Scikit-learn, PyTorch / TensorFlow) · Solides compétences SQL · Expertise CI/CD (GitLab CI ou équivalent) · Maîtrise de la conteneurisation ( Docker ) · Expérience confirmée avec MLflow ou outils équivalents · Connaissance approfondie des LLM et des architectures RAG · Expérience de déploiement IA sur le Cloud ➕ Compétences appréciées · Déploiement IA sur Kubernetes (Kubeflow, Argo) · Tests de performance, benchmarking et montée en charge · Optimisation avancée de modèles (Quantization, Distillation, Pruning, Fine-tuning / PEFT – LoRA) · Expérience en Computer Vision ou Small Language Models (SLM) · Métriques avancées d’évaluation LLM (AI as a Judge, hallucination rate, grounding score) 📍 Modalités · Présence sur site requise à hauteur de 50 % minimum · Astreintes possibles les week-ends et jours fériés 📩 Intéressé(e) ou recommandation ?
Freelance

Mission freelance
[MDO] Data & AI - Data Engineer (5 ans minimum)

Publiée le
Azure Data Factory
Azure Logic Apps
Databricks

1 an
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer - Collecter, analyser et exploiter les données disponibles et pertinentes pour améliorer le pilotage des activités et identifier les leviers de création de valeur pour l'entreprise. - Aide aux équipes métier à développer, déployer et opérer les solutions pour permettre d’atteindre leurs objectifs. Principaux résultats attendus : • Les données pertinentes pour répondre aux besoins des utilisateurs sont identifiées, capturées et choisies • Le temps et les ressources/outils nécessaires à la gestion et à l'analyse des données sont optimisées. • Les données sont analysées et partagées dans un format accessible à tous grâce à des visualisations de données • Les activités métier disposent des lignes guides et recommandations pour créer de la valeur • Les offres, services ou processus de l'entreprise sont optimisés grâce aux connaissances acquises par l'analyse et l'évaluation des données • Les prescriptions du groupe en matière d'éthique et de gouvernance des données sont appliquées et respectées. • Présentation des fonctionnalités du ou des « produits » pour les promouvoir et pour faciliter la maintenance dans la durée • Résultats de tests conforme à la stratégie de test • Catalogue des produits data (dataset) à jour • Kit de formation et outils pour les utilisateurs Compétences fondamentales en Data Engineering : • Modélisation de données : conception de modèles relationnels, dimensionnels et Data Vault • ETL / ELT : conception et optimisation de pipelines robustes, gestion des dépendances • Qualité & gouvernance des données : data lineage, data quality checks, catalogage, gestion des métadonnées • Architecture data : compréhension des patterns modernes (Data Lakehouse, Data Mesh, etc.)
Freelance

Mission freelance
Architecte Sécurité Senior SI, Cloud/On premise - Paris - Vorstone

Publiée le
Architecture
AWS Cloud
Azure

1 an
700-900 €
Paris, France
Télétravail partiel
Vorstone recherche un profil d'Architecte Sécurité H/F pour un client grand group basé à Paris Présentation du groupe Le groupe est un leader mondial. Il propose des solutions innovantes reposant sur des technologies en amélioration continue, et produit. Afin de répondre aux besoins de ses clients, l’organisation est structurée en lignes de métier mondiales : Industriel Marchand, Grande Industrie, Électronique, Santé et Ingénierie/Construction. Descriptif de l’entité L’entité concernée est le centre de services partagés global chargé de fournir les services d’infrastructure IT aux différentes DSI métier internes . La transformation IT opérée en 2014 a conduit à la création de ce centre ainsi qu’à la structuration des DSI métiers. Les lignes de service couvertes sont les suivantes : ● Poste de travail utilisateur ● Services Cloud ● Sécurité & Conformité ● Infrastructure Sites ● Architecture & Projets Transverses L’organisation entre maintenant dans une nouvelle phase de transformation visant une structure plus efficace et simplifiée, avec déploiement progressif d’un nouveau modèle jusqu’en 2026. Les lignes de service sont désormais regroupées en trois catégories correspondant aux étapes du cycle de gestion des services : ● Plan & Control (Gouvernance & Service Management) ● Design & Build (Ingénierie & Innovation) ● Deploy & Operate (Transition & Opérations) Les priorités actuelles portent sur : ● Cloud & Plateformes : introduction de GCP comme nouveau fournisseur cloud, en complément d’AWS et Azure. ● Cybersécurité : repositionnement de la ligne de service “Sécurité & Conformité”, nouvelle feuille de route sécurité (plateforme unifiée CSIRT…) et focus sur les solutions CNAPP, CSPM, CIEM, CWPP. ● Innovation : exploitation des capacités Gemini pour les utilisateurs. ● Efficacité opérationnelle : harmonisation ServiceNow, optimisation des processus et rationalisation des fournisseurs (MSP cloud, NOC/SOC, service desk). Missions L’Architecte Sécurité rejoindra l’équipe “ Sécurité & Conformité – Ingénierie & Innovation ” et apportera son expertise pour concevoir et déployer des architectures de sécurité dans un environnement majoritairement cloud public (AWS, GCP, Azure), tout en prenant en compte les infrastructures on-premise et les contraintes spécifiques à certains pays et activités. 1/ Concevoir et déployer des solutions de sécurité ● Rôle de chef de projet et architecte sécurité pour la conception et le déploiement de services de sécurité dans un contexte en constante évolution (organisation, politiques, menaces, outillage). ● Documentation et maintien de la connaissance du portefeuille de solutions de sécurité. ● Référent sur l’ingénierie des services de sécurité de son périmètre. ● Intégration des exigences et tests de sécurité dans les backlogs projets. ● Proposition de solutions pour assurer la conformité aux référentiels internes d’infrastructure. 2/ Intégrer la sécurité dans les projets et services ● Promotion de l’approche Secure by Design . ● Réalisation d’analyses de risques techniques. ● Conseil et support aux équipes sur les aspects sécurité. ● Identification et formalisation des actions de sécurité, avec suivi associé. 3/ Définir les standards de sécurité ● Contribution aux politiques et standards sécurité du groupe. ● Participation à la définition et à l’automatisation des contrôles de conformité et indicateurs sécurité.
Freelance

Mission freelance
Data Scientist - Expertise OpenMetaData

Publiée le
API
Collibra
DataGalaxy

2 mois
520 €
France
Télétravail 100%
Profil : architecte ayant des connaissances sur l'implémentation de l'outil et son utilisation Attendus : Apporter un retour d’expérience concret (REX) sur la mise en oeuvre d’ OpenMetadata dans un contexte comparable. Challenger la position d’ OpenMetadata au sein de la data stack cible imaginée, en interaction avec les autres briques de la plateforme : ingestion, stockage, Transformation, visualisation, sécurité et gouvernance. Former les équipes socle sur : L’architecture fonctionnelle et technique d’OpenMetadata Les principaux cas d’usage (catalogue, lineage, quality, policy, tagging, etc.) Les modalités d’intégration (connecteurs, API, ingestion metadata). Orienter la stratégie de gouvernance en précisant Le positionnement d’OpenMetadata dans un écosystème comprenant un data catalog fonctionnel déjà existant (Zeenea) Les complémentarités et limites avec d’autres outils du marché (ex. Collibra, Atlan, DataGalaxy, etc.) Explorer plus particulièrement 2 sujets clés : Open Lineage : Intégration, couverture, limites, exploitation pour le suivi de la chaîne de valeur des données. Habilitations & Taggage : Fonctionnement natif d’OpenMetadata, articulation possible avec Apache Ranger et/ou Apache Atlas, gestion des rôles, politiques et classification des données.
Freelance

Mission freelance
[FBO] Data Engineer avec expertise MLOps

Publiée le
Planification
Python

3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
CDI

Offre d'emploi
Solution architect Cloud H/F

Publiée le

50k-65k €
Paris, France
Télétravail partiel
En tant que Solution architect Cloud, vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions Cloud performantes et sécurisées au sein de notre département services informatiques. Vos principales responsabilités seront : • Analyser les besoins métier et définir l’architecture cloud adaptée. • Concevoir des solutions techniques évolutives et sécurisées en environnement cloud. • Collaborer avec les équipes de développement et d’infrastructure pour garantir la cohérence des solutions. • Assurer la veille technologique et proposer des améliorations continues. • Participer à la rédaction de documents techniques et aux revues d’architecture.
CDI
Freelance

Offre d'emploi
Data Engineer

Publiée le
Apache Hive
Apache Kafka
Apache Spark

6 mois
Vannes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé : Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Freelance

Mission freelance
Expert Réseau LAN / WAN / WIFI (N3)-ile de France (H/F)

Publiée le
LAN
WAN (Wide Area Network)
WIFI

1 an
400-520 €
Île-de-France, France
Dans le cadre d’une mission stratégique au sein d’une grande direction IT, nous recherchons un consultant N3 LAN – WAN – WIFI ayant une solide expertise sur les infrastructures réseau de grande envergure. 🎯 Objectif de la mission Garantir la gestion, la maintenance et l’évolution des solutions LAN / WAN / WIFI, intervenir sur l’incidentologie avancée, piloter des projets techniques, et assurer la coordination avec les équipes locales ainsi que le partenaire opérant le support N1/N2. 🛠 Compétences techniques recherchées ✔ LAN & WIFI : Cisco, Aruba, Juniper (CCNA/CCNP/WLE) ✔ Authentification : Cisco ISE ✔ Firewalls : Palo Alto (requis) – Fortinet (apprécié) ✔ Outils : Cisco Prime Infrastructure, Airwave (plus) ✔ RF : Spectrum / Survey WIFI avec Ekahau ✔ Réseaux : DHCP, DNS, DNA, SDA, Fabric ✔ Méthodes : Agile , ITIL ✔ Anglais technique (impératif) 📌 Responsabilités principales 🔹 Gestion et résolution d’incidents LAN / WAN / WIFI (N3) 🔹 Analyse avancée & troubleshooting 🔹 Coordination avec mainteneur & équipes locales 🔹 Incident management et suivi des prestataires 🔹 Projets réseau & évolutions d’infrastructure 🔹 Développement scripts / apps / outils internes 🔹 Rédaction des livrables techniques en anglais 🔹 Participation aux cérémonies Agile 📄 Livrables attendus 📘 Documents d’architecture 📘 Procédures opérationnelles 📘 Documents d’exploitation 📘 Comptes-rendus de réunions 📘 Supports utilisateur et supports équipes
Freelance
CDI
CDD

Offre d'emploi
Directeur de Projet Senior Réversibilité Entrante - Ivry sur seine(H/F)

Publiée le
Back-end
Front-end
Pilotage

1 an
40k-45k €
400-530 €
Ivry-sur-Seine, Île-de-France
🎯 Contexte Nous recherchons un Directeur de Projet Senior pour piloter la réversibilité entrante ANAH au sein d’une Business Unit spécialisée dans les activités de back-office numérique, front-office (téléphonie, mail, live chat) et dématérialisation documentaire. Le projet inclut des évolutions techniques, organisationnelles et fonctionnelles, avec un pilotage renforcé des équipes techniques, fonctionnelles et de production. 🛠 Missions principales Piloter la réversibilité entrante ANAH et garantir la bonne exécution des engagements projet. Coordonner les équipes techniques, fonctionnelles, production et DSI . Assurer le pilotage complet des phases : conception → build → run. Gérer le planning , les risques , le budget et la facturation (interne/externe). Superviser les évolutions techniques (ex : portail Power BI, outil omnicanal). Préparer la transition vers le RUN : documentation, processus, pilotage opérationnel. Produire les reportings projet et la météo projet . Garantir l’application des méthodes et processus internes de gestion de projet. ⚙️ Compétences requisesTechniques Direction de projet – Expert (impératif) Connaissance approfondie des SI Back & Front Office – Confirmé (important) Pilotage / Méthodologie Expérience confirmée en pilotage de projets complexes (multi-équipes, multi-métiers) Gestion contractuelle, budgétaire et organisationnelle Très bon niveau en coordination transverse Soft skills Leadership transverse Excellente communication Capacité à convaincre et arbitrer Sens du relationnel développé 📄 Livrables attendus Météo projet & tableaux de bord Documentation projet & RUN Processus et procédures Suivi budgétaire & reporting direction
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
BigQuery
DBT
DevOps

Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Freelance

Mission freelance
Concepteur Développeur IBM DataStage

Publiée le
BI
Data governance
ETL (Extract-transform-load)

12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre d’un projet décisionnel au sein du secteur bancaire , le Concepteur Développeur IBM DataStage intervient sur l’alimentation des bases DRE et Datamart . Il participe à la conception, au développement et à la maintenance des flux ETL, et accompagne les équipes BI dans l’écriture et l’optimisation des scripts SQL. 📍 Lieu de mission : Joinville-le-Pont Intitulé du poste Concepteur Développeur ETL IBM DataStage Missions principales Concevoir, développer et maintenir les traitements ETL sous IBM DataStage Alimenter les bases de données décisionnelles ( DRE et Datamart ) Analyser les besoins métiers et techniques liés à l’alimentation des données Optimiser les flux de données (performances, volumétrie, qualité) Rédiger et maintenir la documentation technique Accompagner les développeurs BI dans : l’écriture et l’optimisation des scripts SQL la compréhension des modèles de données Participer aux phases de tests, recettes et mises en production Gérer les incidents et assurer le support sur les chaînes d’alimentation Environnement technique ETL : IBM DataStage Bases de données : Oracle / DB2 / SQL Server Langages : SQL avancé Décisionnel / BI : Datamart, DRE Systèmes : Unix / Linux Outils : ordonnanceur, outils de supervision, versioning Compétences requises Techniques Maîtrise confirmée de IBM DataStage Très bonnes compétences en SQL (requêtes complexes, optimisation) Connaissance des architectures décisionnelles Compréhension des flux ETL/ELT Sensibilité aux problématiques de performance et de volumétrie Fonctionnelles Compréhension des enjeux data et BI en environnement bancaire Capacité à traduire un besoin métier en solution technique
CDI
Freelance

Offre d'emploi
Incident Manager (H/F)

Publiée le
Centreon
Cloud
GLPI

12 mois
45k-53k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 💼 Poste : Incident Manager (H/F) 📍Lieu : Bordeaux 🏠 Télétravail : Possible 📝Contrat : CDI ou Freelance 👉 Contexte client : Tu intègres est un groupe familial de courtage en assurances , originaire de Bordeaux, reconnu pour son expertise dans la gestion des risques d’entreprise et la protection sociale. Le groupe figure parmi les courtiers les plus importants en France, avec une présence nationale et internationale, et plus de 1 400 collaborateurs . En tant qu’ Incident Manager , tu assures la gestion, le suivi et la résolution des incidents impactant le système d’information. Tu es le garant de la continuité de service, en coordination avec les équipes techniques, les métiers et les partenaires externes. Tu auras pour missions de : Assurer le pilotage de bout en bout des incidents (analyse, priorisation, escalade). Coordonner les équipes techniques lors d’incidents majeurs (MIM). Suivre la communication interne et externe pendant les incidents. Analyser les causes profondes (RCA) et proposer des plans d’amélioration. Contribuer à l’amélioration continue des process ITIL (incident / problème / change). Produire des reportings réguliers (KPI, SLA, tendances). Stack technique : ITIL (fortement souhaité), ServiceNow, GLPI, Jira Service Management, Centreon, Zabbix, Grafana, Windows, Linux, Cloud.
CDI
Freelance

Offre d'emploi
Ingénieur Intégration & Parsing des Journaux SOC

Publiée le
Apache Kafka
CI/CD
Cloud

1 an
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un Ingénieur Intégration & Parsing de Journaux pour rejoindre l’équipe Cybersécurité au sein du Centre des Opérations de Sécurité (SOC) . Rôle et responsabilités Le consultant sera responsable de la gestion complète du processus de collecte des journaux provenant des environnements cloud et on-premise , ainsi que des outils de sécurité soutenant les opérations SOC 24/7 . Rattaché au responsable de l’équipe Build, il travaillera en étroite collaboration avec les parties prenantes Cybersécurité, IT et Métiers pour garantir une intégration robuste, évolutive et sécurisée des journaux . Principales missions : Concevoir, mettre en œuvre et maintenir les pipelines de collecte et de parsing des journaux. Gérer et optimiser les systèmes d’ingestion et de transfert des logs via des outils tels que Fluentd ou Kafka . Développer des parsers avancés pour normaliser et structurer les données selon des schémas spécifiques. Mettre en place des parsers-as-code pour intégrer de grands volumes de données issues de sources personnalisées. Garantir la qualité, la fiabilité et la standardisation des journaux sur l’ensemble des systèmes intégrés. Collaborer avec les équipes réseau, les responsables applicatifs et les analystes SOC pour intégrer de nouvelles sources de logs. Maintenir les règles de parsing, de normalisation et d’enrichissement pour l’ingestion SIEM (Elastic SIEM ou équivalent). Diagnostiquer et résoudre les problèmes d’ingestion ou de parsing en coordination avec les équipes concernées. Mettre en place des pipelines CI/CD pour le déploiement automatisé des configurations d’intégration. Appliquer des pratiques DevSecOps pour sécuriser et automatiser les flux d’ingestion. Surveiller en continu les pipelines d’ingestion et contribuer à leur amélioration. Participer à la création de parsers à l’aide d’ IA agentique . Maintenir la documentation et les schémas techniques des workflows d’intégration. Livrables attendus Pipelines d’ingestion et de parsing opérationnels. Documentation technique et schémas d’architecture. Scripts et configurations CI/CD. Tableaux de bord de suivi et d’amélioration continue. Compétences et qualifications requisesTechniques Expérience avérée en tant qu’ Ingénieur Intégration de Journaux , Ingénieur Plateforme ou Ingénieur Cloud dans un contexte SOC ou cybersécurité. Maîtrise des outils de collecte et de traitement des logs ( Fluentd , Logstash , Kafka …). Bonne compréhension des techniques de parsing, normalisation et enrichissement (ASIM, UDM, OCSF, DSM, ECS, CIM, CEF, LEEF…). Solide connaissance des services AWS, GCP et Azure liés à la supervision et à la journalisation. Expérience avec les outils CI/CD (GitLab CI/CD, Jenkins…). Maîtrise de Ruby (développement de plugins Fluentd) et de Python/Bash . Familiarité avec les solutions SIEM (Google SecOps, Elastic SIEM, Sentinel, Splunk ou équivalent). Compréhension des concepts de cybersécurité , détection , et opérations SOC . Pratique des approches DevSecOps et de l’automatisation. Connaissance des formats de règles SIGMA et YARA .
4888 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous