L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 543 résultats.
Offre d'emploi
Data Engineer – Elastic Stack Expert
Publiée le
Apache Kafka
ELK
Intégration
1 an
Île-de-France, France
Télétravail partiel
Nous recherchons pour notre client Grand-Compte un Ingénieur Data , Expert ELK pour: accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données L’objectif est de passer d’une logique très outillée/infrastructure à une approche orientée usages data & métiers . Refonte complète de l’offre logs existante (tous types de logs : applicatifs, systèmes, réseau, sécurité) Forte volumétrie et enjeux de standardisation, qualité et exploitabilité de la donnée Missions Concevoir et mettre en œuvre les chaînes de collecte et d’ingestion des logs Implémenter et industrialiser les cas d’usage observabilité pour les équipes opérationnelles Accompagner les équipes métiers et techniques dans l’exploitation des logs Développer des dashboards et visualisations avancées (Kibana, évolution possible vers Grafana) Intervenir sur l’ensemble du cycle data : collecte → transformation → stockage → restitution Participer à l’évolution de l’offre groupe et à la structuration des bonnes pratiques Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source)
Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Mission freelance
Consultant SIRH Data / Chef de Projet MOA - Paris (H/F)
Publiée le
Microsoft Fabric
MOA
PLEIADES
6 mois
630-700 €
Paris, France
Télétravail partiel
Un grand groupe a lancé une stratégie Data (Microsoft Fabric, Power BI, Data Lake). Le domaine RH reste en retard : données silotées, dépendance à une ressource unique, enjeux importants liés à la masse salariale. Missions Recueillir et formaliser les besoins métiers RH (indicateurs : effectifs, absentéisme, turnover, masse salariale…). Rédiger les spécifications fonctionnelles (Pléiades, Horoquartz) et structurer un dictionnaire de données RH. Collaborer avec les équipes Data/BI pour assurer qualité et cohérence des flux (Microsoft Fabric, Power BI). Contribuer à la gouvernance et à la mise à disposition des données RH.
Offre d'emploi
Ingénieur Réseau Sécurité (H/F)
Publiée le
Alcatel
AWS Cloud
Cloud
12 mois
40k-45k €
450 €
Île-de-France, France
Télétravail partiel
Nous recherchons, pour l’un de nos clients grands comptes, " un(e) Ingénieur Réseau Sécurité (H/F) " Missions principales : Maintenir et faire évoluer les services réseau et sécurité du catalogue SITT. Assurer le maintien en condition opérationnelle (MCO) des services, en respectant les SLA. Gérer les fournisseurs, coordonner les équipes internes et piloter les projets d’évolution. Industrialiser et automatiser les services (ex. déploiement load balancing, firewalling). Assurer la supervision des services (Zabbix) et la gestion de l’obsolescence. Réaliser un reporting régulier sur l’activité et la capacité des services. Assurer la documentation technique et le transfert de compétences. Participer à la comitologie projets et définir les charges et plannings.
Mission freelance
Product Owner Data Technique - (facturation électronique)
Publiée le
BI
Data analysis
Data governance
12 mois
470-580 €
Île-de-France, France
Télétravail partiel
Contexte Dans un contexte de transformation digitale et d’optimisation de la gestion des données, nous recherchons un Product Owner Data Senior pour piloter la mise en place et l’évolution de solutions liées à la signature électronique , au respect RGPD , et aux outils de BI et reporting . Le poste implique une collaboration étroite avec les équipes techniques (Data Engineers, BI Developers), les métiers et la direction juridique et conformité. Missions principales Pilotage produit : Définir et prioriser le backlog Data en lien avec les besoins métiers et réglementaires. Assurer le suivi des projets de signature électronique et de conformité RGPD. Garantir la qualité et la cohérence des données utilisées pour le reporting et la BI. Coordination et communication : Servir d’interface entre les équipes métiers, juridiques et techniques. Présenter les évolutions et résultats aux parties prenantes. Promouvoir les bonnes pratiques en matière de gouvernance des données. Conformité et sécurité des données : S’assurer du respect des réglementations RGPD et des normes internes de sécurité des données. Participer à la rédaction et à la mise à jour des politiques de données et des workflows de conformité. Reporting et BI : Définir les besoins en reporting, KPIs et dashboards pour les métiers. Superviser la qualité des données, leur disponibilité et leur fiabilité. Contribuer à la mise en place d’outils et de process de BI avancés. Profil recherché Expérience : 5 à 8 ans minimum en Product Ownership / Data Management. Compétences techniques : Expertise en signature électronique et flux documentaires digitaux. Connaissance approfondie de la RGPD et de la conformité des données. Bonne maîtrise des outils BI / reporting (Power BI, Tableau, Looker…). Connaissances en bases de données et modélisation (SQL, Data Warehouses…). Compétences comportementales : Leadership et capacité à fédérer des équipes pluridisciplinaires. Sens de l’organisation, rigueur et priorisation. Communication claire et capacité à vulgariser des concepts techniques.
Mission freelance
Architecte Cloud & Data – Projet Digital Manufacturing
Publiée le
Cloud
1 an
400-640 €
Île-de-France, France
Télétravail partiel
Dans le cadre de sa stratégie de transformation digitale, un grand groupe industriel recherche un Architecte Cloud & Data pour concevoir et mettre en œuvre une architecture moderne au service du digital manufacturing . L’objectif : moderniser et optimiser les processus de production via des solutions numériques avancées et une meilleure gouvernance de la donnée. 🧩 Missions principales Concevoir une architecture Cloud sécurisée, robuste et évolutive (Azure, AWS ou GCP). Intégrer des solutions de gestion et d’exploitation de la donnée (Data Lake, ETL, API, etc.) pour améliorer la performance des processus industriels. Collaborer étroitement avec les équipes internes (IT, OT, data, métiers) pour assurer une intégration fluide. Garantir la sécurité , la conformité et la scalabilité des solutions mises en place. Préparer l’architecture aux évolutions technologiques futures (Edge, IA, IoT industriel…).
Offre d'emploi
Experts AWS (Plusieurs postes)
Publiée le
Ansible
Architecture
AWS Cloud
12 mois
40k-65k €
500-650 €
Seine-et-Marne, France
Télétravail partiel
Experts AWS – Build, Run, Migration & Sécurité Dans le cadre d’un vaste programme de transformation Cloud, nous recherchons plusieurs Experts AWS pour intervenir sur des missions stratégiques de Build, Migration, Run, Supervision, Bases de données et Sécurité au sein d’environnements critiques et fortement industrialisés. Les consultants interviendront au cœur de la Cloud Platform Team et des équipes de production pour concevoir, automatiser, sécuriser et opérer les assets déployés sur AWS. 📍 Localisation : Villaroche (déplacements ponctuels) 🏠 Télétravail : possible 📅 Démarrage : 01/12/2025 ⏳ Durée : 6 mois renouvelables 🌍 Anglais courant requis 🔎 Profils recherchés Nous recherchons des experts AWS confirmés (4+ ans d’expérience) dans les domaines suivants : 1. Expert Outillage & Automatisation AWS Industrialisation des déploiements et du RUN AWS Terraform / CloudFormation / Ansible Pipelines GitLab CI/CD Automatisation Ops / OS Factory Maîtrise AWS MGN, AWS Systems Manager, Service Catalog 2. Expert Supervision & Observabilité AWS Mise en place et optimisation de CloudWatch, Dynatrace, Centreon Centralisation et analyse (ELK Stack) Définition des KPI, dashboards, alerting Automatisation de la remédiation 3. DevOps AWS Pipelines CI/CD sécurisés Déploiements automatisés (Terraform, Ansible) Haute disponibilité, scalabilité, tests intégrés Participation à la Migration Factory et à l’usine à AMI 4. SysOps AWS Exploitation et MCO d’infrastructures AWS Gestion incidents, PRA, sauvegardes, optimisation coûts/perf Monitoring & alerting (CloudWatch, Dynatrace, Centreon) Automatisation via SSM, Lambda, Terraform 5. Expert Bases de Données AWS RDS, Aurora, DynamoDB, Redshift Optimisation performance, sécurité, haute disponibilité Migrations on-prem → AWS CI/CD bases de données, Terraform, SSM 6. SecOps AWS Implémentation IAM, GuardDuty, Security Hub, Macie, WAF CSPM Prisma Cloud (Palo Alto) Analyse et traitement d’incidents sécurité Compliance : ISO 27001, CIS Benchmark, RGPD Intégration sécurité dans CI/CD et pratiques DevSecOps
Offre d'emploi
ARCHITECTE CLOUD STOCKAGE (NetApp)
Publiée le
Ansible
AWS Cloud
Azure
3 ans
Puteaux, Île-de-France
Télétravail partiel
Nous recherchons pour notre client un architecte cloud stockage pour une mission longue Concevoir, industrialiser et piloter des architectures de stockage hybrides et multi-cloud basées sur les solutions NetApp (ON-PREM & Cloud) , en assurant performance, résilience, sécurité et optimisation des coûts pour des charges de travail critiques. Responsabilités principales • Architecture & Design o Définir les HLD/LLD pour Azure, AWS et Private Cloud VMware, intégrés aux solutions NetApp (Azure NetApp Files, FSx for NetApp ONTAP, Cloud Volumes ONTAP, ONTAP on-prem). o Modéliser les patterns : NAS (NFS/SMB), sauvegarde et archivage, multirégion/DR. o Dimensionner la capacité, la perf (IOPS/latence/throughput), et établir RPO/RTO, SLA/SLO. o Dimensionner la consolidation des données (SnapMirror/SVM-DR, XCP, BlueXP Copy & Sync). o Définir les HLD/LLD de l’observabilité (Active IQ Unified Manager, NetApp DII), capacity planning et QoS. • Sécurité & Conformité o Intégrer IAM/AAD/IAM AWS, chiffrement at-rest/in-flight, antivirus, durcissement, traçabilité. o Contribuer aux audits (ISO 27001, NIS2, DORA, etc.) et à la gestion des risques. • Optimisation & FinOps o Gouverner les coûts: tiering (FabricPool vers Blob/S3), classes de stockage, réservations/commitments. o Standards, catalogues de services, modèles Terraform réutilisables, guardrails. Environnement technique • NetApp: ONTAP 9.x, Cloud Volumes ONTAP, Azure NetApp Files, Amazon FSx for NetApp ONTAP, SnapMirror/SnapVault, SnapCenter, FlexVol/FlexGroup, FlexClone, FabricPool, QoS, SVM-DR, NDMP, NFSv3/v4.1, SMB 3.x, iSCSI/MPIO. • Azure: VNet/ExpressRoute, Cloud Volumes ONTAP, ANF, Managed Disks, Storage Accounts, Key Vault, Azure VMs. • AWS: VPC/Direct Connect, FSx ONTAP, KMS. • Automatisation: Terraform, Ansible (collections NetApp). • Réseau: DNS/AD, LDAP/Kerberos, SMB signing, NFS sec, routage & pare-feu. Compétences requises • 5–8 ans d’expérience en architecture stockage dont ≥3 ans sur NetApp ONTAP (cloud & on-prem). • Maîtrise d’au moins deux environnements parmi Azure, AWS, VMware, et des patterns hybrides. • Pratique avancée des migrations (SnapMirror, XCP) et de la résilience (DRP, tests de bascule). • Solides bases en sécurité (chiffrement, IAM, clés gérées, durcissement) et réseau (NFS/SMB/iSCSI). • Connaissance en Scripting/Infra as Code (Terraform/Ansible) et automatisation d’opérations. Soft skills • Leadership technique, pédagogie, sens du service. • Capacité à formaliser (HLD/LLD, DAT, runbooks) et à défendre des choix d’architecture. • Esprit FinOps: compromis coût/perf/risque, mesure & itération. Certifications appréciées (plus) • NetApp: NCDA, NCIE, NCSA (Cloud). • Azure/AWS: AZ-104/305/700, AWS SAA/SAP. • VMware: VCP-DCV, VCP-CMA. • Sécurité: AZ-500, Security Specialty. Livrables attendus • Dossiers d’architecture (HLD/LLD), matrice RACI, DAT, schémas, plans de migration & de tests DR. • Dossiers d’exploitation (sauvegarde, restauration, PRA/PCA) et rapports de performance.
Mission freelance
Senior Data Engineer GCP MLOps
Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)
6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Mission freelance
Data Analyst Senior
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
SQL
6 mois
540 €
Paris, France
Télétravail partiel
Data Analyst Senior (Power BI / SSAS) – Mon client bancaire assurance Nous recherchons un Data Analyst Senior (+5 ans d'expérience) pour rejoindre les équipes de Paris, dans le cadre d'un projet d'envergure mêlant maintenance de l'existant et innovation Cloud. Le Contexte de la Mission Au sein du pôle Assurance, vous intégrerez la plateforme Data responsable du Build et du Run d'un parc applicatif décisionnel complexe. Votre rôle sera double : Gestion des cubes SSAS : Création et maintenance des cubes via Visual Studio . Reporting Power BI : Développement de rapports avancés et participation active à la transition vers une plateforme Power BI Cloud . Profil Recherché Expertise technique : Maîtrise confirmée de Power BI et SSAS (Tabular/Multidimensional). Compétences annexes : Très bon niveau en SQL et aisance sur l'IDE Visual Studio. Une expérience sur Power BI Cloud est un plus majeur. Soft Skills : Capacité à animer des ateliers de cadrage avec les métiers, esprit de synthèse et autonomie. Modalités Pratiques Lieu : Paris (Rythme : 3 jours/semaine sur site). Démarrage : Février 2026. Durée : 6 mois + (visibilité longue). Tarif : Maximum 540 € HT/jour.
Mission freelance
Master Data
Publiée le
Data quality
6 mois
Rennes, Bretagne
Télétravail partiel
🚀Mission Freelance – Responsable Master Data / Data Governance 🚀 📅 Durée : 6 mois 🌍 Localisation : Bretagne ( 3x/semaine : frais de déplacements + logement pris en charge 🚀Démarrage ASAP -> Entretiens Vendredi Je recherche un profil pour piloter un projet Master Data & Data Governance au sein d’un groupe industriel en pleine transformation digitale (ERP Dynamics 365). Contexte : Projet de structuration et migration des données. Données complexes liées aux produits et machines de production. Pas de process existants : rôle clé dans la définition et la formalisation des process. Missions : Cartographier et valider les données ERP (clients, fournisseurs, produits). Assurer la qualité, la cohérence et la gouvernance des données. Accompagner les métiers et la DSI dans la structuration et la migration des données. Préparer et suivre les tests unitaires, UAT et Go Live. Profil recherché : Expérience en Master Data Management, data governance, migration et nettoyage de données. Rigueur, esprit de synthèse et capacité à interviewer les métiers pour capter les besoins réels. Autonomie et aptitude à piloter un projet transverse dans un environnement multi-outils. Je vous laisse m'envoyer un DM !
Mission freelance
Architecte Fonctionnel/Technique
Publiée le
AWS Cloud
Azure DevOps
Gitlab
1 an
400-590 €
Paris, France
Contexte : Au sein du département Architecture Technique, nous recherchons une expertise en architecture technique pour une mission visant à accompagner les projets métiers et IT, en apportant un haut niveau de compétence et de conseil en matière d’architecture technique. Architecture fonctionnelle et/ou technique : Elaboration de l'architecture fonctionnelle globale du SI et de sa trajectoire de mise en œuvre à partir des orientations métiers et stratégiques de l'entreprise. Déclinaison de l'architecture fonctionnelle globale du SI pour les différents projets contribuant à son évolution, avec prise en compte de la vision transversale et de la cohérence entre projets et domaines métiers. Définition de l’architecture technique de tout ou partie de l'infrastructure des systèmes d’informations (bases de données, réseaux, téléphonie, postes de travail, outils et systèmes ...), en s'assurant de la cohérence et de la pérennité de l’ensemble des moyens informatiques et en respectant le plan d’urbanisme de l’entreprise. Cohérence globale de la cartographie au niveau technique, des référentiels et de l’architecture infrastructure cible. Périmètre détaillé : Stratégie : Contribue à l’élaboration du plan stratégique SI. Contribue aux choix de nouvelles solutions répondant aux besoins de l’entreprise, en cohérence avec les recommandations et solutions en place, et plus globalement avec la stratégie SI. Effectue une veille technologique du marché et promeut des solutions innovantes adaptées à l’entreprise. Conception du SI : Construit et maintient les normes et les principes d’architecture du SI et pilote la documentation idoine et met à jour le référentiel de l’entreprise. À partir des stratégies et des besoins des directions Métiers : Analyse, les impacts des nouvelles solutions sur le SI. Propose des évolutions pour les différents produits et services Métier. Propose des évolutions de l’architecture du SI en tenant compte des différents modèles de services. En assurant un SI d’entreprise cohérent et performant, élabore des recommandations pour pouvoir intégrer en toute sécurité de nouvelles solutions SI au sein de l’entreprise. Amélioration continue : Promeut les orientations liées à l’architecture du SI. De manière pédagogique, faciliter le transfert de connaissance, d’expérience et de bonnes pratiques au sein des équipes responsables de l’architecture du SI. Gestion de la connaissance : Communique et partage les principes d’architecture, les standards SI et l’innovation SI avec les communautés des architectes SI. Livrables : Le référentiel d’architecture d’entreprise (normes & standards, cartographie, processus, vocabulaire.)
Mission freelance
Data Engineer (IA/Géospatial) (H/F)
Publiée le
MLOps
Python
6 mois
300-350 €
Toulouse, Occitanie
Télétravail partiel
Notre client, spécialiste du Traitement et Analyse de données, est à la recherche de son futur Data Engineer (IA/Géospatial) (H/F) pour son site de Toulouse, dans le cadre de son activité. Intégré aux équipes du client, vous devrez : * Développer et industrialiser des pipelines et modèles IA exploitant des données géospatiales et météorologiques, dans un environnement cloud-native. ## Compétences techniques attendues * Données météo & satellites Maîtrise des formats (NetCDF, GeoTIFF, HDF5), outils Python (xarray, rasterio…), prétraitement d’images, expérience Sentinel-1/2 et données météo (ARPEGE, AROME, GFS, ERA5). * Data Engineering Pipelines ETL/ELT scalables, orchestration (Airflow, Prefect, Argo), bases de données (PostgreSQL/PostGIS, MongoDB, Snowflake), optimisation des accès. * MLOps & DevOps Déploiement de modèles (CI/CD, monitoring), outils ML/Cloud (MLflow, SageMaker, Docker, Kubernetes, Terraform), AWS/Azure/GCP. * Développement logiciel Python, frameworks web (FastAPI, Django, Flask), bonnes pratiques (tests, docs, versioning).
Mission freelance
DATA MANAGER / REF GOUVERNANCE DE DE DONNEES
Publiée le
Collibra
Data governance
Gouvernance
1 an
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Référent Gouvernance de Données / Data Steward pour une mission freelance au sein d’une équipe transverse Data. Ce rôle stratégique consiste à accompagner les équipes produits digitaux dans l’exposition et la qualité de leurs données, en garantissant le respect des règles de gouvernance définies au niveau groupe. Le consultant sera le point de référence sur la gouvernance des données , travaillera en autonomie et interagira régulièrement avec les autres référents data des différentes plateformes pour harmoniser les pratiques et contribuer à l’amélioration continue. Missions principales : Accompagner les équipes produits dans l’exposition de leurs données selon les standards de gouvernance. Définir et mettre en œuvre les règles de qualité des données en collaboration avec les équipes concernées. Garantir la certification des données publiées. Participer aux comités de gouvernance avec les autres référents data. Être force de proposition sur l’évolution des pratiques et des modèles de données. Contribuer à la modélisation des données et à la valorisation des données de référence. Livrables attendus : Données exposées selon les règles de gouvernance définies. Règles de qualité déployées et respectées. Évaluation du respect des standards de gouvernance.
Offre d'emploi
DATA ENGINEER
Publiée le
24 mois
35k-40k €
250-400 €
Nantes, Pays de la Loire
Télétravail partiel
L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Offre d'emploi
Expert Centreon Cloud
Publiée le
Centreon
Cloud
90 jours
50k-70k €
400-550 €
Saint-Ouen-sur-Seine, Île-de-France
Télétravail partiel
Nous recrutons un Expert Centreon pour piloter un projet stratégique de migration vers Centreon Cloud . Si vous maîtrisez la supervision IT et souhaitez relever un défi technique majeur! Description du poste : En tant qu’ Expert Centreon , vous serez responsable de la conception, de la migration et de l’optimisation des environnements de supervision vers Centreon Cloud , garantissant performance, sécurité et continuité de service. Responsabilités : ✔ Analyser l’infrastructure actuelle et définir la stratégie de migration. ✔ Préparer et configurer l’environnement Centreon Cloud . ✔ Migrer les configurations (hôtes, services, templates) et les données historiques. ✔ Mettre en place les collecteurs distants et optimiser la supervision hybride. ✔ Assurer la sécurité, la conformité et la haute disponibilité. ✔ Former les équipes et rédiger la documentation technique. ✔ Assurer le support post-migration et le suivi des performances. Compétences requises : Expertise Centreon (On-Premise & Cloud). Maîtrise des environnements Linux et bases MySQL/MariaDB. Connaissance des protocoles SNMP, SSH, API. Compétences en scripting (Bash, Python) pour automatisation. Bonnes notions de sécurité et réseau.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
3543 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois