L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 555 résultats.
Mission freelance
Consultant technique SAP Data Migration (Syniti ADM) - IDF
Signe +
Publiée le
SAP ABAP
6 mois
500-700 €
Paris, France
Dans le cadre d’un programme stratégique, notre client engage une transformation de son système d’information avec le déploiement de SAP S/4HANA . La mission s’inscrit dans un contexte à forts enjeux autour de la migration des données , élément clé pour garantir la continuité des opérations métiers et le respect du planning projet. En tant que Consultant SAP Data Migration, vous interviendrez sur : Le développement et paramétrage des objets de migration dans Syniti ADM La conception et maintenance des extracteurs SAP (ABAP, BAPI, LSMW, IDoc, OData) L’ analyse des structures de données sources (ECC) et cibles (S/4HANA) La définition des règles de transformation, mapping et validation des données Le support aux cycles de migration : mock runs, SIT, UAT, cutover La gestion des anomalies techniques et l’optimisation des performances de chargement La collaboration étroite avec les équipes fonctionnelles, techniques et data Informations complémentaires : Localisation : Île-de-France Présence sur site : Minimum 3 jours par semaine Démarrage : ASAP Habilitation Obligatoire
Mission freelance
QA Lead
Byrongroup
Publiée le
Data quality
ERP
KPI
1 an
400-500 €
Île-de-France, France
🎯 Vos missions : • Recueil et formalisation des besoins de test • Challenger pour anticiper les risques qualité • Pilotage des activités de tests : planifier, coordonner et exécuter les campagnes de tests (UAT, E2E...) • Concevoir et maintenir les référentiels de test (plans de test, cas de test, matrices de couverture) • Prioriser les scénarios • Définir les stratégies de validation de la qualité des données • Identifier et analyser les anomalies de données • Collaborer avec les équipes techniques pour la correction des écarts • Vérifier la fiabilité des échanges de données • Pilotage de la qualité et reporting
Mission freelance
Data Engineer
Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Scripting
SQL
12 mois
400-490 €
Lille, Hauts-de-France
Le ou la Data Engineer sera intégré(e à l'équipe produit TOPASE NLS et aura pour principales missions de : µ ● Conception, Développement et Optimisation de Pipelines de Données sur GCP : ○ Concevoir, développer et maintenir des pipelines robustes et performants de collecte, transformation et chargement de données à partir de diverses sources (Oracle, fichiers, APIs, etc.) vers BigQuery et d'autres destinations. ○ Utiliser et orchestrer les services Google Cloud Platform (Dataflow, Dataproc, Cloud Composer/Airflow, Pub/Sub, Cloud Storage, BigQuery) pour construire des architectures de données scalables et fiables. ○ Assurer l'automatisation des traitements, la gestion des dépendances et l'ordonnancement des jobs de données. ○ Optimiser les performances des pipelines et la consommation des ressources GCP.
Offre d'emploi
Ingénieur DevOps Build & Run H/F
CONSORT GROUP
Publiée le
Kubernetes
93100, Montreuil, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Ingénieur DevOps Build & Run H/F C’est votre mission Vous êtes passionné·e par l’automatisation, la fiabilité des plateformes et les environnements critiques ? Ce poste est fait pour vous. En tant qu’ Ingénieur DevOps Build & Run , vous êtes responsable de la fabrication , du déploiement et de l’ exploitation au quotidien de notre écosystème d’infrastructures et de plateformes, avec une responsabilité de bout en bout . Côté build : Concevoir et industrialiser les infrastructures (Infrastructure as Code) Automatiser les déploiements via Ansible Mettre en place et maintenir les clusters Kubernetes Standardiser les environnements Linux RedHat Participer à la définition des architectures techniques Collaborer avec les équipes projets dès les phases de conception Garantir la sécurité, la robustesse et la conformité des environnements Côté run : Assurer le maintien en conditions opérationnelles des plateformes Superviser, diagnostiquer et résoudre les incidents de production Optimiser les performances et la disponibilité des systèmes Mettre en œuvre les procédures d’exploitation et de sauvegarde Gérer les mises à jour, patchs de sécurité et montées de version Participer aux astreintes et à l’amélioration continue du run C’est votre parcours Vous avez au moins 3 à 5 ans d’expérience dans des environnements DevOps exigeants. Vous aimez construire des solutions fiables , automatiser, et améliorer en continu sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technicité va de pair avec la collaboration . Une expérience en environnement bancaire ou réglementé est un vrai plus. C’est votre expertise : Linux RedHat Ansible (automatisation & scripting) Kubernetes Environnements DevOps / Agile Concepts CI/CD Sensibilité aux enjeux de sécurité et de conformité Idéalement : Cloud et outils de monitoring C’est votre manière de faire équipe : Esprit d’analyse et de résolution de problèmes Rigueur et sens des responsabilités Goût du travail en équipe et du partage de connaissances Autonomie et proactivité Capacité à communiquer clairement avec des interlocuteurs variés C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : 93- Montreuil Contrat : CDI Télétravail : Hybride Salaire : De 55 K€ à 60 K€ (selon expérience) brut annuel Famille métier : [DevOps / Intégration continue / Systèmes] Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Administrateur Base de Données (F/H)
Experis France
Publiée le
30k-36k €
Niort, Nouvelle-Aquitaine
Administrateur Base de Données (F/H) - Niort 📍 Niort 📝 CDI - Temps plein 💼 Salaire : 30 000 à 36 000 € brut/an selon expérience 🎯 Contexte Dans le cadre de projets stratégiques visant à renforcer l'efficacité, la performance et la sécurité des environnements data, nous recherchons un(e) Administrateur(trice) Base de Données. Vous interviendrez au cœur des systèmes d'information pour optimiser les bases existantes, sécuriser les données sensibles et contribuer à l'évolution globale de l'infrastructure de notre client. Vous rejoignez une équipe technique engagée où votre expertise jouera un rôle clé dans la réussite des projets en cours. 🛠️ Vos missions principales En tant qu'Administrateur(trice) Base de Données, vous aurez pour responsabilités : 🔧 Administration & Maintenance Assurer l'administration quotidienne des bases de données (installation, configuration, mises à jour, maintenance). Surveiller la disponibilité, l'intégrité et les performances des environnements BD. Garantir la cohérence et la qualité des données. 🚀 Optimisation & Performance Optimiser les performances des bases existantes (requêtes, indexation, tuning). Identifier et résoudre les goulots d'étranglement. Proposer des améliorations continues pour renforcer l'efficacité du SI. 🔐 Sécurité & Conformité Participer au renforcement de la sécurité des données sensibles. Appliquer les bonnes pratiques en matière de sauvegardes, restaurations et gestion des accès. Contribuer aux audits et actions de conformité. 🤝 Support & Collaboration Collaborer étroitement avec les équipes techniques (développement, production, infrastructure). Apporter un support avancé pour résoudre des problématiques complexes liées aux bases de données. Participer activement aux projets d'évolution du SI. 🔄 Adaptation & Contribution aux projets Intervenir dans un environnement technique dynamique et en constante évolution. S'adapter aux nouveaux besoins métiers. Contribuer à la qualité, à la fiabilité et à la continuité de service des systèmes de gestion de données.
Mission freelance
Product Owner - Transaction Regulatory Reporting
NEXORIS
Publiée le
Data quality
1 an
560-650 €
Île-de-France, France
Notre client, Banque de Finance et d'Investissement, recherche un Product Owner Transformation Reporting Réglementaire – Capital Markets (H/F) dans le cadre d'une longue mission. Dans le cadre d’un programme pluriannuel de transformation et de sécurisation des reportings réglementaires transactionnels au sein des activités de marchés, la mission consiste à piloter la backlog et garantir la conformité réglementaire (MIFID II, EMIR, SFTR…) dans un environnement international. Rôles stratégiques : - Traduction des exigences réglementaires (MIFID II, EMIR, SFTR…) en user stories et critères d’acceptation métier - Priorisation des livrables selon les échéances réglementaires, l’impact business et les risques - Coordination des parties prenantes : IT, Compliance, Front Office, Middle & Back Office Rôles opérationnels : - Gestion et priorisation de la backlog, animation des cérémonies agiles - Définition et validation des solutions fonctionnelles de reporting - Contrôle du respect des formats techniques (ISO 20022, FpML) et des délais de transmission réglementaire - Encadrement des Feature Owners et des équipes en charge des expressions de besoins et des recettes - Pilotage des dépendances entre systèmes Front Office, post-trade et outils de reporting Rôles de pilotage : - Définition et suivi des KPIs (taux de rejet, complétude des données, délais de soumission) - Reporting aux instances de gouvernance (avancement, risques, alertes) - Accompagnement au changement et support aux équipes de production Livrables - Backlog priorisée et roadmap de transformation - User stories et critères d’acceptation formalisés - KPIs de pilotage et tableaux de bord - Documentation fonctionnelle et supports d’accompagnement au changement
Mission freelance
Tech Lead Data GCP Expert F/H
SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker
12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Offre d'emploi
Ingénieur de Production Réseaux IP
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k ¤
400-480 ¤
Île-de-France, France
Contexte de la mission : Dans le département de production / exploitation du réseau, vous serez l’ingénieur de Production en réseaux IP. Vous aurez pour principales missions : Organiser l’intégration technique des travaux IP de la Conception vers l’équipe de Production réseaux Assurer et optimiser les process et procédures de Production Assurer un suivi des versions de firmware et organiser les opérations de mise à jour Définir et mettre en place les outils de production, d’automatisation et de supervision du réseau Garantir le respect des délais, de la qualité de services et de la satisfaction des clients dans les cycles de production Assurer un support niveau 3 Dans ce cadre, vous serez amené à travailler en étroite collaboration avec les équipes de conception et gestion de projet ainsi qu’avec l’équipe IT. Lors de déploiement de nouveaux réseaux, vous participerez aux réunions afin de donner votre avis sur la meilleure organisation possible et d’anticiper sur les difficultés pouvant être rencontrées. LES SPECIFICITES DE LA MISSION Ce poste vous permettra de travailler sur la globalité du réseau de Globecast et de participer à l’évolution de notre entreprise vers les technologies de la virtualisation et du Cloud. Vous travaillerez ainsi dans un environnement très varié et demandant une haute qualité de service, notamment due au contenu transporté, tels que les flux vidéo en live.
Offre d'emploi
Data Analyst
Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL
3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
Offre d'emploi
Administrateur système H/F
CONSORT GROUP
Publiée le
30k-35k €
75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Administrateur système H/F C’est votre mission Administrateur système H/F C’est votre mission Vous êtes passionné·e par les environnements systèmes et l’exploitation IT ? Ce poste est fait pour vous. En tant qu’ Administrateur système , vous êtes responsable du bon fonctionnement et de la disponibilité de notre écosystème informatique : Missions : Surveillance quotidienne des serveurs et des infrastructures Monitoring et suivi de la disponibilité des environnements Gestion des incidents techniques (escalades Helpdesk) Support niveau 2 / 3 Exécution des opérations courantes : Redémarrage des serveurs Mises à jour Vérifications systèmes Participation à la continuité de service et au maintien en conditions opérationnelles C’est votre parcours Vous avez au moins 2 à 5 ans d’expérience dans des environnements d’exploitation systèmes exigeants. Vous aimez résoudre des incidents techniques et optimiser les performances sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Hyper-V (principal) VMware (notions) Environnement Microsoft orienté RUN / exploitation Scripting Batch / commandes DOS Notions en PowerShell C’est votre manière de faire équipe : Rigueur et sens de l’organisation Capacité d’analyse et de résolution de problèmes Esprit d’équipe Autonomie et sens des responsabilités C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Clamart Contrat : CDI Télétravail : Hybride Salaire : 34 K€ brut annuel Famille métier : Systèmes / Exploitation
Offre d'emploi
Ingénieur Gouvernance cybersécurité H/F
VIVERIS
Publiée le
40k-45k €
Ramonville-Saint-Agne, Occitanie
Contexte de la mission : Nous recrutons en CDI un ingénieur gouvernance cybersécurité H/F. Intégré au sein de notre équipe cybersécurité, vous interviendrez dans des environnements variés et critiques, en contribuant directement à la résilience et à la conformité des systèmes d'information. Responsabilités : - Assurer la mise en conformité (II901, réglementations nationales et européennes) ; - Sélectionner et suivre le déploiement de solutions techniques adaptées aux enjeux de sécurité ; - Adapter les processus métiers et accompagner la gouvernance des SI (définition des politiques de sauvegarde, gestion du changement, etc.) ; - Mener des analyses de risques sur des produits ou des SI dans divers secteurs stratégiques (santé, transports, spatial...) - Accompagner l'homologation de SI : documentation, procédures, conformité ; - Sensibiliser les équipes à la cybersécurité et piloter les plans d'amélioration continue.
Mission freelance
Expert KIBANA / Analyse de données H/F
LOMEGARD
Publiée le
Bitbucket
Elasticsearch
Jenkins
1 an
450-500 €
Île-de-France, France
Dans un environnement orienté observabilité et pilotage de la performance, la mission consiste à exploiter les données collectées et indexées dans Elasticsearch pour construire des dashboards Kibana complets, lisibles et actionnables . L’objectif est d’assurer une visibilité de bout en bout sur les flux de données, les performances applicatives et les processus métier, tout en garantissant la qualité et la pertinence des informations restituées. Concrètement, la personne devra : Concevoir et maintenir des dashboards Kibana clairs, performants et orientés suivi de bout en bout Transformer les besoins métiers et techniques en visualisations utiles, lisibles et actionnables Assurer la visibilité sur les flux de données, les performances applicatives et les processus métier Exploiter les fonctionnalités avancées de Kibana : visualisations, filtres interactifs, agrégations, drill-down Analyser et structurer les données issues de THEIA, Filebeat et Logstash pour maximiser leur valeur dans Kibana Collaborer avec les équipes Elasticsearch pour optimiser les requêtes, les index patterns et les performances d’affichage Utiliser le Machine Learning de Kibana pour détecter les anomalies, identifier les tendances et anticiper les dérives Garantir la qualité, la cohérence et la pertinence des données présentées dans les dashboards Mettre en place des indicateurs de suivi et produire des reportings clairs sur l’état des systèmes et des alertes Proposer des améliorations continues pour rendre l’analyse plus rapide, plus fiable et plus exploitable
Offre d'emploi
Ingénieur DevOps SRE F/H
AIS
Publiée le
DevOps
Site Reliability Engineering (SRE)
1 mois
38k-48k €
240-480 €
Niort, Nouvelle-Aquitaine
Intégré(e) aux équipes d'un de nos clients grands comptes, vos missions seront les suivantes : - Participer à l'élaboration du dossier d'architecture et analyser les impacts sur le SI, - Accompagner les équipes projets sur les déploiements et faire des feedback - Planifier les changements majeurs et transverses et mettre en place un suivi des changements - Industrialiser les traitements en lien avec les équipes études - Administrer les serveurs applicatifs et mettre à jour les normes et les environnements - Faire évoluer les environnements , les outils et les composants applicatifs - Contribuer au traitement et à la bonne résolution des problèmes en lien avec l'équipe d'exploitation - Communiquer et partager les principes d'architecture, les standards SI et l'innovation avec les communautés d'experts SI Environnement technique : - Suite bureautique : Office 365 - SQL server, PostGreSQL - Java17, Gitlab, Github - Ansible, Python - Infrastructure des réseaux (DHCP, DNS, NTP, etc...), - Shell, PowerShell - Agilité
Offre d'emploi
Ingénieur DevOps F/H
AIS
Publiée le
DevOps
1 mois
45k-48k €
240-480 €
Niort, Nouvelle-Aquitaine
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grands comptes vos missions seront les suivantes : - Assurer la disponibilité et la stabilité des environnements (Test, Prod). - Exécuter et superviser l'installation (déploiement, bon démarrage). - Automatiser les déploiements et les pipelines (CI/CD) dans un but de fluidifier et de fiabiliser la réalisation. - Collaborer à la mise en place de la supervision incluant la documentation des dépendances. - Analyser, résoudre les incidents et suivre les plans de remédiation. - Participer à la définition des Exigences Non Fonctionnelles (sécurité, performance, scalabilité) et s'assurer de leur implémentation en projet et en production. - Garantir la conformité et la qualité des livrables (tests, documentation) et anticiper les risques. Connaissances techniques : - Ordonnanceur (Control M) - Déploiement continu (Gitlab, Openshift, CICD, Terraform) - SQL (Oracle, MySQL, PostgreSQL) - Monitoring (Dynatrace) - ETL Powercenter / ELT DBT - Hadoop (HDFS, Spark) - Scripts (shell, ksh) - Python - Google Cloud Platform (Big Query) - Jira, Confluence, Easyvista, Google Workspace
Mission freelance
Expert systèmes d’exploitation / réseau télécom
ARKAMA CS
Publiée le
Netskope
252 jours
Hauts-de-France, France
📄 Appel d’Offres – Expert Réseaux & Sécurité N3 (Netskope) – Projet BUILD / RUN 🧭 Contexte de la mission Dans le cadre d’un programme stratégique de transformation et de sécurisation des infrastructures IT au sein d’un environnement retail multi-sites (magasins, plateformes logistiques, sièges), nous recherchons un Expert Réseaux & Sécurité N3 afin d’accompagner les équipes dans les phases BUILD et RUN autour de solutions de sécurisation des accès, notamment Netskope. Ce projet s’inscrit dans une démarche globale de modernisation des architectures réseau et sécurité, avec un fort enjeu de fiabilisation, performance et sécurisation des flux utilisateurs et applicatifs. 🎯 Objectifs de la mission Le consultant interviendra en tant qu’expert technique sur les volets suivants : Accompagnement à l’intégration et au déploiement de solutions de sécurité réseau (Netskope SWG & ZTNA) Contribution active à la mise en œuvre des architectures cibles Participation aux activités de support N3 (RUN) sur les environnements en production Contribution à la fiabilisation des infrastructures et à l’amélioration continue 🛠️ Périmètre d’intervention
Offre d'emploi
Data Engineer Apache NiFi/SQL/JSON/XML/API
OBJECTWARE
Publiée le
Apache NiFi
API
JSON
3 ans
40k-68k €
400-550 €
Île-de-France, France
Objectif de la mission Dans le cadre du déploiement d’une plateforme Data destinée à centraliser, fiabiliser et gouverner l’ensemble des données des domaines banque et assurance, vous intégrez la squad Data Flux. Cette équipe, composée de trois développeurs Data, d’un architecte technique, d’un Business Analyst et d’un Product Owner, est responsable des missions suivantes : la conception et l’implémentation des flux de données, l’intégration et la transformation de données provenant de sources multiples, la sécurisation et l’industrialisation des flux, en conformité avec les standards attendus en matière de qualité et de traçabilité. Une expérience dans les secteurs de l’assurance, de la banque ou de la finance est vivement recommandée, notamment sur des développements de flux conformes à la norme Penelop, ainsi que sur des flux de données liés aux domaines assurantiels ou aux données clients. - Conception et développement de pipelines de données : Concevoir des flux robustes et évolutifs pour l’ingestion, la transformation et la diffusion des données dans le cadre du modèle Bronze / Silver / Gold. - Développement et intégration sur Apache NiFi : Implémenter et paramétrer des workflows NiFi pour collecter et normaliser les données issues de différentes sources (fichiers XML/CSV, API REST). - Transformation et modélisation des données : Participer à la modélisation du socle de données structurées et au développement des transformations afin de constituer les vues consolidées du MDM. - Contrôles de qualité et traçabilité : Mettre en place des mécanismes d’audit, de logs et de contrôle (complétude, unicité, cohérence, versioning des données). - Optimisation et performance : Surveiller les performances des pipelines, identifier les goulots d’étranglement et proposer des améliorations continues. - Sécurité et conformité : Veiller à la sécurité des données (authentification, chiffrement, gestion des accès) dans le cadre des standards du groupe. - Documentation et partage de connaissances : Documenter les processus, les schémas et les bonnes pratiques afin d’assurer la maintenabilité et la transmission des savoirs au sein de la squad. PREREQUIS TECHNIQUES : - Maîtrise d’Apache NiFi (ingestion, orchestration, monitoring) - Solides connaissances en SQL et modélisation de données relationnelles (PostgreSQL) - Connaissance des modèles de stockage objet (S3, Blob) - Connaissance des formats et protocoles : JSON, XML, CSV, REST API - Compétences en scripting (Python, Bash) appréciées - Sensibilité aux enjeux de qualité, sécurité et gouvernance des données Compétences Techniques : SQL, Python, Bash, Gitlab
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6555 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois