L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 172 résultats.
Offre d'emploi
Data Engineer Stambia
ANDEMA
Publiée le
Qlik Sense
Qlikview
Semarchy
3 mois
Lille, Hauts-de-France
Contexte Pour le même client Retail, nous recherchons un Data Engineer spécialisé Stambia afin de renforcer l'équipe Data sur les sujets d'intégration, de transformation et d'industrialisation des flux. Vous interviendrez au coeur de l'architecture Data et travaillerez en étroite collaboration avec les équipes BI et métiers. L'objectif : garantir la fiabilité, la performance et la scalabilité des flux de données alimentant le DataWarehouse et les outils décisionnels. Missions 1. Data Engineering & Intégration - Concevoir, développer et maintenir les flux d'alimentation via l'ETL Stambia. - Intégrer des données issues de multiples sources (ERP, bases SQL, fichiers plats, API...). - Développer et optimiser les transformations et règles de gestion. - Industrialiser les traitements batch et automatiser les flux. - Mettre en place des contrôles qualité et mécanismes de supervision. 2. Architecture & Modélisation - Participer à l'évolution du DataWarehouse. - Contribuer aux choix d'architecture Data. - Optimiser les performances des traitements et des bases de données. - Assurer la cohérence et la traçabilité des données. 3. Maintenance & Support - Assurer le MCO des flux ETL existants. - Diagnostiquer et corriger les incidents. - Maintenir la documentation technique. - Proposer des améliorations continues sur les processus d'intégration Environnement technique Stambia SQL (PostgreSQL, Oracle, SQL Server) DataWarehouse / DataLake QlikView / Qlik Sense (environnement cible) JIRA, Git Agile Scrum / Kanban
Mission freelance
Data Manager / Data Steward
Codezys
Publiée le
Data management
Data quality
Lean
12 mois
Rennes, Bretagne
Nous recherchons un profil capable de renforcer notre équipe de Data Management afin de soutenir la réalisation de nos engagements concernant nos offres de services dans ce domaine. Cette personne accompagnera également nos parties prenantes métier dans leurs projets liés à la gestion des données. ENJEUX La mission vise à garantir le succès des initiatives métier portant sur le catalogage des données et leur nettoyage, en particulier lors de projets de transformation majeurs. OBJECTIFS Contribuer à l’enrichissement et au renforcement de notre offre de services en Data Management (méthodologies, outils, formations, accompagnement au changement…) Faciliter la collaboration entre les équipes (Data, IT, architecture, métier) autour de la gestion des données (catalogage, qualité, documentation, sécurité, modélisation…) Professionnaliser et accompagner la montée en compétences des Data Owners, Data Stewards et Data Custodians concernant leurs rôles liés à la qualité des données Participer à l’amélioration de la culture Data au sein de l’organisation Le périmètre technique englobe : Data Gouvernance Data Management Data Quality DAMAS Méthodologies Lean et Agile Outil Blueway MyData Catalogue Tout le système d’information, incluant SIO et legacy Intelligence artificielle Objectifs et livrables Les prestations attendues, non exhaustives, comprennent : Cataloguage de données : réalisation de projets de documentation métier et technique, intégration dans l’outil My Data Catalog Data Quality Management : audits de qualité, propositions de plans de remédiation Accompagnement au changement, formation et sensibilisation Data : formation à l’utilisation de My Data Catalog, accompagnement individuel ou collectif (1 à 1, ateliers) Communication : création et diffusion de newsletters, publications sur l’intranet Participation à des réunions de communauté : Data Owners, Data Stewards, Data Custodians Les livrables attendus comprennent : Les catalogues de données dans l’outil My Data Catalog Les résultats des audits de qualité des données Supports de formation sur les outils et méthodologies de Data Management Newsletter ou autres publications destinées à la communication interne
Mission freelance
INGENIEUR DATA BI - GENIO
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Developpeur fullstack (H/F) - 92
Mindquest
Publiée le
AWS Cloud
Terraform
1 an
300-480 €
Neuilly-sur-Seine, Île-de-France
Dans un contexte de renouvellement et d’accélération des initiatives d’innovation, notre client souhaite renforcer son équipe technique. Les missions actuelles arrivant à leur terme, un profil Fullstack senior est recherché pour accompagner les nouveaux projets à forte valeur ajoutée. L’équipe en place se compose de : 1 Responsable Tech (lead des projets) 3 Chefs de projet 1 Développeur Fullstack Le poste est rattaché directement au client, avec un fort niveau d’autonomie et une collaboration étroite entre les équipes métier et techniques. Mission En tant que Développeur Fullstack orienté innovation, vous interviendrez sur des sujets variés et stratégiques, avec un rôle central dans l’exploration et la mise en œuvre de nouvelles technologies. Innovation & R&D Mener des POC et évaluer des technologies innovantes, notamment dans les domaines suivants : Musique & services aux sociétaires Outils digitaux dédiés aux sociétaires Horodatage via la blockchain IA générative appliquée à la musique Prototyper des solutions en s’appuyant sur 3 KPI définis, afin de démontrer la valeur métier. Participer à l’innovation interne, avec pour objectif l’intégration des solutions dans les processus de production. Collaboration & Amélioration continue Travailler en binôme étroit avec les chefs de projet (forte interaction métier / tech). Contribuer à l’amélioration de la démarche d’innovation globale. Challenger l’existant et les équipes pour accélérer les délais et optimiser les pratiques. Participation possible à l’audit du Vibe Coding.
Offre d'emploi
Architecte Technique Intégration de Flux – MuleSoft / Kafka / MQTT
R&S TELECOM
Publiée le
Apache Kafka
AWS Cloud
High Level Design (HLD)
1 an
Malakoff, Île-de-France
Le client recherche un Architecte Technique Intégration confirmé capable de concevoir et structurer les architectures d’intégration applicative. Le consultant interviendra sur les projets nécessitant la mise en place de flux applicatifs entre différents systèmes métiers et industriels. Ses missions principales seront : -concevoir les architectures techniques des flux applicatifs -garantir la cohérence et l’urbanisation des échanges inter-systèmes -produire les livrables d’architecture nécessaires aux projets -accompagner les équipes techniques lors de la mise en œuvre des solutions -assurer la conformité des architectures aux standards techniques et de sécurité du groupe Le consultant participera également aux instances de validation d’architecture et contribuera à l’évolution des standards techniques de l’organisation. Prestations attendues Architecture & Design: Recueil et analyse des besoins métiers Conception d’architectures d’intégration inter-applicatives Modélisation des architectures techniques Urbanisation des flux applicatifs Définition de patterns d’intégration Participation aux comités d’architecture Conseil & Expertise: Support aux équipes projets et équipes de delivery Accompagnement des équipes techniques lors du déploiement des solutions Contribution aux normes et standards IT du groupe Support aux équipes sécurité et architecture Vérification de la conformité des implémentations aux standards d’architecture Gouvernance & Delivery: Participation aux comités techniques et d’architecture Support aux phases de validation des architectures Accompagnement à la mise en production des solutions Suivi et reporting des activités Livrables attendus : HLD Flux (High Level Design) LLD / Design technique détaillé Patterns d’architecture et modélisation Documentation technique d’intégration Recueil des besoins métiers Rapports d’activité hebdomadaires Support aux comités de validation d’architecture
Offre d'emploi
Développeur Full-Stack / Azure( EXP 5 Ans)
Codezys
Publiée le
API
Azure
Docker
50k-55k €
Paris, France
Au sein de la Direction des Systèmes d'Information (DSI), l’équipe Data & Integration est responsable du développement de flux de données sur la plateforme Azure. Dans le cadre d’un nouveau projet, nous recherchons un développeur Full-Stack pour assurer le développement et le déploiement sécurisé d’une application web, en collaboration étroite avec l’équipe data. Ce poste requiert une expertise approfondie en développement front-end et back-end, ainsi qu’une capacité à gérer l’intégralité du cycle de vie du projet, depuis la conception jusqu’à la mise en production. Missions Concevoir et développer l’interface front-end de l’application web Participer au développement des fonctionnalités back-end Déployer l’application sur Azure en utilisant des processus CI/CD et mettre en place une authentification sécurisée via Azure AD / Entra ID Concevoir et implémenter la base de données applicative Collaborer avec l’équipe data engineering pour intégrer l’application aux flux de données existants Participer à la création et à la gestion des pipelines de données Rédiger une documentation technique claire, structurée et facilement maintenable Stack technique Frontend : React JS, Next JS Backend : Python, FastAPI, Flask Cloud : Azure (App Services, Functions, Logic Apps, Service Bus, Key Vault, API Management) DevOps & Infra : Azure DevOps (CI/CD), Git, Bicep, Terraform Base de données : SQL Server
Offre d'emploi
Data Engineer (Paris ou Lyon)
TEOLIA CONSULTING
Publiée le
BI
Data Lake
Master Data Management (MDM)
12 mois
40k-45k €
400-470 €
Paris, France
Nous recherchons pour l'un de nos clients un(e) Data Engineer pour renforcer une squad Data dédiée à la mise en place d’un socle de Master Data Management (MDM) . L’objectif du projet est de centraliser, fiabiliser et gouverner les données liées aux instruments financiers , dans un environnement exigeant en matière de qualité, traçabilité et sécurité. Missions : Intégré(e) à une équipe pluridisciplinaire (Data Engineers, Architecte, BA, PO), vous interviendrez sur : La conception et le développement de pipelines de données (modèle Bronze / Silver / Gold) L’ingestion et l’orchestration des flux via Apache NiFi L’intégration de données multi-sources (CSV, XML, API REST) La modélisation des données et la construction de vues consolidées MDM La mise en place de contrôles de qualité et de traçabilité (logs, audit, complétude, cohérence, versioning) L’optimisation des performances des pipelines Le respect des standards de sécurité et conformité La documentation et le partage de bonnes pratiques au sein de la squad Environnement technique Apache NiFi SQL / NoSQL PostgreSQL Stockage objet : S3 / Blob Formats & protocoles : JSON, XML, CSV, API REST Scripting : Python , Bash CI/CD : GitLab, GitLab CI
Mission freelance
Ingénieur Production Applicative – Marchés Financiers
VISIAN
Publiée le
Azure
DevOps
Docker
1 an
400-560 €
Île-de-France, France
Contexte Au sein de la DSI d’un grand acteur bancaire international, vous intégrerez une équipe en charge de la production applicative sur des systèmes critiques liés aux activités de marchés financiers. Vous interviendrez dans un environnement exigeant, orienté haute disponibilité, automatisation et pratiques DevOps modernes. 🎯 Missions principales🔧 Exploitation & Résilience Assurer la stabilité, la disponibilité et la sécurité des applications en production Gérer les incidents, analyser les causes racines et coordonner les correctifs Participer aux astreintes Améliorer les dispositifs de monitoring et d’alerting 🚀 Support Projets & Environnements Provisionner et administrer des environnements Linux et Windows Gérer les déploiements et accompagner les équipes de développement Concevoir et optimiser des architectures on-premise et cloud ⚙️ Automatisation & Plateforme Développer des scripts d’automatisation (Python, Shell, PowerShell) Mettre en place et maintenir des pipelines CI/CD Contribuer à l’industrialisation et à la plateforme de delivery
Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort
EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis
3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Offre d'emploi
Data Engineer Big Data
Signe +
Publiée le
24 mois
45k-50k €
322-500 €
Saint-Denis, Île-de-France
Contexte: Nous recherchons un Data Engineer Expérimenté/Senior spécialisé en environnement Big Data OnPremise pour une mission dans le cadre de l'exploitation, du maintien en conditions opérationnelles et des évolutions du Data Lake OnPremise (DataStore). Le collaborateur s'intégrera dans une équipe de 14 développeurs et contribuera également aux travaux liés à la migration progressive du Data Lake vers GCP. Missions : Exploitation et maintenance des traitements Big Data : supervision, intégration des données, contrôle qualité. Développements et évolutions sur les pipelines existants (Spark, Kafka, NIFI). Optimisation des performances et maintien des services DataStore. Gestion des incidents niveau 3 : diagnostic, correction, suivi JIRA/ITZMI. Participation aux évolutions applicatives, aux travaux transverses et aux actions préparatoires à la migration Cloud. Profil : Data Engineer Tech Lead Compétences techniques requises : Spark Kafka NIFI HDFS HBase Airflow Python SQL Technologies complémentaires : Java Scala BigQuery
Offre d'emploi
Architecte Kafka
LEVUP
Publiée le
Apache Kafka
AWS Cloud
12 mois
Liège, Belgique
Dans le cadre de la conception et de l’évolution de plateformes applicatives et data orientées temps réel , nous recherchons un Architecte Kafka AWS capable d’intervenir de bout en bout (end-to-end / endzone) : de l’architecture backend et streaming jusqu’à l’intégration avec les applications frontend. Le poste s’inscrit dans des environnements cloud AWS à forts enjeux de performance, de scalabilité et d’intégration SI. Rôle & responsabilitésArchitecture globale (End-to-End) Concevoir l’ architecture applicative et data de bout en bout Garantir la cohérence entre : Frontend (Angular) Backend (.NET) Streaming & intégration (Kafka) Infrastructure AWS Être le référent architecture sur le périmètre fonctionnel et technique Kafka & intégration Concevoir et mettre en œuvre des architectures événementielles basées sur Apache Kafka Définir les patterns d’intégration : Event-driven Pub/Sub CDC (Change Data Capture) Mettre en place Kafka Connect, Schema Registry, MirrorMaker Accompagner les équipes sur la modélisation des événements et contrats de données Environnement AWS Déployer et opérer Kafka sur AWS (Amazon MSK ou équivalent) Concevoir l’architecture cloud : VPC, IAM, sécurité, réseaux EC2 / EKS selon les besoins Intégrer Kafka avec les services AWS (S3, Lambda, bases de données, etc.) Backend – .NET Concevoir des API et services backend en .NET Définir les standards d’architecture (clean architecture, microservices) Garantir performance, sécurité et maintenabilité Intégrer les flux Kafka côté backend Frontend – Angular Définir les principes d’architecture frontend Angular Assurer la bonne intégration avec les API et les flux temps réel Travailler sur l’expérience utilisateur dans des applications data-driven Qualité & gouvernance Mettre en place les bonnes pratiques : Sécurité Monitoring Logging Résilience Documenter les architectures Participer aux revues techniques et d’architecture Accompagner et guider les équipes de développement Compétences techniques requisesStreaming & intégration Apache Kafka (expert) Kafka Connect, Schema Registry Architectures event-driven Formats : JSON, Avro, Protobuf Cloud & DevOps AWS (très bonne maîtrise) Amazon MSK CI/CD Infrastructure as Code (Terraform, CloudFormation) Backend .NET / C# APIs REST Microservices Frontend Angular Intégration frontend / backend Notions UX appréciées Profil recherché Formation ingénieur ou équivalent Expérience confirmée en architecture end-to-end Solide expérience sur Kafka en production À l’aise dans des environnements complexes et multi-équipes Capacité à dialoguer aussi bien avec les développeurs que les métiers Atouts appréciés Expérience grands comptes Connaissances data (Spark, Flink, etc.) Certifications AWS / Kafka Sens du produit et de l’expérience utilisateur
Mission freelance
Data Analyst Lutte contre la fraude
ODHCOM - FREELANCEREPUBLIK
Publiée le
Data analysis
PySpark
Python
2 ans
400-580 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Localisation : Aix-en-Provence Contexte de la mission : Le présent marché spécifique a pour objet le renforcement de l'équipe de data analyste. Le profil aura pour mission de mettre en oeuvre des analyses dans le cadre de la lutte contre la fraude. Fort d'une expérience DATA, il devra prendre en compte toutes les données du SI afin d'etudier leur cohérence et leur impact dans les processus métiers sensibles." Missions : Au sein de l’équipe data dédiée au sujet, vous contribuez à la conception et à l’exploitation de dispositifs d’analyse visant à améliorer la détection des risques de fraude. Rattaché à l'équipe Analyse de la donnée, l'intervenant aura pour principales missions : - Prise en compte des données du domaine "Individu Allocataire" et assimilation de leurs impacts dans le SI - Mise en oeuvre de cas d'usage métiers orientés lutte contre la fraude par croisement des données ( ciblage , analyse de donnée ou prédiction ) - Développement et maintenance de produits DATA réutilisables - Respect des normes et bonnes pratiques au sein de l'équipe
Offre d'emploi
Chef de projet data H/F
HN SERVICES
Publiée le
Confluence
Google Cloud Platform (GCP)
JIRA
12 mois
53k-57k €
400-450 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Chef de Projet Data sénior afin de participer à la mise en œuvre de nouveaux usages data sur une plateforme GCP au sein d’une squad Data chez l’un de nos clients situé à Aix en Provence . Description du poste : En tant que Chef de Projet Data, vous pilotez une équipe de Data Analysts et accompagnez les métiers dans le développement de nouveaux usages data autour de la Business Intelligence et de la data science. Vos principales responsabilités : • Piloter et animer la squad Data composée de Data Analysts • Identifier et qualifier les besoins métiers autour de la donnée • Accompagner les métiers dans l’adoption des usages BI, self-BI et data science • Structurer et piloter les projets data dans un cadre agile • Garantir la qualité, la performance et l’industrialisation des solutions mises en place • Assurer la coordination entre équipes métiers, data et techniques • Suivre l’avancement des travaux, les livrables et les engagements projet • Contribuer à l’exploration et à la mise en œuvre de nouveaux cas d’usage data Environnement technique : Google Cloud Platform, BigQuery, Jira, Xray, Confluence, Linux, Python, PowerBI, Composer, SSIS.
Mission freelance
EXPERT DBA SQL ORACLE & AWS HABILITABLE, anglais courant H/F
Cheops Technology
Publiée le
Administration système
AWS Cloud
Microsoft SQL Server
6 mois
400-550 €
Melun, Île-de-France
Sous la responsabilité du responsable de service et le support d’un référent interne expert le candidat aura en charge la gestion des activités suivantes Gestion globale d’exploitation du périmètre des bases de données •Gestion des incidents et des changements •Maintien en Condition opérationnelles et de Sécurité (Patching) •Contribution à la mise à jour et au maintien du catalogue des services Base de Données •Reporting et du suivi d’activité global de son périmètre •Respect des normes et exigences de sécurité des systèmes d’informations •Respect des process •Réalisation et mise à jour des documentations d’exploitation En complément, il participera à l’accompagnement technique d’intégration des bases de données pour les projets (BUILD) •Définition d’architecture des bases de données pour les projet applicatifs (accompagnement des architectes sur les spécifications et exigences techniques de dimensionnement, disponibilité, et de performance •Accompagnement à l’intégration des bases de données des solutions applicatives •Elaboration des référentiels techniques de bases de données (Dossier d’architecture technique détaillés, Dossier de mise en exploitation SQL Serveur CLOUD
Mission freelance
Ingénieur Sécurité Réseau Confirmé / Expert – Secteur Retail
LINKWAY
Publiée le
Administration réseaux
Ansible
AWS Cloud
6 mois
Île-de-France, France
Dans un contexte de transformation numérique accélérée et de sécurisation accrue des infrastructures critiques, nous recherchons pour l'un de nos clients majeurs du secteur Retail un Ingénieur Sécurité Réseau Confirmé/Expert . Intégré(e) au sein de la Direction des Systèmes d'Information, et plus spécifiquement au cœur de l'équipe Infrastructure et Sécurité en Île-de-France, vous jouerez un rôle pivot dans le maintien, l'évolution et la protection du patrimoine numérique de l'entreprise. Vos responsabilités s’articuleront autour de cinq axes stratégiques majeurs : Architecture et Ingénierie Complexe : Vous serez en charge de concevoir, planifier et déployer des architectures réseaux robustes et sécurisées. Cela implique une maîtrise parfaite des environnements hybrides. Vous devrez garantir la cohérence des flux entre les infrastructures On-Premise et les environnements Cloud (Public et Privé). Vous travaillerez sur la segmentation réseau, la sécurisation des "Landing Zones" dans le Cloud Public (AWS, GCP, Azure) et l'optimisation des architectures existantes pour répondre aux exigences de scalabilité du métier. Maintien en Condition Opérationnelle (MCO) et Sécurité Périmétrique : Vous assurerez l'administration avancée des équipements de sécurité. Votre expertise sur les firewalls (Palo Alto, Fortinet, Forcepoint) sera sollicitée quotidiennement pour la gestion des règles, les mises à jour de firmware et l'analyse des logs de sécurité. De plus, vous gérerez les solutions de répartition de charge (F5 LTM/GTM) pour assurer la haute disponibilité des applications critiques du groupe, ainsi que les services d'accès distants (VPN) et l'infrastructure DNS, vitale pour la connectivité des magasins et du siège. Approche "Service Oriented" et Projets Métiers : Au-delà de la technique, vous agirez comme un partenaire pour les équipes métiers. Vous participerez activement aux phases de cadrage des nouveaux projets applicatifs pour intégrer les contraintes de sécurité et de réseau dès la conception ("Security by Design"). Votre capacité à vulgariser les contraintes techniques pour les interlocuteurs non-techniques sera un atout majeur pour fluidifier les déploiements. Automatisation et Modernisation (NetDevOps) : L'un des enjeux clés de cette mission est la réduction du RUN et des tâches chronophages à faible valeur ajoutée. Vous serez moteur dans l'adoption de pratiques d'automatisation. En vous appuyant sur des outils comme Ansible, Netbox ou Nautobot, vous développerez des scripts et des workflows pour industrialiser la configuration des équipements et la gestion des inventaires, permettant ainsi à l'équipe de se concentrer sur l'ingénierie. Expertise, Support et Amélioration Continue : En tant que référent technique, vous apporterez votre expertise lors d'incidents complexes (niveau 3) nécessitant une analyse fine des paquets et des flux. Vous serez également force de proposition pour l'amélioration continue de l'infrastructure : veille technologique, identification des dettes techniques, et proposition de plans d'action correctifs. Enfin, vous garantirez la pérennité du savoir en produisant une documentation d'exploitation (DAT, DEX, modes opératoires) rigoureuse et à jour.
Mission freelance
Un Expert Dynatrace sur Nanterre
Almatek
Publiée le
Big Data
Dynatrace
Hadoop
6 mois
Nanterre, Île-de-France
Almatek recherche pour un de ses clients, Un Expert Dynatrace sur Nanterre Profil recherché : Expert Dynatrace Activités : Profil Sénior en capacité de transférer la connaissance, de délivrer rapidement Supervision, Monitoring de kub, openshift, big data , TDP (trunk data platform) qui vise a remplacer distribution Haddop rachetée par Hortonworks Expertise dans la configuration et l'utilisation de l'outil Dynatrace. Localisation : Nanterre Démarrage : 06 avril Durée : 6 mois R Almatek recherche pour un de ses clients, Un Expert Dynatrace sur Nanterre Profil recherché : Expert Dynatrace Activités : Profil Sénior en capacité de transférer la connaissance, de délivrer rapidement Supervision, Monitoring de kub, openshift, big data , TDP (trunk data platform) qui vise a remplacer distribution Haddop rachetée par Hortonworks Expertise dans la configuration et l'utilisation de l'outil Dynatrace. Localisation : Nanterre Démarrage : 06 avril Durée : 6 mois R
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5172 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois