L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 350 résultats.
Offre d'emploi
PRODUCT OWNER Data / IA
TOHTEM IT
Publiée le
9 mois
45k-55k €
Paris, France
Vos missions Au cœur des enjeux data et métiers, vous serez amené à : Analyser et comprendre les besoins métiers afin de proposer des solutions data adaptées Concevoir des modélisations fonctionnelles de données et contribuer à la définition des architectures Recueillir les besoins auprès des utilisateurs via des ateliers fonctionnels et formaliser les règles de gestion Rédiger les spécifications fonctionnelles et techniques pour les développements dans l’environnement Palantir Définir les flux de données, interfaces utilisateurs et applications agentiques Présenter les solutions développées aux utilisateurs et accompagner les phases de recette Participer à la gestion de la backlog projet et aux rituels de l’équipe BI Contribuer au suivi des applications et au support utilisateur
Offre d'emploi
Chef de projet data groupe H/F
HAYS France
Publiée le
Tarare, Auvergne-Rhône-Alpes
Votre périmètre couvrira l'ensemble des directions métiers (Commerce, Finance, Supply Chain, Achats, RH, R&D…) ainsi que des filiales françaises et internationales. Vos responsabilités incluront : Piloter des projets data de bout en bout : cadrage, recueil des besoins, suivi, déploiement et mise en utilisation. Contribuer aux volets data des grands projets de transformation du groupe (ERP, CRM, WMS, outils métiers…). Assurer la coordination entre les équipes métiers, IT et data. Participer à la mise en place et à l'amélioration continue de la gouvernance de données (qualité, référentiels, catalogage). Participer à la définition, au suivi et à l'analyse des KPIs liés à la performance data. Challenger les besoins métiers et accompagner l'évolution des usages data. Les environnements techniques couvrent tout le cycle de vie de la donnée : Data Lake, Data Warehouse, Data Hub, MDM, PIM/DAM, Data Catalog, Data Quality, Data Visualisation, Data Export.
Offre d'emploi
Ingénieur Data Intégration IT F/H - Test, essai, validation, expertise (H/F)
█ █ █ █ █ █ █
Publiée le
Paray-Vieille-Poste, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Ingénieur DevOps – Plateforme Data H/F
DSI group
Publiée le
Azure Data Factory
Azure DevOps
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Missions principales: Déploiement et automatisation Concevoir, mettre en place et faire évoluer les outils de déploiement continu (CI/CD) pour les applications et traitements de données. Automatiser les processus d’intégration, de livraison et de déploiement des solutions analytiques. Maintenir les pipelines CI/CD et garantir leur fiabilité. Gestion de l’infrastructure Administrer et faire évoluer les infrastructures Linux supportant les plateformes analytiques. Maintenir les composants middleware, bases de données et outils techniques . Anticiper et gérer les problématiques liées à l’obsolescence, la sécurité et les évolutions fonctionnelles . Collaboration avec le SI Collaborer avec les différents acteurs du système d’information : Développeurs Architectes Équipes sécurité Équipes d’exploitation S’assurer de la conformité des solutions avec les standards et l’architecture de l’entreprise . Documentation et bonnes pratiques Rédiger et maintenir la documentation technique et opérationnelle . Formaliser les procédures liées aux déploiements et à l’exploitation. Travail d’équipe Participer aux cérémonies agiles et aux activités de l’équipe . Contribuer à l’amélioration continue des pratiques DevOps. Activités secondaires Étudier les évolutions de la plateforme data dans le cadre de la transformation du SI DATA (Cloud / On-Premise). Participer à la définition des solutions permettant d’assurer la continuité des activités analytiques dans un nouveau contexte DSI . Accompagner les équipes data dans l’adaptation aux nouveaux environnements technologiques.
Mission freelance
DATA MESH PLATFORM MANAGER SENIOR F/H
SMARTPOINT
Publiée le
AWS Cloud
Azure
CI/CD
12 mois
100-600 €
Île-de-France, France
Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform – GDP) comme un produit interne, en garantissant : Sa livraison technique Son adoption à l’échelle de l’entreprise Son excellence opérationnelle Son amélioration continue RESPONSABILITÉS CLÉSConstruction et Livraison de la Plateforme (Responsabilité principale)1. Responsabilités Concevoir et implémenter l’architecture de la plateforme Data Self-Service Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité, accès self-service) Définir et faire respecter les standards techniques et les patterns d’architecture Garantir la scalabilité, la performance et la sécurité Prendre des décisions techniques hands-on et valider les solutions 2. Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme Architecture Cloud et Infrastructure3. Responsabilités Piloter la conception et l’exploitation d’architectures cloud et hybrides avec le Group Data Architect Coordonner avec l’équipe Group Data Delivery l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Piloter l’automatisation et l’Infrastructure as Code Garantir les exigences de sécurité et de conformité 4. Livrables attendus Blueprint d’architecture cloud (avec le Group Data Architect) Framework de sécurité et de gestion des accès Pilotage Delivery & Exécution5. Responsabilités Être responsable du cycle de vie de livraison de la plateforme Définir le backlog et le processus de priorisation Gérer les releases et les déploiements en production Suivre la performance et la fiabilité Gérer les risques et incidents techniques 6. Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et gestion des versions Dashboards de suivi delivery Indicateurs SLA / métriques de fiabilité Déploiement & Adoption par les Domaines7. Responsabilités Déployer la plateforme dans les différents domaines métiers Permettre aux équipes domaine de construire leurs data products Déployer le modèle opérationnel Data Mesh Accompagner l’onboarding et l’adoption Résoudre les problématiques d’adoption opérationnelle 8. Livrables attendus Framework et processus d’onboarding des domaines Guidelines du cycle de vie des data products Playbooks d’accompagnement des domaines Indicateurs d’adoption et d’usage Supports de formation et documentation d’onboarding Product Management (orienté usage) & Amélioration Continue9. Responsabilités Recueillir les besoins utilisateurs et exigences plateforme Définir la vision produit et la roadmap Mesurer l’usage et la création de valeur Améliorer l’expérience développeur et utilisateur 10. Livrables attendus Vision produit et proposition de valeur KPIs plateforme et métriques d’adoption Boucles de feedback utilisateur et backlog d’amélioration Roadmap d’évolution de la plateforme Documentation, Standardisation & Gouvernance11. Responsabilités Documenter les capacités et processus de la plateforme Garantir la conformité avec la gouvernance fédérée des données du Groupe 12. Livrables attendus Référentiel documentaire de la plateforme Standards techniques et guides d’implémentation Framework de gouvernance et conformité Playbooks de bonnes pratiques Communication Opérationnelle & Reporting Exécutif13. Responsabilités Communiquer sur l’avancement et l’impact de la plateforme Fournir un reporting de niveau exécutif Assurer l’alignement des parties prenantes 14. Livrables attendus Dashboard exécutif du projet Dashboards de performance plateforme Présentations en comité de pilotage Suivi des décisions, risques et incidents Promotion Interne & Évangélisation15. Responsabilités Promouvoir la valeur de la plateforme dans l’organisation Soutenir les initiatives d’adoption interne Construire une communauté plateforme 16. Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations plateforme et portfolio de cas d’usage Expérience requise Minimum 15 ans d’expérience en data platform, data engineering ou architecture Expérience prouvée dans la construction et livraison de plateformes data en production Forte expérience hands-on en delivery technique Expérience en platform engineering ou data engineering avancé Expérience en environnement grand groupe ou multi-entités Expérience pratique du Data Mesh obligatoire Compétences techniquesArchitecture & Engineering Architecture data distribuée Conception de systèmes distribués Infrastructure as Code Pratiques DevOps / DataOps / CI/CD Ingénierie performance et scalabilité Cloud & Infrastructure Expertise avancée AWS et Azure Architectures hybrides et on-premise Sécurité et gouvernance cloud Plateforme Data Data products & gestion du cycle de vie Pipelines et orchestration Gestion des métadonnées et catalogues Frameworks de gouvernance data Observabilité data Product & Delivery Approche produit appliquée aux plateformes techniques Gestion roadmap & backlog Méthodologies Agile Développement orienté valeur Soft Skills critiques Leadership technique et opérationnel fort Orientation exécution et delivery Capacité à intervenir de manière hands-on dans des environnements complexes Excellente communication transverse Sens fort de la responsabilité Esprit analytique et pragmatique Capacité d’influence sans autorité hiérarchique directe Vision stratégique avec focus opérationnel Gestion des parties prenantes au niveau exécutif et opérationnel Anglais courant obligatoire (écrit et oral) Indicateurs de succès Plateforme livrée et opérationnelle en production Adoption par les domaines métiers Nombre et qualité des data products déployés Fiabilité et performance de la plateforme Satisfaction et usage des utilisateurs Réduction du time-to-market des cas d’usage data
Offre d'emploi
Data Analyst
CAT-AMANIA
Publiée le
Business Object
Qlik Sense
40k-61k €
Maisons-Alfort, Île-de-France
Element de contexte et organisation : Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme, piloté par le Chief Data Officer (CDO) et sous sponsoring de la Direction Générale, comporte plusieurs objectifs, dont celui de la mise en place de la plateforme Data & IA, qui a vocation à devenir le cœur du SI. En parallèle, le chantier de transformation Cloud en cours induit d’importantes adhérences avec les travaux d’industrialisation de la plateforme Data & IA. L'organisation projet est réalisée avec SAFE. Objectif poursuivi pour cette mission : La mission porte sur la réalisation du socle Financement et contentieux dont il s'agira d'assurer un rôle de Data Analyst avec pour objectif de: - spécifier les besoins en terme de données Financement et Contentieux permettant de servir les usages bancaires des filières : -- Crédit Bail équipement, -- Crédit Immobilier, énergie & environnement, -- Court terme, -- Immatériel - modéliser les entités permettant de représenter les données des métiers du Financement et du Contentieux - spécifier les Data Product nécessaire pour couvrir : -- les besoins des filières (Reporting opérationnels, Agents opérationnels, suivi d'activité, reporting conventionnels,...) -- les besoins de l'équipe chargée d'exploiter le socle Financement et Contentieux (Reporting transverses, études de prospection, cross-selling, ...) - définir et contrôler la Qualité des données véhiculées au sein du socle - réaliser les recettes des données collectées Compétences métier souhaitables : Mission(s) réussie(s) dans le domaine Bancaire dans le cadre de reportings de Financement. Bonne connaissance des métiers bancaires (Crédit, crédit bail, court terme, ...) Très bonne connaissance des données bancaires du financement Forte appétence pour la donnée La connaissance de l'écosystème (notamment le Legacy) serait un plus Liste des technologies : Le comptoir de données est réalisé sur le Cloud AWS. Outil de restitution de la donnée : Business Objects, QlikSense Bon niveau en SQL
Mission freelance
Senior Android Engineer
STHREE SAS pour HUXLEY
Publiée le
12 mois
75001, Paris, Île-de-France
Senior Android Engineer - Paiement / Terminaux de Paiement (NPT) Modalités de la mission Localisation : Full remote avec des déplacements ponctuels (France / Madrid si nécessaire) Démarrage : dès que possible Durée : mission longue, en lien avec la roadmap produit Freelance ou portage salarial mais ouvert au CDI Contexte Acteur international du paiement électronique, le client développe une application Android autonome destinée à équiper un terminal de paiement Android certifié (CB, Ellit, Frensys), utilisé pour le traitement des transactions électroniques. L'équipe de développement principale est basée à Madrid et travaille dans un environnement international, en anglais et espagnol. À ce stade, les activités de tests et de qualité sont assurées par un prestataire externe. Le client souhaite désormais renforcer son dispositif interne en intégrant un expert senior Android, disposant d'une forte connaissance de l'écosystème de paiement français. Objectif de la mission Renforcer l'équipe Android afin d'accélérer le développement de l'application du terminal de paiement, en apportant : Une expertise technique Android de haut niveau Une maîtrise approfondie des standards de paiement français Une autonomie complète dans la conception, le développement et l'évolution des fonctionnalités Périmètre d'intervention Développement Android Suivi, amélioration et optimisation de l'application Android autonome du terminal de paiement (NPT - Payment Terminal) Intégration et interaction avec les API natives du terminal Implémentation et adaptation des composants nécessaires à la certification CB Paiement & Certification Compréhension et mise en œuvre des standards de paiement : CB Spécificités françaises (CB2A) Protocoles de communication et contraintes de sécurité associées Participation aux ateliers techniques avec les équipes corporate et/ou les partenaires de certification Coordination & Ateliers techniques Collaboration quotidienne avec l'équipe basée à Madrid (anglais requis) Participation aux ateliers projet et aux arbitrages techniques, sous la coordination d'un référent corporate Interface avec les équipes QA en charge des tests et de la qualité Environnement & méthodologie Forte autonomie : la culture du client privilégie des collaborateurs capables de "faire par eux‑mêmes" , de proposer, développer et tester. Capacité à prendre du recul sur l'architecture globale et à faire évoluer les bonnes pratiques techniques Livrables attendus Développements Android conformes aux exigences produit et sécurité Documentation technique : API, modules, procédures Contributions aux dossiers de certification CB Suivi des évolutions fonctionnelles et participation aux phases de test Reporting régulier sur l'avancement des travaux Profil recherché Expérience 10 à 15 ans d'expérience dans le domaine du paiement électronique et/ou des environnements Android embarqués Expérience confirmée sur des applications Android industrielles ou des terminaux de paiement Solide compréhension des environnements de paiement français (ex. : CB2A, ISO 8583, traitement transactionnel) Compétences techniques Android (Java / Kotlin) - niveau expert Architecture applicative sur terminaux de paiement Maîtrise des standards cartes bancaires et processus de certification Compétences linguistiques Français : indispensable (écosystème CB, échanges avec les acteurs locaux) Anglais : obligatoire (collaboration avec les équipes internationales) Qualités personnelles Très forte autonomie et esprit d'initiative Aisance dans un environnement multiculturel Capacité à challenger les choix techniques et architecturaux Interactions principales : Équipe de développement Android (Madrid) Équipe QA Équipe corporate spécialisée paiement
Mission freelance
Senior Smart Automation & Agentic AI Dev
Codezys
Publiée le
API
Dataiku
Python
12 mois
450-630 €
Courbevoie, Île-de-France
Contexte de la mission Recrutement d'un Senior Smart Automation Developer pour renforcer les capacités en Smart Automation et AI Agentic, en concevant des solutions avancées d'automatisation des processus. Les solutions s'appuient sur la plateforme Dataiku, notamment ses fonctionnalités LLM Mesh, permettant l'intégration de modèles linguistiques et d'agents intelligents dans des workflows automatisés. Objectifs : créer des automatisations intelligentes pour orchestrer données, systèmes applicatifs et agents IA, afin d'optimiser et simplifier les opérations. Principales responsabilités Design de solutions d’automatisation intelligente Concevoir des architectures d’automatisation avec Dataiku (pipelines, orchestration, intégration systèmes, agents IA). Utiliser LLM Mesh pour intégrer des modèles linguistiques dans les processus automatisés. Développement de solutions d’IA agentique Concevoir et déployer des agents IA pour l’exécution ou l’assistance dans des tâches automatisées. Créer des workflows intégrant les LLM via Dataiku LLM Mesh. Orchestrer les interactions entre agents IA, pipelines et systèmes applicatifs. Industrialisation et intégration Construire et maintenir des pipelines et workflows automatisés sur Dataiku. Assurer l’intégration avec les systèmes IT existants via APIs et services. Respecter les bonnes pratiques d’industrialisation : versionning, surveillance, déploiement automatisé, gouvernance. Collaboration avec les équipes IT Travailler avec les équipes responsables des systèmes impliqués. Concevoir des mécanismes d’intégration avec les applications existantes. Participer à la définition des modèles d’intégration et standards techniques. Contribution à la plateforme Smart Automation Participer à l’évolution des capacités en Smart Automation & AI Agentic. Définir les standards de développement et architecture. Mentorer les profils juniors. Promouvoir les bonnes pratiques en automatisation et usage des LLM.
Mission freelance
Tech Lead Java Angular Nantes ( 3 jours de télétravail)/du
WorldWide People
Publiée le
Java
12 mois
400 €
Nantes, Pays de la Loire
Tech Lead Java Angular Nantes ( 3 jours de télétravail) Java, Spring, Angular, Kafka,Git, Jenkins, Jira 13/04/2026 1 an Ce poste est ouvert à la pre-embauche Nantes ( 3 jours de télétravail) Java, Spring, Angular, Kafka,Git, Jenkins, Jira Au sein d'une équipe de 6 à 8 développeurs, les principales tâches seront: Participer aux cadrages et aux chiffrages des fonctionnalités à mettre en oeuvre Prendre en charge les développements des fonctionnalités complexes le cas échéant Accompagner, apporter du support et faire grandir l’équipe de développements Être le garant de la qualité du code délivré (relecture de codes, suivi Sonar, …) Gestion des branches de développements et de la CICD Gestion des topics Kafka La mission est autant orientée back que front
Mission freelance
Dbt Technical Expert – Data Engineer Senior
Signe +
Publiée le
DBT
12 mois
400-630 €
Paris, France
Cette mission s’inscrit dans une initiative de modernisation et de standardisation des processus de transformation de données au sein d’un grand groupe international. L’objectif est d’industrialiser une plateforme dbt (data build tool) afin de garantir : Des pipelines ELT robustes, scalables et maintenables L’application de standards homogènes à l’échelle groupe Un accompagnement technique de haut niveau auprès des équipes projets Le profil recherché est un Data Engineer expert dbt, capable d’intervenir sur la définition des standards, la mise en œuvre technique, l’optimisation, la gouvernance et la formation. Informations contractuelles Titre de la mission : Dbt Technical Expert Démarrage : ASAP Fin de mission : 31/12/2026 Localisation : Vélizy-Villacoublay (78)
Mission freelance
Ingénieur Infrastructure Data – Cloudera / Hadoop
Deodis
Publiée le
Red Hat
1 an
450 €
Île-de-France, France
Au sein de l’équipe Data & IA, l’Ingénieur Infrastructure Data est responsable de l’administration, de l’évolution et du maintien en conditions opérationnelles des plateformes Big Data basées sur l’écosystème Cloudera CDP et des technologies Open Source. Il conçoit et met en œuvre des solutions d’ingestion, de stockage et de traitement de données (Hadoop, Ozone, Hive, Kafka, Spark, etc.), automatise les pipelines de données et veille à la qualité, la sécurité et la conformité des données, notamment au regard du RGPD. Il participe également à l’industrialisation et au déploiement de modèles de data science et de machine learning, tout en assurant le support technique aux équipes applicatives et métiers. Enfin, il contribue aux projets d’évolution des plateformes, à la migration des clusters Hadoop et à l’amélioration continue des infrastructures, en collaboration avec les équipes infrastructures, production et internationales.
Offre d'emploi
Architecte Data GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Mission freelance
Data Architect Orion
Nicholson SAS
Publiée le
Architecture
Data analysis
Data governance
9 mois
1 300 €
Paris, France
Vous êtes un architecte de la donnée passionné par la haute précision ? Rejoignez le programme stratégique de mon client pour façonner l'avenir de la Data au sein de cette marque Iconic. Votre Mission Une fois la Data Factory opérationnelle, vous deviendrez le garant de l'intelligence structurelle de nos données. Votre rôle sera central pour : Architecturer le futur : Concevoir et piloter la modélisation au sein d'une architecture Médaillon (Bronze, Silver, Gold). Innover en réseau : Déployer des modèles de données dans un environnement Data Mesh complexe. Standardiser l'excellence : Définir le modèle de données canonique , les spécifications techniques et l'intégrité des relations (clés, tables, jointures). Votre Profil Expertise : +7 ans d'expérience en Data Architecture Orion. Technique : Maîtrise avancée d' Oracle et de la modélisation complexe. Méthodologie : Vous évoluez avec aisance dans des environnements Agile et SaFe . Soft Skills : Esprit de synthèse, rigueur analytique et capacité à traduire des besoins métiers en structures de données performantes. Prêt à relever ce défi au sein d'une société de légende ?
Offre d'emploi
Software Engineer Senior (.NET / Azure & PHP)
TS-CONSULT
Publiée le
.NET
Azure
Symfony
1 an
Île-de-France, France
Bonjour, actuellement je suis a la recherche d'un profil Software Engineer Senior (.NET / Azure & PHP) Description du Poste En tant que Software Engineer Senior , votre rôle est double : piloter l'évolution du système d'information principal basé sur l'écosystème Microsoft, tout en assurant la polyvalence sur un projet secondaire stratégique en environnement PHP. Vos Missions ● Conception & Développement : Développer et maintenir principalement les couches backend et l’orchestration du SI. ● Expertise Multi-langages : Maîtriser le développement en $C\#/.NET$ tout en étant capable d'intervenir sur du PHP 8.3 (Vanilla avec composants Symfony) selon les besoins du projet. ● Excellence Technique : Analyser les besoins métiers, préconiser des choix d'architecture et garantir la qualité du code (Clean Code, tests, revues). ● Culture Cloud & DevOps : Renforcer l'expertise sur Azure , l'Infrastructure as Code (Terraform) et l'observabilité via Datadog. ● Collaboration : Participer activement aux Chapters techniques, documenter les solutions et être force de proposition sur l'innovation technologique.
Offre d'emploi
Ingénieur Réseaux Sénior H/F
SEA TPI
Publiée le
50k-55k €
Marignane, Provence-Alpes-Côte d'Azur
Intervenez au sein d'une infrastructure stratégique du sud de la France, où performance technologique et continuité de service sont essentielles pour assurer le bon fonctionnement d'un site accueillant plusieurs millions de passagers par an. Dans ce contexte exigeant, nous recherchons un Ingénieur Réseaux senior disposant également de solides compétences en Systèmes, capable d'intervenir sur des environnements techniques complexes, de garantir la fiabilité des infrastructures et de contribuer à l'évolution des systèmes d'information. • Conception et évolution des architectures réseau et sécurité : analyser les besoins, proposer des solutions adaptées et faire évoluer les infrastructures existantes. • Gestion des incidents majeurs de sécurité : identifier, résoudre et documenter les incidents critiques impactant les réseaux et la sécurité. • Définition et mise en œuvre des politiques de sécurité réseau : élaborer des règles et standards garantissant la protection des infrastructures et des données. • Architecture et gestion des infrastructures LAN, Wi-Fi et SD-WAN multi-sites : assurer la performance, la disponibilité et la résilience des réseaux sur l'ensemble des sites. • Optimisation des performances et de la disponibilité réseau : analyser les flux, identifier les goulots d'étranglement et proposer des améliorations continues. • Conception et déploiement des architectures VPN site-à-site et pour utilisateurs nomades : garantir l'accès sécurisé aux ressources de l'entreprise. • Architecture et optimisation des load balancers F5 : assurer l'équilibrage de charge, la haute disponibilité et la performance des applications critiques. • Audit, conformité et durcissement des infrastructures réseau : mettre en place des contrôles et recommandations pour renforcer la sécurité et répondre aux normes en vigueur. • Intégration avec les outils de supervision et de sécurité : connecter les infrastructures réseau aux systèmes de monitoring et d'alerte pour anticiper les incidents. • Définition des standards et procédures RUN réseau et sécurité : rédiger et maintenir les bonnes pratiques opérationnelles et procédures pour l'exploitation quotidienne Les missions énumérées ci-dessus ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : hvfkhrid8d
Offre d'emploi
Architecte Data Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3350 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois