L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 38 résultats.
Mission freelance
Développeur EBX Senior
Publiée le
Apache Kafka
API REST
AWS Cloud
3 mois
480-520 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme de transformation digitale, nous recherchons un Développeur EBX senior pour contribuer à la construction et à l’évolution d’un référentiel de données d’entreprise (MDM). Objectifs et responsabilités Paramétrer et développer la solution EBX pour la gestion des données référentielles Concevoir et développer des interfaces d’exposition des données (API REST, topics Kafka) Participer à la définition de l’architecture applicative en collaboration avec les équipes métiers, techniques, sécurité et infrastructure Contribuer à la conception technique des projets : analyse des besoins, rédaction des exigences techniques Assurer la documentation technique et le suivi des phases de tests et de mise en production
Mission freelance
Expert Kafka H/F
Publiée le
Apache Kafka
AWS Cloud
Bash
6 mois
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
En tant qu’ Administrateur Kafka Confluent , vous serez responsable de la stabilité, de la performance et de l’évolution de notre plateforme Kafka Confluent. Votre mission principale consiste à assurer la fiabilité des flux de données en temps réel, à automatiser les déploiements et à collaborer avec les équipes métiers et techniques pour répondre aux besoins stratégiques. Vous interviendrez sur la conception et la maintenance des pipelines temps réel, la gestion des connecteurs via Kafka Connect et Schema Registry (Avro), ainsi que sur la supervision et l’optimisation des clusters Kafka (AWS MSK ou on-premise). Vous participerez à la mise en place d’architectures data orientées événements, garantissant sécurité, conformité et résilience. Enfin, vous serez un acteur clé dans la formation et l’accompagnement des équipes internes.
Offre d'emploi
Ingénieur Intégration & Parsing des Journaux SOC
Publiée le
Apache Kafka
CI/CD
Cloud
1 an
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un Ingénieur Intégration & Parsing de Journaux pour rejoindre l’équipe Cybersécurité au sein du Centre des Opérations de Sécurité (SOC) . Rôle et responsabilités Le consultant sera responsable de la gestion complète du processus de collecte des journaux provenant des environnements cloud et on-premise , ainsi que des outils de sécurité soutenant les opérations SOC 24/7 . Rattaché au responsable de l’équipe Build, il travaillera en étroite collaboration avec les parties prenantes Cybersécurité, IT et Métiers pour garantir une intégration robuste, évolutive et sécurisée des journaux . Principales missions : Concevoir, mettre en œuvre et maintenir les pipelines de collecte et de parsing des journaux. Gérer et optimiser les systèmes d’ingestion et de transfert des logs via des outils tels que Fluentd ou Kafka . Développer des parsers avancés pour normaliser et structurer les données selon des schémas spécifiques. Mettre en place des parsers-as-code pour intégrer de grands volumes de données issues de sources personnalisées. Garantir la qualité, la fiabilité et la standardisation des journaux sur l’ensemble des systèmes intégrés. Collaborer avec les équipes réseau, les responsables applicatifs et les analystes SOC pour intégrer de nouvelles sources de logs. Maintenir les règles de parsing, de normalisation et d’enrichissement pour l’ingestion SIEM (Elastic SIEM ou équivalent). Diagnostiquer et résoudre les problèmes d’ingestion ou de parsing en coordination avec les équipes concernées. Mettre en place des pipelines CI/CD pour le déploiement automatisé des configurations d’intégration. Appliquer des pratiques DevSecOps pour sécuriser et automatiser les flux d’ingestion. Surveiller en continu les pipelines d’ingestion et contribuer à leur amélioration. Participer à la création de parsers à l’aide d’ IA agentique . Maintenir la documentation et les schémas techniques des workflows d’intégration. Livrables attendus Pipelines d’ingestion et de parsing opérationnels. Documentation technique et schémas d’architecture. Scripts et configurations CI/CD. Tableaux de bord de suivi et d’amélioration continue. Compétences et qualifications requisesTechniques Expérience avérée en tant qu’ Ingénieur Intégration de Journaux , Ingénieur Plateforme ou Ingénieur Cloud dans un contexte SOC ou cybersécurité. Maîtrise des outils de collecte et de traitement des logs ( Fluentd , Logstash , Kafka …). Bonne compréhension des techniques de parsing, normalisation et enrichissement (ASIM, UDM, OCSF, DSM, ECS, CIM, CEF, LEEF…). Solide connaissance des services AWS, GCP et Azure liés à la supervision et à la journalisation. Expérience avec les outils CI/CD (GitLab CI/CD, Jenkins…). Maîtrise de Ruby (développement de plugins Fluentd) et de Python/Bash . Familiarité avec les solutions SIEM (Google SecOps, Elastic SIEM, Sentinel, Splunk ou équivalent). Compréhension des concepts de cybersécurité , détection , et opérations SOC . Pratique des approches DevSecOps et de l’automatisation. Connaissance des formats de règles SIGMA et YARA .
Mission freelance
Développeur Back End/QA automatisation
Publiée le
Apache Kafka
API REST
AWS Cloud
2 ans
400-600 €
Paris, France
Télétravail partiel
Contexte : Notre client (secteur média) développe des produits phares, tout en collaborant avec des acteurs stratégiques comme Netflix. Avec une approche centrée sur l'innovation et l'expérience utilisateur, notre client façonne les usages numériques de demain en proposant des services performants et adaptés aux attentes d'un public toujours plus connecté. Managé par le Head of QA, en transverse des différentes équipes et accompagné par le lead QA automatisation, la mission consiste à mettre en place des tests d’intégration et UI automatisés essentiellement autour de nos produits et process liés au traitement, au stockage des vidéos et de données/métadonnées liées, entre autres pour notre projet d’intégration avec Netflix. Description détaillée : Votre rôle consistera à construire et intégrer tests et des outils de tests robustes et évolutifs pour nos produits. Vous serez notamment amené(e) à : - Créer et maintenir des mocks/stubs d’API REST et Kafka. - Mettre en place et maintenir des lancements de tests via Argo CD/ Argo Workflows - Rédiger les étapes de tests automatisés sous la forme de scripts Gherkin. - Intégrer des tests dans une architecture Java existante pour être utilisés aussi dans le cadre de tests end to end. Télétravail : 3 jours par semaine Date de début : A partir du 2 janvier 2026
Offre d'emploi
ARCHITECTE SOLUTIONS & TECHNIQUE (H/F)
Publiée le
Ansible
Apache Kafka
Architecture
12 mois
65k-72k €
550-650 €
Île-de-France, France
Télétravail partiel
ARCHITECTE SOLUTIONS & TECHNIQUE (H/F) 📍 Localisation et Rattachement ● Poste : Architecte Solutions & Technique (H/F) ● Localisation : Paris, Île de France ● Rattachement : Digital Factory INVENTIV IT 🚀 Le Rôle : Leader de la Transformation Cloud-Native Au sein de la Digital Factory, vous êtes le garant technique et stratégique de la cohérence, de la performance et de la sécurité des architectures applicatives pour nos grands comptes (projets en mode Forfait et Régie). Ce rôle, à la fois opérationnel et stratégique, exige une expertise de pointe sur l'ensemble de la chaîne de valeur : du Cloud (dominance AWS) et Java/Spring pour le Backend, aux solutions Web (React/NextJS) & Mobile (Flutter) , incluant l'industrialisation DevSecOps et la conception d' API résilientes . Vous agissez avec une forte vision produit pour transformer les usages métier en valeur business concrète. 🎯 Vos Missions Principales Vous intervenez à la croisée des enjeux métiers et technologiques pour accompagner nos clients dans leurs projets de transformation digitale : I. Conception Architecturale & Stratégie ● Concevoir des architectures évolutives, modernes et hautement performantes (Cloud-native, Serverless, Event-driven, Hexagonal, Microservices, etc.). ● Définir la stratégie d'intégration et de sécurisation des API et des Brokers. ● Assurer l'orientation architecturale et participer activement aux phases de cadrage & stratégie, ainsi qu'au brainstorming technique. ● Sélectionner et valider les solutions techniques adaptées aux enjeux des clients. II. Leadership Technique & Delivery ● Piloter des projets complexes avec des équipes distribuées (offshore/nearshore). ● Garantir l'industrialisation de l'innovation via des usines logicielles DevSecOps, des produits SaaS, RAG, LLM et des plateformes IoT. ● Manager et coacher techniquement les équipes de développement (CoreTeam & Digital Factory). ● Garantir le Delivery, de la production dev jusqu'à la mise en place de l'observabilité/performance. ● Déployer des solutions résilientes, sécurisées (conformité HDS, ISO 27001 ), et alignées sur les meilleures pratiques (CleanCode, TDD, BDD). III. Veille et Expertise ● Être force de proposition et toujours en veille sur l'écosystème tech, l'entrepreneuriat et l'innovation responsable. ● Encadrer plusieurs projets stratégiques auprès de plusieurs clients en tant que Lead Architect. ✨ Quelques Réalisations Attendues Votre expérience se traduira par des réalisations concrètes et impactantes : ● Pilotage d'initiatives stratégiques pour moderniser et sécuriser les infrastructures applicatives. ● Supervision de la conception d'usine logicielle DevSecOps modulaire. ● Pilotage de la mise en place d'une architecture Cloud hautement sécurisée conforme à la norme ISO 27001. ● Migration et modernisation d'applications avec enjeux d’optimisation de Time to Market . ● Création From Scratch d'applications Web & Mobile. 📚 Votre Profil & Compétences Techniques (Le Socle de l'Architecte) Domaine d'Expertise Compétences Techniques Clés (Maîtrise Requise) Architectures Serverless, Event-driven, Data-driven, Hexagonal, Microservices. Backend & Cloud Java / Spring (Dominance Web), NodeJs / JavaScript, Move To Cloud (Dominance AWS) , GCP/Azure. Industrialisation DevSecOps, DevOps & IAC , intégration continue, Sécurité applicative, Brokers. Front-End & Mobile React / NextJS, Mobile ( Flutter ), Angular (TMA). Qualité & Méthodologie Approche BDD, TDD, CleanCode , Test unitaire/intégration/automatisé et end to end, Cycle de vie logiciel. Data & Modélisation Platform Data/IA, Base de données (relationnel et non-relationnel), Modélisation SQL / requêtes. Leadership & Soft Skills Leadership technique, Posture projet / business, Fonctionnel : Confirmé, Anglais : Courant . Autres Performance / observabilité, Build et gestion de version, Développement.
Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)
Publiée le
Apache Kafka
AWS Cloud
Big Data
12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Offre d'emploi
Expert Big Data / Data Engineer Senior (H/F)
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
6 mois
80k-85k €
500-550 €
Guyancourt, Île-de-France
Télétravail partiel
VOS RESPONSABILITES PRINCIPALES : Build – Modernisation & migrations Data Participer au design et à la construction de nouvelles plateformes Data (on-prem Cloudera / Spark / Kafka & cloud AWS/GCP). Configurer, optimiser et sécuriser les environnements Big Data (Spark tuning, Kafka connecteurs…). Travailler avec les architectes et les CloudOps sur les architectures distribuées. Mettre en place des bonnes pratiques : backup, restauration, performance, haute dispo, PCA/PRA . Intégrer pipelines & automatisations (Terraform, GitOps, ArgoCD). Animer ateliers, documentation et transfert de compétences. Run – Support N2/N3 & performance Résolution d’incidents techniques Big Data (HDFS, Spark, Kafka, Flink…). Support aux projets : création de topics Kafka, scheduling Airflow, jobs Spark, optimisation. Montée de version, patching, maintenance préventive. Participation aux astreintes (rotation). Amélioration continue & fiabilisation des environnements critiques. Application stricte du cadre ITIL V4 (incidents / problèmes / demandes).
Mission freelance
Senior Ops Engineer - Lille
Publiée le
AWS Cloud
Docker
Github
6 mois
350-450 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission Tu intégreras l’équipe Ops du domaine. Notre mission est d’accompagner les équipes sur : l’architecture, le capacity planning, la sécurité, la Finops, le build, l’observabilité et l’automatisation de leurs projets. Nos enjeux sont mondiaux et nos plateformes ne dorment jamais. Objectifs et livrables TES RESPONSABILITES Assurer la bonne santé des infras techniques du domaine Accompagner les équipes dans les nouveaux besoins Accompagner les équipes dans le RUN quotidien Accompagner les équipes sur l’amélioration continue des projets Aider à la résolution des incidents de production Assurer la mise en place d’automatisation Accompagnement à la mise en place des DRP Assurer la montée en compétence des développeurs sur les sujets Ops Environnement technique de la BU : Java - Framework Spring Boot, Quarkus, Angular, Python PHP - API Platform, Symfony Industrialisation de l’hébergement (Docker, Kubernetes) Monitoring de la solution et de son infrastructure (Datadog) Kubernetes, Helm, Flux Kafka Outils collaboratifs: Confluence, Jira
Mission freelance
Data Engineer Python / AWS / Airflow / Snowflake
Publiée le
Apache Airflow
AWS Cloud
Python
12 mois
100-550 €
Île-de-France, France
Télétravail partiel
Conception & développement de pipelines Implémenter de nouveaux flux de données batch et streaming . Développer des pipelines ETL / ELT en Python et Airflow pour les traitements planifiés, et via NiFi ou Kafka pour les données en temps réel. Assurer l’intégration et la mise à disposition des données dans Snowflake . Industrialisation & bonnes pratiques Participer aux revues de code , aux tests unitaires et d’intégration . Contribuer à l’ industrialisation des pipelines avec des pratiques CI/CD robustes. Maintenir la documentation technique à jour et contribuer à l’amélioration continue des process. Maintenance & optimisation Garantir la maintenance corrective et évolutive des flux existants. Participer à la mise en place du monitoring , des alertes et des bonnes pratiques d’exploitation. Optimiser les performances, la fiabilité et la qualité des traitements de données.
Mission freelance
Intégrateur de solutions cybersécurité – SOC Log Integrator & Parsing Engineer
Publiée le
Apache Kafka
AWS Cloud
Azure
1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Nous recherchons un SOC Log Integrator & Parsing Engineer pour rejoindre une équipe Cybersécurité au sein du Security Operations Center (SOC) . Vous serez responsable de l’ensemble du processus de collecte, parsing et normalisation des logs à travers des environnements cloud et on-premise , en support des opérations SOC 24/7. Rattaché(e) au Build Team Lead , vous collaborerez étroitement avec les équipes Cybersécurité, IT et métiers afin de garantir des mécanismes de défense robustes, scalables et automatisés . Responsabilités Concevoir, implémenter et maintenir des pipelines complets de collecte et parsing de logs Gérer et optimiser les systèmes d’ingestion et de transfert de logs (Fluentd, Kafka, etc.) Développer des parsers avancés pour normaliser les données selon des schémas spécifiques Assurer la qualité, fiabilité et standardisation des logs sur l’ensemble des systèmes Intégrer de nouvelles sources de logs en coordination avec les équipes Réseau, Applicatives et SOC Développer et maintenir les règles de parsing, de normalisation et d’enrichissement pour ingestion dans les SIEM (Elastic, Splunk, Sentinel, etc.) Implémenter des pipelines CI/CD pour l’automatisation du déploiement des configurations Appliquer les pratiques DevSecOps pour sécuriser et fiabiliser les processus d’ingestion Créer des mécanismes de supervision continue du pipeline d’ingestion Contribuer à l’amélioration continue de l’observabilité et des capacités de détection du SOC Documenter l’ensemble des workflows, parsers et composants d’intégration
Offre d'emploi
Architecte Technique Applicatif
Publiée le
Application web
Architecture
AWS Cloud
2 ans
40k-83k €
400-720 €
Villejuif, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un architecte technique : Les qualités requises sur cette mission sont de plusieurs ordres : - Technico-applicatif : • Les principes d’architecture Cloud native • Les solutions de containerisation (Docker, Kubernetes), et cloud public tel que AWS, GCP et à moindre mesure Azure • Les patterns applicatifs tels que DDD, Architecture Hexagonale, Clean architecture, CQRS, MVC2… • Le modèle d’architecture API/REST, les solutions d’API Manager (WSO2, Kong) et les protocoles de gestion d’identité et accès OpenIdC/OAuth2 • Les pratiques et solutions DevOps et GitOps (Git, GitLab, Operateur Kube…) • Les architectures évènementielles et les solutions technologiques associées (Kafka, Change Data Capture, MQSeries…) • Les Frameworks Web et back-end JavaScript & CSS, Angular, React, Bootstrap, NodeJS, Springboot • Les bases de données SQL (PostgreSQL, mySQL…) et noSQL (MongoDB, Redis…), • La plate-forme Java JEE et son écosystème • Les systèmes d’exploitation et serveur d’application Windows, Linux, Tomcat, Websphere. • Connaissances du Mainframe IBM serait un plus Experience dans le développement des applications bancaires
Offre d'emploi
Ingénieur JAVA - SPARK - EXPERIMENTE ( H/F)
Publiée le
Angular
Apache Spark
API REST
3 ans
44k-63k €
450-600 €
Guyancourt, Île-de-France
Télétravail partiel
Nous recherchons un ingénieur Java senior, expérimenté en développement de solutions de traitement de données avec Spark, déploiement sur Kubernetes et conception de dashboards PowerBI, capable de travailler en autonomie et en collaboration avec des équipes multidisciplinaires. Missions principales : Développement de composants Java pour la collecte, le traitement et la transformation de données via API, fichiers ou bases de données. Conception et mise en place de traitements de données avec Spark . Déploiement, gestion et optimisation d’applications sur Kubernetes. Rédaction et maintenance de tests automatisés avec Cucumber pour assurer la qualité du code. Conception et développement de dashboards et rapports PowerBI. Collaboration avec les équipes infrastructure pour garantir la sécurité et l’intégration des applications. Participation à l’amélioration continue des applications et des process de développement. Profil recherché : Expérience : 5 à 8 ans en développement Java avec une expérience sur technologies de traitement de données (Spark, Kafka, etc.). Compétences techniques : Java et frameworks Spring/Hibernate Angular pour le développement d’IHM Kubernetes et bonnes pratiques DevOps Spark 3 en Java Cucumber pour tests automatisés Développement d’API REST/SOAP, OAuth2, TDD Conception de dashboards PowerBI Connaissance des architectures microservices et expérience cloud (GCP, AWS)
Offre d'emploi
Data Engineer - Java/ Spark
Publiée le
Apache Spark
AWS Cloud
AWS Glue
6 mois
40k-45k €
260-500 €
Tours, Centre-Val de Loire
Télétravail partiel
Démarrage : Dès que possible Contexte Dans le cadre du renforcement de nos équipes Data, nous recherchons un Data Engineer confirmé maîtrisant les environnements Java, Spark et AWS . Vous interviendrez sur des projets à forte volumétrie, autour de la collecte, du traitement et de la valorisation de la donnée. Missions Concevoir, développer et maintenir les pipelines de données sur des architectures distribuées (Spark, AWS). Industrialiser et fiabiliser les traitements batch et temps réel. Participer à la modélisation et à la gouvernance de la donnée. Optimiser la performance et la scalabilité des flux. Collaborer étroitement avec les équipes Data Science, BI et Cloud. Contribuer à la veille technologique et à l’amélioration continue des bonnes pratiques Data Engineering. Environnement technique Langages : Java, Python (souhaité) Frameworks : Apache Spark, Kafka, Airflow Cloud : AWS (S3, EMR, Glue, Lambda, Redshift, Athena) CI/CD : GitLab, Docker, Terraform Base de données : PostgreSQL, DynamoDB, Snowflake (selon projet) Profil recherché Formation Bac+3 à Bac+5 en informatique, data ou équivalent. Expérience confirmée en développement Java appliqué à la donnée (Spark). Bonne connaissance des services AWS orientés data. Esprit analytique, rigueur et goût du travail en équipe. Une sensibilité DevOps ou un attrait pour l’industrialisation est un plus. Pourquoi nous rejoindre ? Des projets Data à fort impact dans des environnements techniques exigeants. Un cadre de travail stimulant, collaboratif et bienveillant. De réelles perspectives d’évolution (technique ou architecture).
Mission freelance
Intégrateur API Plateforme d’Échanges / API Manager
Publiée le
Active Directory Domain Services (AD DS)
Ansible
Apache Kafka
12 mois
550-590 €
Île-de-France, France
Télétravail partiel
Fiche de poste – Intégrateur Plateforme d’Échanges / API Manager Intitulé du poste Intégrateur API / API Manager (intégration inter-applicative) Niveau : Confirmé + Équipe Produit : Middleware / Plateforme d’échanges Méthodologie : Agile / SAFe (sprints de 2 semaines, PI de 3 mois) Environnement hybride : On Premises / Cloud AWS Contexte de la mission Nous recherchons un profil d’ Intégrateur Plateforme d’échanges / API Manager pour renforcer une équipe produit en charge du middleware et des solutions d’intégration inter-applicatives. L’équipe développe et maintient une offre de type PaaS interne , permettant aux équipes de développement d’utiliser en autonomie : une plateforme d’échanges basée sur WSO2 API Manager 4.2, Boomi et RabbitMQ ; des solutions de monitoring et d’observabilité telles que Logstash, OpenSearch, Prometheus et Grafana. Les outils sont déployés en environnement hybride et doivent être utilisables en self-service par les équipes produit. Missions principales : Participer activement aux cérémonies agiles (daily, sprint review, PI planning) et contribuer à l’instruction des features et user stories liées à la plateforme d’échanges. Participer aux évolutions de la plateforme : intégration de nouveaux outils, ajout de fonctionnalités ou optimisation des composants existants. Maintenir et diffuser les bonnes pratiques et patterns d’intégration inter-applicative. Accompagner les équipes produit dans la prise en main et l’utilisation en autonomie de la plateforme d’échanges. Assister les équipes dans l’instruction et la réalisation des processus d’échanges (Boomi, API WSO2, files RabbitMQ). Accompagner la conception et le prototypage d’API REST, en conformité avec le standard OpenAPI 3.0. Traiter les demandes récurrentes liées à la plateforme (droits d’accès, ouvertures de flux, paramétrages techniques, etc.). Participer au support sur incident, à l’analyse et à la résolution de bugs sur la plateforme et les échanges inter-applicatifs. Contribuer à la mise à jour et à l’amélioration continue de la documentation technique et fonctionnelle. Assurer une veille technologique sur les sujets d’intégration, d’API management et de monitoring.
Mission freelance
Architecte Entreprise SI (Secteur Energie / Industrie)
Publiée le
Amazon S3
Apache Kafka
API
12 mois
700-810 €
Paris, France
Télétravail partiel
Notre client acteur majeur de l’agro-industrie, conduit une transformation SI d’envergure autour de la modernisation et de l’interopérabilité de son système d’information : Migration vers le cloud public Azure Mise en place d’une Data Platform Open Source (OpenShift, Kubernetes, Kafka, S3, etc.) Déploiement d’une plateforme d’interopérabilité (iPaaS) pour fluidifier les échanges inter-BU Modernisation de SAP et rationalisation des briques techniques Introduction d’un outil d’EAM (type LeanIX) pour la gouvernance du SI Le SI du groupe est complexe, hétérogène et distribué , avec des interactions entre environnements industriels, applicatifs et cloud, dans un contexte international et multi-BU . 🎯 Objectif du poste L’Architecte d’Entreprise interviendra en appui transversal des projets et participera à la structuration de la gouvernance d’architecture . Il combinera vision stratégique (urbanisation, standards, cartographie) et accompagnement opérationnel des projets IT. 🧱 Missions principales1. Accompagnement des projets IT (≈ 70%) Accompagner les équipes projets dans leurs choix d’architecture et de solutions. Garantir l’alignement avec les standards et la cohérence globale du SI. Soutenir la formalisation des besoins métiers et leur traduction en orientations techniques. Documenter les choix d’architecture dans un cadre structuré et partageable. 2. Cartographie du SI (≈ 30%) Élaborer et maintenir les cartographies du SI : métiers, applicatives, techniques et infrastructure. Mettre à disposition des représentations claires et synthétiques pour la prise de décision et la gouvernance SI . 3. Normes et Standards Définir et maintenir les principes directeurs et standards d’architecture . Garantir la cohérence, la sécurité et la maintenabilité du SI dans le temps. ⚙️ Environnement technique & organisationnel Cloud : Azure (IaaS, PaaS, intégration applicative) Data Platform : OpenShift, Kubernetes, Kafka, S3… Interopérabilité : plateforme iPaaS en cours de déploiement ERP : SAP (modernisation en cours) EAM : LeanIX (ou équivalent) Contexte : international, multi-pays, multi-langues, multi-BU 🧩 Compétences attenduesTechniques Maîtrise de l’ architecture d’entreprise et d’application (TOGAF, ArchiMate, LeanIX…) Bonne connaissance des écosystèmes Cloud Azure et environnements hybrides Capacité à formaliser des cartographies SI et modèles d’architecture Maîtrise des modèles d’intégration et d’interopérabilité (API, ESB, iPaaS, etc.) Comportementales Esprit d’analyse, de synthèse et de leadership Diplomatie et capacité à challenger sans bloquer Excellente communication orale et écrite Autonomie, rigueur et orientation résultats
Mission freelance
Lead Développeur Front Angular
Publiée le
Angular
CSS
Git
12 mois
Seine-Saint-Denis, France
Télétravail partiel
Métiers et Fonctions : Études & Développement Lead Développeur Spécialités technologiques : Front-End API Type de facturation : Assistance Technique (facturation au taux journalier) Compétences : Technologies et outils : TypeScript (5 ans), Angular (7 ans) Méthodes / Normes : Agile Savoir-être : Leadership Secteurs d'activités : Transports Terrestres Description de la prestation : Dans le cadre du développement d'une application stratégique, le poste de Lead Développeur Front Angular (version 21) consiste à : Garantir la qualité du front-end (performance, maintenabilité, sécurité) Structurer et faire évoluer l’architecture Angular Encadrer et faire monter en compétences les développeurs juniors Être le référent technique front Encadrement : Encadrer techniquement les développeurs (juniors et confirmés) Animer des revues de code, promouvoir bonnes pratiques Angular Mentorat et pair programming pour la montée en compétences Développement Front-End : Conception et développement d’interfaces complexes avec Angular 21 et TypeScript Implémentation d'architectures front robustes (modules, composants standalone, RxJS) Assurance de la qualité du code : lisibilité, testabilité, performance Collaboration étroite avec les équipes backend pour une intégration API fluide Qualité, performance & sécurité : Optimisation des performances front (chargement, rendu, gestion des états) Mise en place et maintenance de tests (unitaires, intégration, E2E) Environnement technique : Frontend : Angular 21, TypeScript, RxJS, HTML, CSS / SCSS Backend : NestJS Messaging / Data : Kafka, MongoDB Cloud & DevOps : AWS (Lambda, Glue), Jenkins Outils : Git, CI/CD
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Futur freelance architecte logiciel
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Calcul de l'indemnité de la rupture conventionnelle
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Quel logiciel de compta en ligne avez vous choisi et pourquoi ? Avec quel compte pro en ligne ?
38 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois