L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 133 résultats.
Mission freelance
[LFR] Expertise BigData / Cloud Data Engineering, Senior à Guyancourt - STAND - BY - 1005
Publiée le
10 mois
400-750 €
Guyancourt, Île-de-France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site SQY au minimum Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation
Offre d'emploi
Expert·e Openstack
Publiée le
50k-70k €
Paris, France
Télétravail partiel
Pour le compte de l'un de nos clients du CAC 40, nous recherchons un·e Expert·e Openstack ! Vos missions seront : - Etre force de propositions sur le développement et le maintiens de nouvelles fonctionnalités - Pouvoir représenter le produit Openstack Cloud Service au seins de comités - Pouvoir apporter sa contribution à la roadmap et à la stratégie produit - Contribuer à l'amélioration continue du projet - Participer à la maintenance du produit et au dépannage - Cloud Computing : AWS, Azure, Google Cloud, bonnes pratiques du cloud OpenStack (niveau maîtrise requis) -Outils de gestion : Active Directory, DNS, DHCP, NMS (Network Management System) -Langages de Scripting : Python, PowerShell, Bash -DevOps et Automatisation : Jenkins, Ansible, GitLab, Nexus -Orchestration de conteneurs : Kubernetes
Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)
Publiée le
Apache Kafka
AWS Cloud
Big Data
12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Offre d'emploi
Développeur Full Stack IA
Publiée le
Angular
CI/CD
Docker
40k-45k €
Paris, France
Télétravail partiel
Redlab cherche pour le compte d'un grand acteur public , un développeur fullstack IA Rôle Conçoit des applications end-to-end intégrant des modèles IA (ML, NLP, LLM). Profil polyvalent : front + back + intégration IA + CI/CD + cloud. Missions clés Développer interfaces front React/Vue/Angular. Concevoir API backend (Node.js, Python, Java, C#). Intégrer des modèles IA via microservices. Déployer en cloud (AWS/GCP/Azure/Outscale). Assurer tests, monitoring, Documentation détaillée Assurer une bonne qualité de code
Offre d'emploi
Ingénieur DevOps (H/F)
Publiée le
DevOps
6 mois
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Ingénieur DevOps chargé de concevoir, automatiser et optimiser les plateformes techniques de nos clients. Vous travaillerez au cœur des environnements cloud et conteneurisés, en collaboration avec les équipes de développement, d'exploitation et d'architecture. Vous participerez à l’industrialisation des process, l'amélioration de la performance des systèmes, la fiabilité des chaînes CI/CD et la sécurisation des environnements. Votre rôle est clé dans le maintien d’un écosystème stable, scalable et résilient. Vos missions Construire, maintenir et optimiser les pipelines CI/CD (GitLab CI, GitHub Actions, Jenkins…). Gérer et automatiser l’infrastructure cloud (AWS, GCP ou Azure). Déployer, monitorer et opérer des environnements Kubernetes / Docker. Mettre en place des outils d’observabilité (logs, métriques, traces). Automatiser les tâches récurrentes via scripting (Shell, Python…). Mettre en œuvre des pratiques IaC (Terraform, Ansible, CloudFormation…). Améliorer la performance, la sécurité et la résilience des plateformes. Collaborer avec les équipes Dev, QA et Ops pour fluidifier les livraisons. Participer aux rituels Agile et documenter les process techniques.
Offre d'emploi
Ingénieur QA logicielle technique (Mocha ou Gherkin) / Automatisation Node H/F
Publiée le
Node.js
35k-48k €
La Ciotat, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un Ingénieur QA logicielle technique (Mocha ou Gherkin) / Automatisation NodeJs pour l’un de nos clients situé vers La Ciotat. Mission : Au sein de l’équipe Test & Validation logicielle et dans un contexte international (anglophone), vos responsabilités seront les suivantes : - Participer aux réflexions quant aux stratégies de tests déployées - Rédaction de scenarii de test - Développement des tests automatisés (tests d'intégration, test de perfs, de bout en bout sur l’ensemble de la pyramide de test…). - Exécution des campagnes de tests - Intégration de vos tests à une chaîne CI/CD - Analyse des incidents et des anomalies en lien étroit avec les développeurs - Suivi de correction Profil : Idéalement ingénieur de formation, vous justifiez d’au moins 5 ans d’expérience, dont 3 en tant que testeur technique / automatisation. Vous maitrisez impérativement le développement Node (et donc JavaScript / TypeScript) ainsi que le framework de test Mocha ou Gherkin (voire Jest, Cypress ou Playwright ) Vous disposez par ailleurs de bonnes connaissances Cloud, idéalement AWS (ou à défaut Azure ou GCP) ainsi qu’une solide culture DevOps.
Mission freelance
Data Engineer
Publiée le
Big Data
IA
Java
3 ans
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tester différents LLM peu importe le provider (aws, gcp, azure) Préparer les jeux de données Définir les conditions de succès et d’échec et paramétre les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendu Faire des développements su les produits de la squaq (Java / Python) L'équipe a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. La squad souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment).
Mission freelance
Ingénieur QA logicielle technique (Mocha ou Gherkin) / Automatisation Node
Publiée le
Node.js
12 mois
380-440 €
La Ciotat, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un Ingénieur QA logicielle technique (Mocha ou Gherkin) / Automatisation NodeJs pour l’un de nos clients situé vers La Ciotat. Mission : Au sein de l’équipe Test & Validation logicielle et dans un contexte international (anglophone), vos responsabilités seront les suivantes : - Participer aux réflexions quant aux stratégies de tests déployées - Rédaction de scenarii de test - Développement des tests automatisés (tests d'intégration, test de perfs, de bout en bout sur l’ensemble de la pyramide de test…). - Exécution des campagnes de tests - Intégration de vos tests à une chaîne CI/CD - Analyse des incidents et des anomalies en lien étroit avec les développeurs - Suivi de correction Profil : Idéalement ingénieur de formation, vous justifiez d’au moins 5 ans d’expérience, dont 3 en tant que testeur technique / automatisation. Vous maitrisez impérativement le développement Node (et donc JavaScript / TypeScript) ainsi que le framework de test Mocha ou Gherkin (voire Jest, Cypress ou Playwright ) Vous disposez par ailleurs de bonnes connaissances Cloud, idéalement AWS (ou à défaut Azure ou GCP) ainsi qu’une solide culture DevOps.
Offre d'emploi
Engineering Manager (H/F)
Publiée le
Management
1 an
68k-80k €
550-700 €
Paris, France
En tant qu’ Engineering Manager , vous piloterez plusieurs équipes techniques, en étroite collaboration avec les Lead Développeurs . Vous jouerez un rôle clé dans les orientations techniques, la montée en compétence des équipes et la qualité globale du delivery. Vos missions Management & Leadership Encadrer et faire évoluer plusieurs équipes de développeurs. Travailler en binôme avec les Lead Développeurs pour garantir la cohérence technique, l’excellence des pratiques et le respect des standards de qualité. Piloter les objectifs, accompagner les carrières et promouvoir une culture d’engagement et de collaboration. Pilotage technique & performance Challenger les décisions techniques autour des environnements JAVA , architectures distribuées et microservices. Gérer des plateformes à forte volumétrie avec des enjeux complexes de performance, scalabilité et disponibilité. Participer à la définition de la roadmap technologique en lien avec l’architecte et la direction IT. Cloud & Infrastructure Superviser et optimiser les environnements GCP et AWS : performances, coûts, sécurité, observabilité. Encourager l’adoption des bonnes pratiques cloud natives et CI/CD. Gestion des prestataires & coordination Collaborer avec des prestataires internes et externes (partenaires tech, intégrateurs) pour garantir une bonne coordination et une qualité de delivery homogène. S’assurer de la bonne communication et de la bonne intégration des travaux des partenaires au sein des équipes internes. Projet & Delivery Garantir le bon fonctionnement du delivery : priorisation, organisation, communication, qualité des livrables. Travailler étroitement avec les Product Managers pour synchroniser besoins métiers et contraintes techniques. Optimiser les processus internes pour améliorer la vélocité et la robustesse des développements.
Offre d'emploi
Data Engineer Python/DBT
Publiée le
Databricks
45k-50k €
Occitanie, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
CDI - DBA PostgreSQL / MariaDB (H/F)
Publiée le
MariaDB
PostgreSQL
Paris, France
Télétravail partiel
Contexte du poste Au sein de la DSI, vous serez responsable de la gestion, optimisation et sécurisation des bases de données MariaDB et PostgreSQL . Vous participerez aux projets d’évolution, aux migrations cloud et à l’intégration de nouvelles bases de données (Redis, Kubernetes). 🛠️ Missions principales Administration et optimisation de PostgreSQL et MariaDB . Gestion des performances, tuning SQL et maintenance. Sauvegarde, restauration et plan de reprise d’activité. Support et troubleshooting niveau N3. Participation à l’architecture des bases et à l’industrialisation des processus. Collaboration avec les équipes DevOps et Cloud (Azure, GCP, AWS). Mise en place et suivi de nouvelles bases de données (Redis, Kubernetes).
Mission freelance
Data Engineer H/F
Publiée le
Azure
3 ans
Île-de-France, France
Description : Livrables : • Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. • Analyser et interpréter des données complexes afin d’en extraire des informations exploitables. • Collaborer avec des équipes inter fonctionnelles pour identifier et résoudre les défis liés aux données. • Développer et maintenir des pipelines de données, des modèles et des outils de reporting. • Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. • Fournir une expertise technique et des conseils aux parties prenantes pour soutenir les prises de décisions fondées sur les données. Expertise : • Diplôme de niveau Bachelor ou Master en informatique, data science ou domaine connexe. • Plus de 5 ans d’expérience en data engineering, data analytics ou rôle similaire. • Expérience avérée dans la livraison de solutions data dans un environnement dynamique. • Maîtrise des technologies et architectures data modernes, telles que les plateformes cloud, les frameworks big data et les solutions de data warehousing. • Expertise en langages de programmation tels que Python, SQL et Spark. • Maîtrise de la modélisation de données, des processus ETL et des techniques de transformation de données. • Expertise des plateformes cloud orientées data (ex. : AWS, Azure, Google Cloud). • Maîtrise des outils de visualisation et de reporting (ex. : Power BI, Tableau). • Connaissance approfondie des bonnes pratiques en matière de sécurité, gouvernance et conformité des données.
Mission freelance
Architecte d’Entreprise(Industrie/ Energie)
Publiée le
Architecture
Architecture ARM
AWS Cloud
12 mois
700-780 €
Paris, France
Télétravail partiel
L’Architecte d’Entreprise assure la cohérence et l’évolution stratégique du Système d’Information (SI) dans le respect des objectifs métier et des contraintes techniques, réglementaires, budgétaires et sécuritaires. Il/elle agit comme facilitateur entre les directions métiers et IT, garantissant un SI agile, évolutif et innovant, capable de soutenir la transformation digitale de l’entreprise. Le poste place l’humain et la collaboration au cœur des missions : écoute, empathie, partage, pédagogie et leadership sont essentiels pour réussir dans ce rôle. Responsabilités principales Architecture et urbanisation du SI Concevoir et maintenir l’architecture globale du SI (Métier, Fonctionnelle, Données, Applicative, Technique, Infrastructure). Garantir la cohérence, la pérennité et l’alignement avec la stratégie de l’entreprise. Mettre en place des référentiels, standards et modèles de gouvernance. Participer à la définition de feuilles de route, schémas directeurs et trajectoires de transformation. Pilotage et coordination de projets SI Accompagner les projets majeurs de transformation, de migration et d’optimisation. Coordonner les équipes internes et externes pluridisciplinaires. Assurer le suivi budgétaire, le reporting et la planification transverse des projets. Superviser les phases de tests, d’intégration et de mise en production (CI/CD, DevSecOps). Stratégie et innovation technologique Veille technologique et benchmark sur les nouvelles pratiques et solutions (Cloud, IA, IoT, Data). Développement et promotion de standards de qualité, sécurité et résilience du SI. Participation à l’évaluation et à la mise en œuvre de solutions innovantes et éthiques. Sécurité, conformité et gouvernance des données Gestion de la sécurité de l’information et de la conformité réglementaire (RGPD, ISO 27001…). Pilotage de la gouvernance des données, référentiels et dictionnaires de données. Participation aux analyses de risques et mise en œuvre de plans de mitigation. Accompagnement humain et changement Facilitation de la communication entre équipes métiers, IT et directions. Formation et acculturation aux pratiques et standards SI. Encourager la participation, la collaboration et l’adhésion des équipes aux projets de transformation. Profil recherché Compétences techniques et méthodologiques Urbanisation et architecture SI : TOGAF, Zachman, ArchiMate, UML, BPMN. Gouvernance et gestion des données : catalogues, dictionnaires, GDPR, ISO 27001. Projet et management : PMP, PRINCE2, Agile, SAFe, DevSecOps. Analyse de risques : EBIOS, MEHARI, MESARI. Maîtrise des environnements Cloud (Azure, AWS, GCP), outils CI/CD et DevOps. Outils : Enterprise Architect, Visio, MS PowerBI, Jira, Triskell, Sciforma. Compétences humaines et leadership Leadership naturel et fédérateur. Excellente capacité d’écoute, empathie et pédagogie. Diplomatie, négociation et gestion de situations complexes. Capacité à accompagner le changement et à mobiliser les équipes. Expériences souhaitées Minimum 10 ans d’expérience dans des fonctions d’architecture SI et/ou pilotage de projets complexes. Expérience sur des environnements multi-sectoriels (industrie, assurance, administration, services). Expérience en management d’équipes pluridisciplinaires et coordination de prestataires. Formation Bac+5 ou équivalent en informatique, systèmes d’information ou ingénierie. Certifications TOGAF, CISSP, CISM, ITIL, PMP sont un plus.
Offre d'emploi
Ingénieur·e C# – Calcul distribué & Cloud en finance de marché
Publiée le
C#
Cloud
DevOps
44k-70k €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Nous intervenons sur des sujets à haute intensité technologique : HPC, IA, architectures distribuées, performance des systèmes de calcul, cloud natif, avec une spécialisation historique dans la finance de marché (CIB) . Nous collaborons avec les grandes banques d’investissement françaises (CA-CIB, BNP-CIB, SG-CIB…) sur des projets critiques en lien direct avec les équipes trading , risk , quant et IT stratégie , au cœur des systèmes de pricing , de calcul de risques et d’ exécution . 🎯 Le poste Nous recherchons un·e ingénieur·e C# confirmé·e ou senior pour renforcer une équipe technique stratégique au sein d’une banque d’investissement de premier plan . Dans un environnement cross-fonctionnel , vous collaborerez avec les IT Quants , les équipes Risk & Pricing , les développeurs de la DSI et les expert·es Infrastructure & Cloud , afin de participer à la modernisation complète du SI. Vos principales missions : ⚙️ Refonte et développement d’une plateforme de calcul de nouvelle génération , intégrant des moteurs de pricing de produits dérivés, des outils de simulation et de risk calculation fortement parallélisés, dans une architecture en transformation vers les microservices et le cloud-native . 📈 Évolution et optimisation des progiciels de marché (X-Asset) utilisés pour le suivi des opérations Front-to-Back-to-Risk , dans un cadre hautement régulé. ☁️ Migration des grilles de calcul on-premise vers le cloud (AWS, GCP, Azure), avec ArmoniK , notre orchestrateur open-source haute performance dédié au calcul financier. 🧠 Analyse de performance, profiling mémoire/CPU , tuning, pour respecter des SLA exigeants dans des environnements batch intensifs ou temps réel. Vous évoluerez dans un environnement agile , exigeant et collaboratif , porté par une culture d’ excellence technique , de craft et de clean code . 🛠️ Environnement technique Langages & Frameworks : C#, .NET Core, ASP.NET, SQL, scripting Python (bonus) Architecture : microservices, API REST, GRPC, message bus (Kafka, RabbitMQ) Cloud & Infra : AWS, Azure, GCP — Kubernetes, Docker, Terraform CI/CD & Qualité : GitLab CI, Jenkins, SonarQube, test coverage, automatisation Pratiques : POO, SOLID, clean code, TDD, code review rigoureuse Calcul intensif & optimisations : HPC, multithreading, SIMD/AVX, vectorisation, gestion fine de la mémoire/cache
Mission freelance
Architecte Fonctionnel SI - Solution DATA & RGPD(Assurance)
Publiée le
Agile Scrum
Angular
Apache Kafka
12 mois
680-750 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de la transformation du groupe assurance, plusieurs projets stratégiques sont en cours : Nouveau Référentiel Client (point unique de vérité sur clients MM individuels et entreprises) Programme CRM Plateforme Data / IA Refonte et évolution des espaces digitaux Autres projets de transformation SI La Direction de l’Architecture (MH TECH) est composée de 3 départements : Stratégie SI et gouvernance d’architecture Architecture SI Architecture Technique Objectif de la mission : Apporter une expertise en architecture de solution et fonctionnelle , contribuer à la définition des architectures applicatives et assurer un rôle de conseil stratégique auprès des équipes projets. Nature et étendue de la prestation : Le consultant sera amené à : Définir l’architecture applicative cible et les états stables de la solution Rédiger les dossiers d’architecture selon la méthodologie du groupe MH Analyser les demandes d’évolutions applicatives et leurs impacts sur la solution globale Contribuer aux dossiers d’arbitrage pour les décisions sur les évolutions Préparer et alimenter les Comités Solution Définir les interfaces et règles d’interfaçage du SI de gestion et son écosystème Conseiller et valider les choix techniques Identifier et suivre les adhérences entre programmes et projets de transformation Accompagner les projets de la phase de cadrage à la mise en production Assurer la cohérence entre livrables majeurs et projets connexes (spécifications, développement, recette, migration, conduite du changement) Modéliser la cartographie du SI gestion sous HOPEX (vision cible et trajectoire) Taille du projet : Projet de taille moyenne ou ensemble de petits projets Livrables attendus : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution Dossiers d’arbitrage Dossiers d’analyse des adhérences entre programmes et projets de transformation SI Analyses fonctionnelles et/ou applicatives sur thèmes transverses critiques Cartographies applicatives et données sous HOPEX Comptes rendus hebdomadaires Compétences attendues :Fonctionnelles : Connaissance du domaine assurance santé / prévoyance / épargne / retraite Expertise en enjeux digitaux et data Maîtrise des pratiques et méthodologies d’architecture SI : TOGAF, ArchiMate, UML, Zachman, SAFE, SCRUM, RUP Capacité à formaliser et communiquer l’architecture aux parties prenantes Techniques : Technologies digitales : SPA, BFF, Front SPA (Angular), JAVA EE 5-17, Spring Boot, microservices, API REST, Kafka, Kubernetes, OpenShift Sécurité et identité : SSO, OIDC, OAuth2, SAML, France Connect Data & IA : solutions Big Data Open Source, Cloud (Snowflake…), MDM, DQM, data virtualisation, LLM, RAG, Agentique Architecture CQRS et patterns associés, Cloud Ready Gouvernance et architecture data : GDPR, DORA, Observabilité LLM, Data Architecture Outil de référence : MEGA Modélisation de données : MERISE, UML
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Calcul de l'indemnité de la rupture conventionnelle
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
133 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois