L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 830 résultats.
Offre d'emploi
Expert Citrix
GRADIANT
Publiée le
Citrix
3 ans
40k-75k €
400-800 €
Paris, France
Nous recherchons: - Un Expert CITRIX qui gère les activités du N1 (demandes et incidents simples) au N4 (architecture) - Compétences CITRIX Cloud - Compétence Azure - Anglais courant - Astreinte 1 semaine sur 8 Le titulaire du poste est garant de la fiabilité, de la cohérence, des performances et de l’évolution des composants d’infrastructure portant les applications Citrix. Ils travaillent en étroite collaboration avec les équipes de l’infra (ProServ, DC & Ops, DBA, A&Obs) pour tous les projets. Ils sont également en contact direct avec les équipes de développement d'applications et / ou les responsables de produits informatiques afin d'être au plus près des besoins de l'entreprise. Son périmètre technique est le suivant : • Citrix DAAS • Microsoft Azure ( Azure Image Gallery / Automation Account / SA / LB) • Active Directory (Gestion Groupes / GPO / DNS) • Okta (MFA) • Version Citrix : CVADS LTSR 2507 • Version OS?: Windows Server 2016 / 2019 (/ 2022 et 2025 à venir) • Citrix UPM / Fslogix • Citrix WEM • Nombre de serveurs Citrix?: ~100 serveurs • Applications publiées?: Application métiers 70 % & application bureautiques 30 % • Storefront / Gateway / FAS Ses activités sont les suivantes : • Etre référent technique sur les technologies CITRIX • Définir et implémenter les évolutions de la plateforme CITRIX dans le respect des contraintes métiers • Maintien en condition opérationnelle, maintenance corrective, maintenance évolutive de la plateforme Citrix • Traitement des demandes et incidents N3 dans l’outil d’ITSM (Service Now) • Mise à jour des masters et des catalogues de machines Citrix • Automatisation et scripting des process Citrix • Assister une population internationale d’utilisateurs exigeants (traders) • Maintien en condition opérationnelle des socles et services d’infrastructure (24/7 - astreintes HNO et week-end) De plus, il sera amené à : • Contribuer aux projets d’infrastructure dans leur mise en œuvre et interaction sur des projets Business nécessitants de l’infrastructure • Contribuer à la résolution des incidents en support à la première ligne de support et à la définition/suivi des plans d’actions dans le cadre des problèmes • Contribuer au bon fonctionnement de l’équipe et plus globalement Infrastructure en s’investissant sur l’amélioration continue souhaitée tant sur l’aspect technologique que sur l’aspect organisationnelle. • Contribuer aux phases de Build de certains projets Infrastructure ou Business Enfin, en raison du développement du business (et donc de l’IT) aux USA, il pourra être demandé au prestataire de travailler des plages horaires décalées (à partir de 14h) pendant quelques mois.
Mission freelance
Consultant GRC
Groupe Aptenia
Publiée le
API
DORA
EBIOS RM
6 mois
450-650 €
Paris, France
1️⃣ Intégration de la sécurité dans les projets stratégiques Accompagner les directions métiers (RH, Communication, Média) dans l’intégration des exigences SSI Réaliser les analyses de risques (EBIOS / ISO 27005) Définir le scoping sécurité des projets Évaluer et formaliser les risques résiduels Présenter les dossiers en comité des risques Challenger les architectures proposées (Cloud, API, solutions SaaS) 2️⃣ Gouvernance & Gestion des risques Contribuer à la cartographie des risques Assurer la cohérence avec le cadre de gouvernance SSI Participer aux comités de validation et arbitrage Maintenir un haut niveau de veille sur l’évolution des menaces 3️⃣ Sécurité des tiers & conformité réglementaire (DORA) Piloter les due diligences sécurité fournisseurs Analyser les dossiers de réponse sécurité Auditer les prestataires critiques Négocier et formaliser les clauses contractuelles sécurité Garantir la conformité aux exigences du règlement Digital Operational Resilience Act (DORA)
Mission freelance
[LFR] Ingénierie Build Data Security Expérimenté à Guyancourt - 1298
ISUPPLIER
Publiée le
10 mois
400-535 €
Guyancourt, Île-de-France
Secteur bancaire. Description et localisation Expertise en Data Security. Le client fournit à ses partenaires une gamme de services et solutions informatiques, est force de proposition et d’accompagnement dans leurs démarches d’innovation leur permettant de répondre à leurs besoins Métiers. Au sein du Cluster Corporate Investment Banking (CIB), dans le département Solutions IT, équipe OPEN, la mission d'expertise technique se déroulera sur le site de Saint-Quentin en Yvelines (SQY Park). Des déplacements ponctuels à Montrouge (Evergreen) sont à prévoir. Contexte Assurer l'évolution et le traitement de l'obsolescence des infrastructures de sécurité utilisées dans le monde entier par la banque d’investissement. Cette infrastructure permet de gérer les 25 000 postes de travail et les 10 000 serveurs de l’entité ; Administrer et faire évoluer l’offre de Data Security ; Participer aux efforts d’automatisation et de fiabilisation ; Réaliser des présentations techniques ; Assurer le support technique de niveau 3 auprès des équipes de RUN basées à Singapour ; Vous serez aussi amenés à rédiger des dossiers et des avis techniques, ainsi que des feuilles de route à destination des chefs de projet et des équipes opérationnelles devant mettre en œuvre et exploiter les solutions. La maitrise de l’anglais est donc essentielle. Vous serez amené à réaliser des astreintes et/ou opérations ponctuelles en HNO. Détails de la prestation En tant qu'expert Data Security, vos missions principales seront de : • Expertise technique sur les produits Symantec (SEP et DLP) ; • Expertise technique sur les produits Trend Micro (APEX, Deep Security et DDEI) ; • Expertise technique sur le produit Active Identity (HID) ; • Expertise technique sur le produit Fortra (ICAP Gateway) ; • Les astreintes (HNO, etc…) : Oui • La possibilité de renouvellement : Oui • Type de besoin : remplacement • Type de projet (support / maintenance / implementation /…) : Implémentation • Type de prestation (Client / Hybrid / Remote) : Client • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jours / semaine
Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort
EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis
3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Mission freelance
Consultant cybersécurité Conformité DORA
STHREE SAS pour HUXLEY
Publiée le
12 mois
400-650 €
75001, France
Le projet DORA est un programme de mise en conformité à la réglementation DORA. C'est un programme de transformation complexe comportant des dimensions organisationnelles et technologiques, avec des parties prenantes de diverses directions (cybersécurité, informatique, juridique, achats…). Dans le cadre de la DCRN (Direction Cybersécurité & Risque Numérique) et plus particulièrement au sein de la Division GRC (Gouvernance, Risque, Conformité) en charge de la mise en conformité aux réglementations cyber. Le consultant devra fournir les prestations suivantes : Programme de mise en conformité du groupe à la réglementation DORA Rédaction de livrables clé en lien avec la réglementation Suivi de la trajectoire des projets du programme : adéquation entre les réalisations des projets et les objectifs de conformité associés Animation d'ateliers et apport d'expertise sur la réglementation Revue de la trajectoire du programme : analyse des nouvelles publications réglementaires (ITS/RTS) et identification des impacts sur le programme Intervenir en support sur le périmètre d'activité du Référent conformité Veille réglementaire et analyse d'impact des nouveaux textes (Cyber Resilience Act, AI Act, Cybersecurity Act, NIS 2…) Mise à jour des tableaux de bords et reporting de conformité Participation aux activités de sensibilisation aux enjeux réglementaires (préparation de support, animation d'ateliers…) Piloter et reporter sur les tâches d'expertise des différents projets Mettre en place des rituels de pilotage pour produire un reporting clair : statut, météo, alertes, risques, décisions attendues, points de vigilance Assurer la traçabilité des décisions, actions, risques et arbitrages S'assurer de la priorisation des tâches, sécuriser le planning, anticiper les risques pour garantir l'atteinte des jalons Assurer un reporting régulier et une remontée des alertes (risques, dépendances, arbitrages) vers le management Projet
Offre d'emploi
Administrateur Systèmes Confirmé (H/F)
ADSearch
Publiée le
40k-50k €
Villeurbanne, Auvergne-Rhône-Alpes
En bref : Administrateur Systèmes Confirmé H/F – CDI – Villeurbanne – 45k€ – Administration Systèmes, Support, Infogérance, Linux (Red Hat) et Oracle La division Hébergeur Cloud de notre bureau recherche pour son client, une ETI familiale engagée dans l'amélioration de la qualité de vie des citoyens et influençant favorablement son écosystème, un Administrateur Systèmes Confirmé (H/F) sur Villeurbanne. VOS MISSIONS Vous intégrerez l'équipe répartie sur Villeurbanne, Lille et Meylan. Vous serez en charge des missions suivantes : - Participer au support clients niveau 2 et 3 (hébergement et On Premise sur les applicatifs éditeurs) - Effectuer des installations et migrations pour les clients du secteur public entièrement à distance - Gérer des bases de données Oracle et des systèmes des clients (800 serveurs virtuels hébergés) - Rédiger les documentations et mettre en application les processus ISO27001 dans une démarche d'amélioration continue
Mission freelance
Ingénieur de Production Devops F/H
METSYS
Publiée le
Control-M
Jboss
Jenkins
1 an
400-550 €
Île-de-France, France
Dans le cadre d’un projet chez l’un de nos clients grands comptes, nous recherchons un Ingénieur de Production F/H orienté DevOps pour intervenir sur des applications critique en environnement de production . Vous serez au cœur des enjeux de disponibilité, d’automatisation et de modernisation des plateformes. Assurer le déploiement et l’exploitation d’applications critiques en production Gérer l’obsolescence des serveurs d’applications Participer au suivi de production et à la gestion des incidents Assurer les astreintes éventuelles Contribuer aux choix d’outillage et aux standards DevOps Mettre en place et maintenir des chaînes CI/CD automatisées Administrer les serveurs Web et d’applications Gérer l’ordonnancement des traitements batch Créer et maintenir des dashboards de suivi opérationnel Enviroennement technique Middleware & Serveurs applicatifs : JBoss • Tomcat • WAS Serveurs Web & Reverse Proxy : Apache • IHS • HAProxy CI/CD & Automation : Jenkins • XL Release (XLR) • XL Deploy (XLD) • GitLab CI • Ansible • Terraform • Docker Ordonnancement : VTOM • Control-M Supervision & Monitoring : Grafana • Prometheus • ELK • Zabbix Langages & scripting : Bash • Python • YAML Cloud Native (un plus) : OpenShift • Kubernetes
Mission freelance
POT8966 - Un Data Analytics Stream Leader SAP sur Vélizy
Almatek
Publiée le
SQL
6 mois
Vélizy-Villacoublay, Île-de-France
Almatek recherche pour l'un de ses clients, un Data Analytics Stream Leader SAP sur Vélizy. Projet: Conversion du système SAP ECC6 EHP0 vers SAP S/4HANA afin de répondre à un besoin client. Les critères demandés : Connaissance du traitement de la donnée et de son utilisation, de la collecte et de la modélisation Connaissance de SAP ECC ou S/4HANA Capacité d’analyse de l’existant et de stratégie data Connaissance des outils Pack Office Connaissance métier : en particulier finance, supply chain, opérations Anglais courant (écrit et oral) : langue du projet Une connaissance du langage SQL serait un plus Une expérience de projet de conversion, montée de version ou déploiement SAP serait un plus Expression du besoin En étroite collaboration avec son référent, le Chef de Projet métier, il est demandé au profil d’assurer les missions de Data Analytics Stream Leader pour le cadrage du chantier : Le profil pilotera (organisation, animation, restitution) les ateliers avec le métier pour finaliser la liste des codes transactions spécifiques liés au reporting et les requêtes développées par les utilisateurs. Le profil préparera et participera au Comité Projet hebdomadaire pour présenter l’avancement de ses activités relatives au stream Data Analytics. Proposera et mettra à jour un planning détaillé relatif à son stream Pour les remédiations/rebuild SAP : Le profil pilotera la phase de réalisation (organisation, animation, restitution), en collaboration avec l’équipe IS et les Domain leaders métier, en particulier : Ordonnancer les priorités de remédiation/rebuild des transactions/queries, Mettre en place les indicateurs de suivi d’avancement du Design, Build, Tests Définir une stratégie de tests et rédiger les scénarios de test Pour les transferts vers la Data-Platform, le profil pilotera la phase de réalisation (organisation, animation, restitution), en collaboration avec l’équipe Data gouvernance, la Digital Factory et les équipes métier concernées. Dans les 2 possibilités, le profil supportera les équipes métier dans la reconstruction des powerBI. Lieu de prestation : La prestation est à réaliser sur un site client à Vélizy (78) ou Villeurbanne (69). Télétravail possible 2J par semaine.
Mission freelance
Business Analyst Risque de Crédit / Credit Derivatives (h/f)
emagine Consulting SARL
Publiée le
1 mois
500-530 €
75013, Paris, Île-de-France
Introduction & Résumé : Ce rôle de Business Analyst est essentiel pour l'équipe en charge de la mise en place d'une nouvelle solution de visualisation des données et de suivi des risques de marché. Le consultant sera un acteur clé dans l'optimisation des outils de suivi P&L pour les desks de dérivés de crédit. Le candidat idéal possède une formation en ingénierie ou un Master en finance et informatique, ainsi qu'une expérience en dérivés de crédit. Responsabilités : Recueil des besoins et Rédaction des spécifications fonctionnelles générales Priorisation des projets ou lots d'un projet Suivi des développements avec la Maîtrise d'œuvre Etablissement du cahier de recette et réalisation de la recette Accompagnement à la mise en production Formation utilisateurs et Rédaction des procédures et guides utilisateurs Coordination projet et Reporting Compétences : Ecole d’ingénieur ou Master en finance et informatique 5 à 7 ans d’expérience minimum Connaissance des dérivés de Crédit Suivi des risques (Explain/Expected P&L), gestion de la market data en temps réel Fort intérêt pour la finance de marchés et les dérivés Intérêt pour les nouvelles technologies et les challenges techniques Curiosité, autonomie, proactivité Autres Détails : Poste basé à Paris 13 avec 50% de télétravail par semaine / Durée du contrat : 3 ans.
Mission freelance
Expert Commvault
Signe +
Publiée le
Commvault
6 mois
400-440 €
Noisy-le-Grand, Île-de-France
Description détaillée de la prestation : Expert Commvault • Technologie de stockage Quantum SMB-CIFS/NFS/S3 • Audit, Hardening et cyber résilience de l'infrastructure de backup. • Maitrise de Commvault avec GCP • Maitrise des Network Topology et Backup Network • Maitrise de AHV et Intellisnap • Maitrise de Autorecovery. • Maitrise de Threat Scan. • Maitrise des backup oracle ZDLRA et Oracle Rack + intégration avec Commvault. • Maitrise des Workflow • Automation de Commvault avec Workflow. • Intégration Okta Techno : • Expertise Commvault • Technologie de stockage Quantum SMB-CIFS/NFS/S3 • Audit, Hardening et cyber résilience de l'infrastructure de backup. • Maitrise de Commvault avec GCP • Maitrise des Network Topology et Backup Network • Maitrise de AHV et Intellisnap • Maitrise de Autorecovery. • Maitrise de Threat Scan. • Maitrise des backup oracle ZDLRA et Oracle Rack + intégration avec Commvault. • Maitrise des Workflow • Automation de Commvault avec Workflow. • Intégration Okta
Offre d'emploi
Consultant technico fonctionnel SAP FI/CO
Signe +
Publiée le
48k-54k €
Lille, Hauts-de-France
En tant que Consultant technico-fonctionnel SAP FI/CO, vous interviendrez sur des projets d'implémentation et d'évolution autour de ces modules, en lien direct avec les équipes métiers et IT : • Participer aux ateliers de recueil des besoins et à la rédaction des spécifications fonctionnelles • Proposer des solutions SAP adaptées aux enjeux métiers • Paramétrage des modules SAP FI/CO • Réaliser la configuration dans SAP et accompagner les développements spécifiques (en lien avec les développeurs ABAP) • Gérer les tests unitaires et d'intégration • Participer au support utilisateurs et aux évolutions des solutions • Debug des programmes ABAP • Assurer la documentation des solutions mises en œuvre • Participation aux projets de transformation vers S/4HANA Une présence sur site client de 3 jours par semaine est requise, le reste de l'activité pouvant être réalisé en télétravail. Référence de l'offre : s5s7nuch03
Offre d'emploi
Data Engineer / BI (H/F)
HAYS France
Publiée le
Master Data Management (MDM)
Microsoft SQL Server
Microsoft SSIS
46k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons pour notre client un Data Engineer / BI (H/F) Contexte : Consolidation de l’environnement existant, Projets, Axes de développement sur moyen et long terme. · Vous intégrez une équipe à taille humaine. · Véritable bras droit du manager, vous êtes amené à superviser l’équipe, gérant les priorités ainsi que les escalades. · Ce qui vous attend ? Du support opérationnel, de la Qualité & Conformité, du Reporting ainsi qu’une participation active dans l’Amélioration continue. Responsabilités principales : Modélisation de données, ETL, Data gouvernance… La mission consiste à garantir la continuité, la fiabilité et la conformité des activités Data & Business Intelligence, tout en pilotant les projets d’intégration, de reporting et d’optimisation au service des décisions stratégiques de l’entreprise. · Support opérationnel — Assurer le suivi des projets Data (ETL, data warehouse, dashboards) et veiller à la disponibilité des services BI. · Qualité et conformité — Maintenir les standards de qualité des données et garantir le respect des règles de sécurité et de conformité. · Reporting — Produire, contrôler et diffuser les KPI, tableaux de bord et analyses destinés aux directions métiers. · Amélioration continue — Identifier et mettre en avant les pistes d’optimisation des processus Data et BI. · Communication — Assurer le rôle d’interlocuteur privilégié auprès des parties prenantes internes et externes. · Coordination — Encadrer l’équipe Data en l’absence du manager, organiser les priorités et gérer les escalades. Environnement technique : Microsoft SQL Server, SQL, ETL, MS BI (SSIS, SSAS, SSRS), PowerBI, Data Modeling, Master Data Management (MDM), Cloud privé.
Offre d'emploi
Ingénieur DevOps Kubernetes / Openshift
MGI Consultants
Publiée le
Kubernetes
Openshift
3 ans
60k-70k €
500-650 €
Vincennes, Île-de-France
Rejoignez-nous pour une mission chez notre client grand compte du secteur bancaire basé en Seine-Saint-Denis (93) en tant qu’Ingénieur DevOps Kubernetes / Openshift. Au sein du département IaaS, vous intégrez une équipe transverse responsable de la fourniture et du maintien en condition opérationnelle (MCO) des socles technologiques critiques du Groupe. Votre mission vise à hybrider les infrastructures traditionnelles avec des solutions cloud privées et publiques. En tant qu’expert infrastructure, votre rôle s’articule autour de trois piliers : Build, Run et Automatisation. Vos missions sont donc les suivantes : Build : · Kubernetes & Containers : Déployer et administrer les clusters (On-premise ou Cloud) pour supporter les applications conteneurisées. Optimiser l’orchestration et assurer la haute disponibilité des services. · Cloud Privé (OpenShift) : Participer à l’évolution de la plateforme Cloud privée du Groupe. Configurer les ressources compute, network et storage pour les besoins métiers. · Virtualisation (VMware) : Gérer et faire évoluer les fermes de serveurs virtuels (vSphere, vCenter). Garantir la scalabilité des ressources. · VDI et Accès Distants (Citrix) : Concevoir et optimiser les fermes Citrix (Virtual Apps & Desktops) pour garantir un accès fluide et sécurisé aux outils de trading et de gestion. Run : · Assurer le support de niveau 2/3 sur l’ensemble du périmètre technique. · Gérer les incidents critiques et participer aux diagnostics de performance (Troubleshooting avancé). · Garantir la sécurité et la conformité du socle (Patching, durcissement des systèmes, gestion des certificats). · Participer aux astreintes Automatisation : · Industrialiser les déploiements via des outils d’Infrastructure as Code (IaC) (Terraform, Ansible, Helm). · Développer des scripts pour automatiser les tâches d’exploitation récurrentes. Les mots clés techniques : Kubernetes, Openshift, Linux, N2/N3
Offre d'emploi
Tech Lead Java
Espritek
Publiée le
Java
Spring
Massy, Île-de-France
La Software Factory développe et met à disposition des équipes tech les outils d'automatisation et d’accélération des processus de développement de logiciels, ainsi que les standards associés, pour améliorer la qualité, la productivité et la rapidité de livraison. La Software Factory est en train de mettre en place une plateforme agentique à disposition des acteurs du SDLC (Software Development Life Cycle) et a besoin de renforcer d’un Tech Lead senior pour accélérer les prochaines features et évolutions sur les agents existants (agent Product Manager, agent Support, agent Design, agent Self Service, …) ●Concevoir et développer des applications robustes et scalables en utilisant Java 21 & 25, Spring Boot 4, Spring AI (Prompt Engineering & Templates, Chat client, advisors, MCP), Vertex AI, Nuxt 4.2 /Vue 3.5 ●Connaissance en développement et principes d’architecture agentique ●Implémenter des architectures microservices et des systèmes orientés événements (event-driven). ●Déployer et orchestrer les services sur la plateforme GCP à l'aide de Kubernetes. ●Appliquer les principes de Clean Architecture et de Software Craftsmanship pour garantir la pérennité du code. ●Assurer la qualité du produit en respectant les standards SOLID, YAGNI et en pilotant la couverture de tests via Sonar. ●Gérer les données avec des bases vectorielles et relationnelles comme PostgreSQL et des solutions Big Data telles que BigQuery ou BigTable. ●Maîtriser le cycle de vie logiciel complet, de la conception à la mise en production via des pipelines CI/CD. ●Optimiser la performance applicative tout en intégrant des mécanismes d'observabilité avancés. ●Intervenir sur le front-end en utilisant TypeScript et en intégrant les composants du Design System. ●Gérer le versioning du code source de manière rigoureuse avec l'outil Git. ●Encadrer et mentorer l'équipe de développeurs en animant les revues techniques et en challengeant les solutions. ●Arbitrer les choix techniques et fonctionnels pour aider à la prise de décision stratégique. ●Collaborer étroitement avec les équipes métiers grâce à une excellente communication orale et écrite en français. ●Piloter l'amélioration continue des pratiques de développement et assurer la maintenance évolutive des applications. ●Évoluer au sein d'un cadre agile en maîtrisant la méthodologie SCRUM.
Mission freelance
Data Architecte
Deodis
Publiée le
Kubernetes
Linux
Openshift
1 an
600-630 €
Île-de-France, France
Dans le cadre de l’administration et de l’évolution d’une plateforme IA, le Data Architecte intervient sur le maintien en condition opérationnelle (MCO) et l’optimisation continue des infrastructures Kubernetes supportant les workloads data et IA. La mission couvre la conception, le déploiement et l’exploitation de clusters on-premise, cloud ou hybrides, l’automatisation de l’infrastructure via IaC, ainsi que le renforcement de la supervision et de l’observabilité. L’objectif est de garantir la disponibilité, la performance, la sécurité et la résilience des services tout en accompagnant l’intégration de nouveaux modèles et l’optimisation des pipelines de data science.
Offre d'emploi
Fullstack Engineer JS (Product Engineer) - Fintech - Paris (H/F)
EASY PARTNER
Publiée le
NestJS
Node.js
PostgreSQL
70k-80k €
Paris, France
Missions Concevoir et développer des fonctionnalités fullstack de bout en bout (produits cyber). Créer plusieurs petits produits / modules successifs plutôt qu’un monolithe. Travailler en forte proximité avec le produit, la sécurité et les autres équipes tech. Transformer des problématiques complexes (cyber, métier, sécurité) en expériences simples. Participer aux décisions tech + produit (architecture, priorités, arbitrages). Challenger les specs, proposer des solutions, avoir un vrai rôle d’ownership. Stack technique À maîtriser : Frontend : React, TypeScript Backend : Node.js / NestJS Base de données : PostgreSQL Environnement global : Culture : produit, pragmatique, qualité Méthodo : Agile / Kanban, sprints avec démo, forte communication
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3830 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois