Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 182 résultats.
Freelance

Mission freelance
Founding Engineer TypeScript / Node.js / IA / LLM

Publiée le
AWS Cloud
Large Language Model (LLM)
Node.js

12 mois
Paris, France
Contexte de la mission Un client confidentiel du secteur transport/logistique, financé par des fonds d’investissement de premier plan, lance un projet stratégique visant à révolutionner la gestion du transport routier à l’aide d’agents d’intelligence artificielle. Dans ce cadre, l’entreprise recherche un Founding Engineer spécialisé en TypeScript / Node.js et IA pour rejoindre une équipe technique restreinte composée du CTO et de trois développeurs confirmés. La mission se déroule entièrement en présentiel afin de favoriser la co-construction rapide du produit et des itérations techniques rapprochées. Objectifs et responsabilités Le consultant interviendra sur la conception et la mise en place du socle technique du produit, incluant : • Concevoir, développer et déployer des APIs robustes et scalables • Structurer les flux de données provenant de systèmes TMS, appels, messages et autres sources • Collaborer étroitement avec le CTO et les utilisateurs opérationnels pour la construction du MVP • Participer au lancement d’un projet innovant d’IA temps réel (audio) • Assurer un rôle majeur sur le backend, la data et l’ingénierie IA • Mettre en place l’observabilité : monitoring, logs, métriques et alerting • Contribuer aux choix d’architecture, arbitrages techniques et discussions produits • Participer au déploiement, aux tests et aux itérations rapides en environnement startup Profil recherché Compétences indispensables • Ingénieur fullstack avec forte orientation backend et data • Minimum 4 ans d’expérience significative sur Node.js et TypeScript • Forte expertise Backend et Data Engineering • Expérience avérée dans un environnement startup, scale-up, licorne ou rôle de Founding Engineer • Avoir déjà lancé un produit from scratch • Niveau attendu : Staff Engineer ou Principal Engineer • Capacité à raisonner en approche “problème → solution” • Grande rapidité d’itération : tester, ajuster, apprendre, recommencer • Capacité à échanger directement avec les utilisateurs métier (transporteurs, brokers) • Connaissance pratique des LLM et de l’IA appliquée • Flexibilité sur les horaires lors des phases de mise en production (soir, week-end si nécessaire) Compétences appréciées (bonus) • Expérience en IA agentique (agents autonomes) • Connaissances poussées en prompting, grounding, fallback, monitoring IA • Amélioration des performances d’agents en production • Contribution à l’architecture produit à grande échelle Stack technique actuelle • Node.js / TypeScript (backend principal) • Python (agents IA) • PostgreSQL • API REST, WebSocket • AWS (architecture scalable), Kubernetes
Freelance

Mission freelance
Product Owner CMS / AEM (F/H)

Publiée le
Adobe Experience Manager (AEM)
CMS

12 mois
550-650 €
Paris, France
Télétravail partiel
Pour soutenir la croissance de nos besoins en contenu et l'évolution de nos exigences techniques, nous recherchons un Product Owner Senior CMS - expert d'AEM Cloud - pour rejoindre l'équipe et prendre en charge l'optimisation et l'évolution fonctionnelle de notre plateforme AEM. Ce rôle est essentiel pour garantir une expérience de contribution fluide et performante pour nos équipes métiers et un support technique robuste pour nos équipes de développement. Missions principales 1/ Définition et Pilotage de la Stratégie Produit AEM • Recueillir, analyser et formaliser les besoins des contributeurs et des équipes internes (Marketing, Communication, IT) pour traduire les enjeux métier en exigences fonctionnelles claires et priorisées. • Identifier les opportunités d'amélioration et d'innovation en réalisant une veille technologique active sur AEM et les pratiques CMS, ainsi qu'en analysant les retours utilisateurs et les performances. • Établir la roadmap pour l'évolution d'AEM en tant que plateforme de contenu stratégique, en alignement avec les objectifs de la Tribe Attract et les besoins des contributeurs. • Définir et suivre les KPIs pour mesurer la performance d'AEM, l'efficacité de la contribution et l'impact sur les performances commerciales. 2/ Optimisation Technique et Fonctionnelle d'AEM Cloud • Performance et Scalabilité : Définir et piloter des projets d'optimisation technique d'AEM, incluant : - L'amélioration des stratégies de caching (Dispatcher, CDN) pour une meilleure performance des pages. - L'optimisation des processus d'archivage des pages et de gestion du cycle de vie du contenu. - La mise en place de solutions robustes pour la gestion des redirections et des URLs. • Facilitation de la Contribution : Mener des initiatives pour simplifier et enrichir l'expérience des contributeurs : - Faciliter le paramétrage et la gestion des Points de Vente (POS) au sein d'AEM pour une plus grande autonomie des équipes. - Optimiser les interfaces d'édition et les workflows pour réduire les frictions et améliorer la productivité des utilisateurs AEM. • Intégrations et Écosystème AEM Cloud : - Cadrer et piloter l'intégration de connecteurs externes pour enrichir AEM avec de nouvelles fonctionnalités et services (ex: outils de personnalisation, de traduction…) - Optimiser le couplage et les flux de données entre AEM et d'autres systèmes (Media Portal, DAM) pour une gestion fluide des assets et des médias. - Travailler en étroite collaboration avec le PO Core AEM pour s'assurer de la cohérence et de l'applicabilité des best practices et du Core model. 3/ Delivery et Collaboration Agile • Animer et faire monter en puissance la squad CMS qui sera construite au fil de l'eau, en jouant un rôle clé dans sa structuration, la définition de ses objectifs et la synergie avec les autres équipes de développement. • Participer activement à toutes les cérémonies Agiles (Daily, Refinement, Sprint Planning, Review, Rétro). • Rédiger des User Stories détaillées avec des critères d'acceptation précis, en tenant compte des aspects fonctionnels et techniques d'AEM. • Assurer le découpage fonctionnel du besoin (feature - epic - US), le prioriser et coconstruire les items du backlog avec l'équipe de développement. • Animer des ateliers "3 amigos" et autres sessions de travail avec les équipes techniques pour assurer une compréhension commune des solutions. • Définir un objectif de sprint orienté impact et valeur, et valider les développements. • Rédiger et maintenir la documentation fonctionnelle et technique nécessaire (Confluence, Jira). • Garantir la cohérence fonctionnelle et technique d'AEM avec les autres squads Attract et Ecommerce global, en collaborant étroitement avec les autres POs. Compétences recherchées Techniques • Maîtrise avancée d’AEM Cloud: Expertise solide de l’architecture AEM Cloud et des fonctionnalités clés (édition de contenu, gestion des assets, workflows). Bonne compréhension de ses concepts fondamentaux (composants, templates, gestion multilangues/multi-sites) et de ses capacités d'intégration. • Aisance technique / Background Technophile : Capacité à dialoguer efficacement avec les équipes techniques. Bonne compréhension des enjeux liés au développement web (notions de HTML, CSS, JavaScript, APIs, architecture client-serveur, bases de données). • Connaissance des principes d'intégration : Compréhension des mécanismes d'intégration de systèmes tiers via des APIs et des connecteurs. Capacité à spécifier et à suivre ces développements. • Sensibilité aux enjeux de performance web : Connaissance des bonnes pratiques pour l'optimisation des temps de chargement et l'expérience utilisateur web (caching, CDN, optimisation d'images). Produit / Fonctionnel • Mindset produit, fortement orienté utilisateur (contributeur interne) et ROI. • Expertise dans le cadrage de projets complexes et de nouvelles features. • Capacité à découper des besoins en user stories, à les prioriser et à élaborer des roadmaps. • Maîtrise du framework Scrum et des outils JIRA, Confluence. Soft skills • Leadership naturel, capacité à fédérer et à influencer, et esprit collaboratif. • Expérience significative sur des projets transverses complexes, avec de multiples parties prenantes. • Organisation, rigueur, autonomie et proactivité. • Excellentes compétences en communication, pédagogie et vulgarisation technique. • Esprit de synthèse, capacité à prioriser et à prendre des décisions éclairées.
Freelance

Mission freelance
Ingénieur expert Active Directory/ Windows Server / Powershell / Anglais opérationnel (H/F)

Publiée le
Active Directory
Administration Windows
Powershell

6 mois
450-540 €
Paris, France
Télétravail partiel
Nous recherchons pour le compte de notre client dans le luxe, un ingénieur système expert Windows et Active Dircetory Contexte : En tant qu'expert windows Active Directory, vous allez dans le cadre d'un projet de migration SI. •Migration : o Suivi des tâches lors de la migration (chronogramme) o Création et migration de BDD des applications métiers (Retail, TMA, Manufacturing, BI) o Installation et configuration de serveurs SQL 2016/2019/2022 o Actions techniques : mise à jour des enregistrements DNS internes, gestion des droits AD o Support post-migration (surveillance des flux réseau et suivi de la supervision des serveurs) • Documentation : o DAT/DEX o Documents d'installation o Mise à jour des schémas d'architecture o Guide utilisateur Run : • Administrer la production informatique et le maintien en condition opérationnelle des systèmes Windows et des applications • Pilotage des partenaires d'infogérances et d'éditeurs de solutions Environnement Technique : • MS Azure, GCP, Windows Server 2012, 2016, 2019 et 2022, Ubuntu 20.04, Oracle, Linux 7.9, MS SQL Server 2016 et 2019, Azure Site Recovery, Azure SQL, Azure Entra, AD 2016 et 2019, PowerShell 5.1, Wallix, Akamai, Panorama, Centreon, Datadog, suite Atlassian (JIRA et Confluence), Service Now.
Freelance

Mission freelance
Data Engineer

Publiée le
Azure Data Factory
Azure DevOps
Databricks

1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, BI, Sécurité, Infrastructure), vous interviendrez sur la conception, le développement et l’industrialisation des pipelines data dans un environnement Azure. Vos principales responsabilités : Concevoir des pipelines d’ ingestion et de transformation (batch et near-real-time) Développer et maintenir des flux sous Azure Data Factory Implémenter des traitements Spark via Databricks Mettre en place la qualité des données , le monitoring et la reprise sur erreur Versionner, packager et livrer via des pipelines CI/CD Collaborer avec les équipes BI, sécurité et infra 🛠️ Industrialisation & DataOps Respect des standards de développement et de nommage Mise en œuvre de pipelines CI/CD Documentation et maintien des bonnes pratiques Data Contribution à la performance et à la robustesse des traitements
Freelance
CDI

Offre d'emploi
Ingénieur Production / DevOps GCP (H/F)

Publiée le
Google Cloud Platform (GCP)
Jenkins
Maintien en condition opérationnelle (MCO)

2 ans
40k-47k €
340-440 €
Charenton-le-Pont, Île-de-France
Télétravail partiel
Nous recherchons un Ingénieur Production / DevOps pour renforcer une équipe en charge du RUN, du MCO et du déploiement d’une nouvelle plateforme applicative. La mission s’inscrit dans le cadre d’un nouveau projet orienté GCP (Google Cloud Platform) , incluant de la CI/CD, de l’automatisation et des travaux de migration d’ordonnanceur. Missions principales 1. RUN / MCO Assurer le support de production applicative Suivre et résoudre les incidents et problèmes Gérer les transferts de fichiers et flux applicatifs Traiter les demandes via Jira 2. Déploiement & Projets Déployer de nouvelles plateformes applicatives Contribuer au lancement d’un nouveau projet sur GCP Collaborer avec les équipes Dev, Infra, Réseau et Sécurité 3. CI/CD & Automatisation Gérer et optimiser les pipelines CI/CD : XL Release / XL Deploy Jenkins Terraform (GCP) Automatiser les tâches récurrentes : Python Shell / Bash 4. Supervision & Ordonnancement Surveiller les environnements via : Zabbix Grafana Travailler sur les ordonnanceurs : VTOM (en place) Migration prévue vers Control-M Environnement technique Cloud : GCP CI/CD : XLR / XLD, Jenkins IaC : Terraform (GCP) Scripting : Python, Shell, Bash Supervision : Zabbix, Grafana Ordonnancement : VTOM → Control-M Gestion tickets : Jira Profil recherché Expérience confirmée en Production Applicative / DevOps Excellente maîtrise du RUN / MCO Compétences solides en CI/CD (Jenkins, XLR/XLD, Terraform) Très bon niveau en automatisation (Python, Shell, Bash) Connaissance ou pratique de GCP Maîtrise des outils de supervision Connaissance de VTOM ou Control-M Bon relationnel, rigueur, proactivité et autonomie
Freelance

Mission freelance
Data Engineer AWS - S3, Glue, Athena, Python

Publiée le
AWS Glue
Python

6 mois
210-480 €
France
Télétravail partiel
Dans le cadre d’un programme data stratégique dans le secteur pharmaceutique (domaine CMC – Chemistry, Manufacturing & Controls), l’entreprise souhaite renforcer son équipe Data Engineering afin de soutenir la migration, l’industrialisation et l’optimisation de ses pipelines analytiques sur AWS. La mission implique une forte collaboration avec les équipes scientifiques, Data, IT et produit, afin de clarifier les besoins métiers, structurer les modèles de données, fiabiliser les flux existants et accompagner les phases de migration vers des architectures modernes. L’objectif est d’améliorer la qualité, la performance, le coût et la robustesse de la plateforme data, tout en garantissant une documentation claire et une montée en compétence durable des équipes internes.
Freelance

Mission freelance
Ingénieur Data Ops - IA GEN - Azure (H/F)

Publiée le
Azure
Azure AI Foundry

6 mois
Lille, Hauts-de-France
Télétravail partiel
TEKsystems recherche pour le compte de son client : Un(e) Ingénieur Data Ops : Le rôle couvre notamment : La mise en place d’une plateforme d’IA générative (Azure AI Foundry) ; L’industrialisation des flux et processus DataOps ; La mise en place d’API sécurisées via Azure API Management ; L’automatisation des déploiements à l’aide de GitLab CI/CD ; Le développement en Python ; La mise en place de la traçabilité, de l’observabilité et de la gouvernance des usages IA. Le contexte est structurant, très exposé en interne, avec de la construction from scratch, de l’architecture, de l’industrialisation et un vrai rôle de référent technique sur la GenAI.
CDI
Freelance

Offre d'emploi
Data Engineer (spécialisation Snowflake)

Publiée le
Agile Scrum
Azure
Data analysis

12 mois
Paris, France
Télétravail partiel
Data Engineer (spécialisation Snowflake) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, responsable de la conception, de la mise en œuvre et de la maintenance des solutions d’exploitation et de valorisation des données. Dans un contexte de modernisation du SI et de structuration des usages data, l’entreprise déploie la plateforme Snowflake , solution cloud de référence pour unifier le stockage, le traitement et le partage des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir, développer et orchestrer les flux de données sur Snowflake (Snowpipe, Streams, Tasks, Snowflake Pipelines). Définir et maintenir les modèles de données (zones Raw, Staging, Core, Data Marts). Développer des pipelines d’ingestion et de transformation de données (batch, near real-time). Garantir la qualité, la performance et la fiabilité des traitements. 2. Intégration et industrialisation Optimiser les coûts, la gouvernance et les performances de la plateforme Snowflake. Documenter les architectures, flux, schémas et traitements. Participer à l’industrialisation des processus Data Engineering (DataOps). 3. Gouvernance et sécurité des données Collaborer avec le Head of Data et le Data Architect pour concevoir une plateforme data conforme aux standards. Mettre en œuvre les bonnes pratiques de sécurité (RBAC, gestion des rôles et privilèges), de catalogage et de gestion des métadonnées. Contribuer à l’amélioration continue des normes de gouvernance data. 4. Support et amélioration continue Assurer le support technique des environnements Snowflake. Identifier les axes d’amélioration et accompagner les évolutions de la plateforme data. Former et accompagner les utilisateurs métiers, analystes et équipes BI.
CDI

Offre d'emploi
Développeur Data/Data Engineer

Publiée le
AWS Cloud
Azure
Azure Data Factory

40k-65k €
Gosselies, Hainaut, Belgique
Télétravail partiel
ATTENTION, 2 JOURS DE PRESENCE SUR SITE A GOSSELIE NON NEGOCIABLE. Ne pas postuler le cas échéant. Le consultant rejoindra l’équipe Factory Data , spécialisée dans les technologies Microsoft Fabric et Azure Data . La mission s’inscrit dans le cadre de la mise en place et l’optimisation des flux de données, la modélisation du Lake House et l’architecture médaillon (Silver & Gold). Responsabilités Développer les flux d’ingestion via Fabric Data Factory (et compréhension d’Azure Data Factory). Développer les flux de transformation via Fabric Factory Notebook . Optimiser les requêtes de transformation en tenant compte des coûts Azure. Contribuer à la modélisation du Lake House et à l’architecture médaillon. Établir le design technique et rédiger la documentation. Mettre en place et exécuter les tests unitaires automatisables . Participer à l’estimation des efforts de développement. Contribuer à la maintenance et résolution des incidents en production. Participer à l’amélioration continue (guidelines de développement).
CDI

Offre d'emploi
Data Engineer Databricks - Paris

Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
CDI

Offre d'emploi
Data Architecte - Lyon

Publiée le
AWS Cloud
Azure
Databricks

60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
CDI

Offre d'emploi
Chef de projet technique – Avaya H/F

Publiée le

55k-58k €
Île-de-France, France
Télétravail partiel
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Chef de projet technique – Avaya H/F C’est votre mission Vous êtes passionné·e par les environnements télécom complexes et les architectures centre d’appels nouvelle génération ? Ce poste est fait pour vous. En tant que Chef de projet technique Télécom – Expert Avaya, vous êtes responsable de l’intégration, de l’évolution et du maintien opérationnel d’un écosystème de téléphonie et centre d’appels basé sur Avaya. Côté build : • Intégrer et faire évoluer la plateforme Avaya (CM, SM, SMGR, AES, AEP, CMS, Nice). • Développer des applications vocales (SVI en VXML / Java / JavaScript). • Participer aux projets techniques transverses entre téléphonie métier et centre d’appels. • Concevoir et optimiser les flux CTI (ex. Avaya ↔ CRM). • Contribuer aux évolutions techniques de l’offre de téléphonie d’entreprise. • Proposer des optimisations d’interconnexions entre les différentes plateformes. • Préparer et coordonner les intégrations dans l’écosystème SI interne (supervision, sauvegardes, sécurité). Côté run : • Assurer le MCO, le support niveau 3 et les mises en production (HO & HNO). • Administrer les bases de données (SQL Server, Oracle) et développer des rapports CMS. • Superviser le fonctionnement des solutions centre d’appels et téléphonie métier. • Coordonner les aspects techniques avec les partenaires opérateurs/intégrateurs. • Garantir la fiabilité, la disponibilité et la sécurité des plateformes. • Contribuer à l’optimisation continue des performances et des processus d’exploitation. C’est votre parcours Vous avez au moins 5 à 7 ans d’expérience dans des environnements télécom exigeants. Vous aimez concevoir des solutions robustes, résoudre des problématiques complexes et faire évoluer des écosystèmes critiques, sans jamais cesser d’innover. Vous recherchez un environnement où la collaboration et la qualité technique sont essentielles. C’est votre expertise : • Maîtrise des solutions Avaya (CM, SM/SMGR, AES, AEP, CMS) et idéalement d’une solution complémentaire (ex. Mitel). • Compétences en développement VXML / Java / JavaScript. • Expérience en intégration CTI. • Administration SQL Server / Oracle. • Connaissance des environnements supervision, sauvegardes, sécurité. • Pratique de la gestion de projet technique dans des contextes complexes. C’est votre manière de faire équipe : • Sens de la communication et de la coordination inter-équipes. • Rigueur, autonomie et forte orientation qualité de service. • Esprit d’analyse et capacité à résoudre des problèmes techniques complexes. • Adaptabilité et goût pour le travail collaboratif. C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Saint-Denis Contrat : CDI Télétravail : 2 jours Salaire : De 55 K€ à 58 K€ (selon expérience) brut annuel Famille métier : Réseaux/Télécoms Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Data Engineer Python / AWS / Airflow / Snowflake

Publiée le
Apache Airflow
AWS Cloud
Python

12 mois
100-550 €
Île-de-France, France
Télétravail partiel
Conception & développement de pipelines Implémenter de nouveaux flux de données batch et streaming . Développer des pipelines ETL / ELT en Python et Airflow pour les traitements planifiés, et via NiFi ou Kafka pour les données en temps réel. Assurer l’intégration et la mise à disposition des données dans Snowflake . Industrialisation & bonnes pratiques Participer aux revues de code , aux tests unitaires et d’intégration . Contribuer à l’ industrialisation des pipelines avec des pratiques CI/CD robustes. Maintenir la documentation technique à jour et contribuer à l’amélioration continue des process. Maintenance & optimisation Garantir la maintenance corrective et évolutive des flux existants. Participer à la mise en place du monitoring , des alertes et des bonnes pratiques d’exploitation. Optimiser les performances, la fiabilité et la qualité des traitements de données.
Freelance

Mission freelance
Développeur CVA Expert Java/J2EE H/F

Publiée le
Java

3 ans
Paris, France
Télétravail partiel
Un grand acteur des marchés de capitaux renforce son SI Risque de contrepartie et sa chaîne CVA/XVA front . Vous intervenez dans une équipe resserrée, très proche du front-office , sur un périmètre critique mêlant volumétrie élevée , latence très faible et exigences de stabilité . Contexte international (utilisateurs en Asie, Europe, US). Votre rôle Concevoir, développer et optimiser des applications de risque de contrepartie et de CVA au cœur d’une grille de calcul haute performance, avec des SLA millisecondes côté APIs et une base d’utilisateurs large (2000+). Ce que vous ferez Analyse & design : recueillir les besoins, investiguer les issues, proposer des solutions robustes, flexibles et pérennes . Back Java 17 (core) : résolution de problématiques volumétriques & performance sur toutes les couches applicatives. Spring / Spring Boot (security, swagger, configuration, JPA) REST APIs + SOAP (WSDL/XSD), XML parsing avancé (marshalling/unmarshalling) Web/UI : développement de la couche graphique Angular + Bootstrap pour les utilisateurs métier (2000+). Grille de calcul distribuée : gestion des calculs (orchestration, suivi, relance, data management) — Middleware DataSynapse . APIs low-latency : garantir des SLA en millisecondes . Supervision : mise en place de BAM (Business Activity Monitoring) pour les flux d’alimentation & traitements. DevOps/Run : dockerisation , déploiements Kubernetes , scripts Linux (gestion process Java, manip. XML/CSV, tri/filtrage/transfo de données). Caches & stockage : Redis (cache distribué), MongoDB (document store). Contribution architecture : participation aux chantiers de grid computing et data caching de la filière Risque. Stack & compétences clés Indispensables Expertise Java 17 / Spring Boot , REST/SOAP , XML avancé . Angular (front web pour large audience interne), Bootstrap . Grille de calcul & orchestration (idéalement DataSynapse ). Docker , Kubernetes , Linux scripting . Redis , MongoDB . Culture performance/low-latency , résilience et observabilité . Connaissance métier : finance de marché, risque de contrepartie , CVA/XVA front . Anglais courant (équipe/utilisateurs internationaux). Atouts appréciés Architecture SI Risque, patterns de scalabilité et caching . Sensibilité qualité (tests, clean code, CI/CD), sécurité , conformité marché.
Freelance

Mission freelance
Responsable d'application - N3 (H/F)

Publiée le
Google Cloud Platform (GCP)
JIRA
ServiceNow

2 ans
400-430 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Responsable d'application - N3 (H/F) à Hauts-de-France, France. Les missions attendues par le Responsable d'application - N3 (H/F) : 1. Pilotage du Support Applicatif de Niveau 3 : - Prendre en charge la gestion et la résolution des tickets d'incidents complexes (Niveau 3) liés aux flux de données et aux interfaces. - Analyser et diagnostiquer les causes racines des problèmes pour apporter des solutions pérennes, en collaboration avec le product owner. - Assurer un suivi rigoureux des incidents dans notre outil de ticketing et garantir une communication fluide avec les parties prenantes du projet. 2. Gestion Proactive des Interfaces et des Flux de Données : - Contrôler et analyser de manière proactive les fichiers de rejets générés par les interfaces pour anticiper et prévenir les incidents. - Identifier les erreurs récurrentes, les anomalies de données et les schémas de dysfonctionnement. - Documenter les problématiques et proposer des plans d'action pour l'amélioration continue des processus et la fiabilisation des flux. 3. Analyse et Reporting : - Mettre en place et suivi des indicateurs de performance (KPIs) sur la qualité et la stabilité des interfaces (volumétrie des erreurs, délais de résolution, etc.). - Produire des analyses et des reportings clairs pour l'équipe projet, permettant de mesurer l'impact des anomalies. - Fournir des éléments factuels et des recommandations pour aider à la priorisation des actions correctives et des évolutions. La connaissance des outils Chronotime, Timesquare, Workday, TeamsRH serait un plus pour cette mission
Freelance
CDI

Offre d'emploi
Azure Integration Services - Mule Soft

Publiée le
MuleSoft

1 an
Île-de-France, France
Télétravail partiel
· Analyser les flux actuels MuleSoft (patterns, transform, retry, connecteurs). · Contribuer à la classification des flux (simple / moyen / complexe). · Identifier les dépendances applicatives et exigences techniques. · Analyser les logs, orchestrations, payloads, données échangées. · Participer aux ateliers techniques avec le client. · Préparer les éléments pour le design cible Azure Integration Services. · Contribuer à la rédaction des livrables : diagnostic technique, benchmark, trajectoire.
182 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous