Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 614 résultats.
Freelance

Mission freelance
Proxy Product Owner Data (RUN & BUILD) – Full Remote

Publiée le
Snowflake

12 mois
330-340 €
Paris, France
Proxy Product Owner Data – RUN focus / BUILD focus Contexte Mission au sein d’un datalake cybersécurité (Security Analytics) dans un environnement grand compte. Le client a ouvert la possibilité de réaliser la mission en full remote afin d’élargir le sourcing et sécuriser un profil compétent. Durée 6 mois minimum (renouvelable) Mode de travail Full remote Responsabilités – RUN focus Piloter la transition Build → Run et stabiliser l’exploitation Gérer et prioriser le backlog incidents ServiceNow (arbitrage risques / impacts métier) Analyser, coordonner et suivre les incidents avec les équipes de développement Communiquer auprès des utilisateurs et parties prenantes Rédiger des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting (fraîcheur, qualité, disponibilité des données) Garantir la performance et la fiabilité opérationnelle des solutions data Contribuer au support et à la montée en compétence des utilisateurs (Power BI, modèles de données) Responsabilités – BUILD focus Participer aux cérémonies agiles et assister le Product Owner Enrichir le backlog Jira (spécifications data, règles de transformation, critères d’acceptation) Réaliser les UAT avec les parties prenantes cybersécurité Analyser les sources de données nécessaires à la construction des KPI Optimiser la logique de calcul des indicateurs Concevoir les modèles de données sous Snowflake et Power BI Superviser l’orchestration et les planifications des flux Maintenir la documentation fonctionnelle Gérer et opérer le backlog BUILD Compétences requises Forte expérience sur des projets Data / BI Maîtrise de Azure Data Factory, Snowflake, Power BI Très bon niveau SQL (analyse, contrôle, optimisation) Expérience confirmée en tant que Product Owner / Proxy PO en environnement Agile (Scrum, Jira) Bonne culture IT générale (API, réseaux, protocoles) Anglais courant obligatoire Soft skills Excellente communication et capacité de vulgarisation Forte autonomie (contexte full remote) Capacité d’arbitrage et sens du résultat Aisance avec des environnements complexes et contraints (cybersécurité)
Freelance

Mission freelance
Data Engineer - LYON

Publiée le
BI
Data Lake

12 mois
400-480 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons pour l’un de nos clients un Data Engineer pour intervenir sur un projet stratégique de référentiel de données financières . Le projet vise à centraliser, fiabiliser et gouverner l’ensemble des données liées aux instruments financiers , au sein d’un socle de Master Data Management (MDM) . Vous intégrerez une squad Data pluridisciplinaire composée de développeurs Data, d’un Architecte technique, d’un Business Analyst et d’un Product Owner. Mission : Conception & développement Data : Conception et développement de pipelines de données robustes et évolutifs Implémentation du modèle Bronze / Silver / Gold Intégration et transformation de données multi-sources Orchestration & ingestion : Développement et paramétrage de workflows Apache NiFi Collecte et normalisation de données issues de : fichiers CSV / XML API REST Industrialisation et sécurisation des flux Modélisation & qualité des données : Participation à la modélisation du socle de données Construction de vues consolidées MDM Mise en place de contrôles de qualité : complétude unicité cohérence traçabilité et versioning Performance, sécurité & bonnes pratiques : Suivi et optimisation des performances des pipelines Mise en œuvre des standards de sécurité des données (authentification, chiffrement, gestion des accès) Documentation technique et partage de connaissances au sein de la squad
CDI
Freelance

Offre d'emploi
Développeur / Architecte Full Stack .NET & Angular – Senior

Publiée le
.NET
Angular
Azure DevOps

1 an
Ivry-sur-Seine, Île-de-France
Télétravail partiel
🚨 Contrainte forte du projet Environnement Microsoft .NET Français courant impératif 🎯 Contexte & objectifs Dans le cadre de la migration et de la refonte d’applications .NET , nous recherchons un Développeur / Architecte Full Stack .NET & Angular confirmé afin d’accélérer la migration , la maintenance et l’évolution des produits suivants : Maileva Expert Facily DOC Vous interviendrez sur des applications à forts enjeux, au sein d’un écosystème technique riche et exigeant. 📦 Livrables attendus Développement Composants Web API DAT Tests unitaires (TU) 🛠️ Environnement technique & écosystème à maîtriser Développement & Architecture Visual Studio 2022, Visual Studio Code C# .NET Framework 4.6.2 .NET 8 / Multi-targeting Core Web API SOAP / REST API XAML avec CommunityToolkit.Mvvm Services Windows Orchestration multi-thread Data & Persistence SQL Server Procédures stockées Entity Framework 3.1.5 (Code First, migrations) Entity Framework Core 8 Front-end Angular 20 Teams JS Integration Cloud, Azure & Sécurité Azure App Service Azure Storage, Identity Azure AD Azure Portal, gestion des Virtual Machines Azure API Management, Gateway Azure Templates (Bicep) Azure Alerts & Dashboards OAuth2, JWT, SSO, CSP, Iframe, App Registration Keycloak DevOps & Qualité Azure DevOps Pipelines CI/CD (Continuous Build & Continuous Integration) TFS, Git Serilog, Azure Application Insights Postman, Fiddler Webhooks (Svix) Autres IIS 10 & plugins Manipulation de PDF Setup MSI JIRA, Confluence
CDI
Freelance

Offre d'emploi
Architecte Data pour MDM Informatica

Publiée le
Informatica
Master Data Management (MDM)
TIBCO

6 mois
Alpes-Maritimes, France
Télétravail 100%
Dans un contexte de bascule de Tibco vers MDM IDMC pour travailler sur de la standardisation de patterns MDM. Environnement technologique du client : MDM sur IDMC Informatica (avec accès CAI/CDI et aux modules de gouvernance), IPASS MuleSoft, Plaforme Data avec Fabric et Snowflake Le but est d'établir plusieurs scénarios répondant aux besoins du client en termes d'expositions des données référentielles en tant qu'objet métier "complet", partant de multiples BE au sein du MDM composant cet objet. Compétences techniques requises : Informatica MDM Microsoft Dynamics 365 integration patterns intelligent parking assist system Mulesoft API Manager Snowflake
Freelance

Mission freelance
Product Owner Data / Plateforme de Gouvernance des Assets (H/F)

Publiée le
Apache Kafka
API
Data governance

1 an
400-570 €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Contexte Dans un environnement international et multi Business Unit, vous interviendrez au sein de la DSI d’un grand groupe sur une plateforme stratégique de gouvernance des données assets . Cette plateforme groupe vise à devenir le référentiel central de master data, en consolidant des données issues de sources multiples (applications locales, outils sales, plateformes techniques, APIs…) afin de garantir une donnée fiable et cohérente, notamment pour les usages digitaux et programmatiques. Vous intégrerez une équipe Scrum internationale et collaborerez étroitement avec les équipes techniques, métiers et les parties prenantes IT groupe. Rôle & responsabilités : En tant que Product Owner Data , vous serez en charge de : Porter la vision produit de la plateforme de gouvernance data Garantir la cohérence fonctionnelle et la qualité des données Piloter la consolidation de données multi-sources Définir référentiels, taxonomies, règles de gestion et de qualité Challenger et prioriser les besoins métiers dans un contexte transverse Piloter le delivery de bout en bout, de la conception à la mise en production Travailler avec le Product Manager sur la roadmap Encadrer fonctionnellement les équipes de développement et QA Contribuer à l’amélioration continue des pratiques produit et data Environnement technique : Agile Scrum · JIRA / Confluence · Architecture event-driven · Kafka · APIs / Webservices · SQL · Modélisation de données
Freelance
CDI

Offre d'emploi
Databricks Data Engineer

Publiée le
API REST
PySpark

1 an
Île-de-France, France
Télétravail partiel
Descriptif du poste Expert reconnu en plateforme de données et architecture Lakehouse, incluant : Optimisation Spark / PySpark (AQE, broadcast joins, stratégies de caching, autoscaling de cluster). Politiques de cluster, configuration de cluster et pool, et optimisation des coûts. Monitoring, diagnostics et dépannage des performances à l'aide de métriques et event logs. APIs REST et CLI pour l'automatisation. Expert reconnu en utilisation de Delta Lake, incluant : Pipelines d'ingestion et de transformation (Bronze–Silver–Gold). Delta Live Tables pour les pipelines de production (CDC, expectations, orchestration). Structured streaming et traitement incrémental. Débogage des goulots d'étranglement de performance dans les workloads Delta (data skew, petits fichiers, auto-compaction). Expert reconnu en : Python pour l'ingénierie des données, programmation orientée objet, data science, tests unitaires (pytest) et packaging. SQL (SQL analytique, window functions, SQL Databricks). Spark / PySpark pour le traitement distribué et l'optimisation. Expert reconnu en utilisation de Unity Catalog, incluant : Implémentation du contrôle d'accès granulaire (sécurité au niveau des lignes et colonnes, vues dynamiques, masquage). Gestion des objets Unity Catalog à grande échelle (catalogs, schémas, tables, modèles et gouvernance des fonctions). Pratiques de développement sécurisé, protection des données et conformité réglementaire (RGPD, PII). Expert reconnu en Databricks Jobs et Workflows (orchestration des tâches, retries, monitoring), incluant : Databricks Repos et intégration Git / Gitflow. Déploiement des assets Databricks (notebooks, jobs, pipelines DLT) via des pipelines CI/CD. Databricks SQL editor et SQL Warehouses pour les dashboards ou pipelines de production. Infrastructure as Code utilisant Terraform (providers Databricks et Azure) et ARM templates. Maîtrise avancée de l'écosystème Databricks Machine Learning et Generative AI. Maîtrise avancée de MLflow (experiment tracking, model registry, model serving). Maîtrise avancée de la construction de pipelines ML utilisant Databricks AutoML, Feature Store et feature engineering. Expérience pratique avérée avec les outils de développement basés sur l'IA, incluant les workflows basés sur des agents. Bonne compréhension des normes d'interopérabilité émergentes telles que le Model Context Protocol (MCP) ou équivalent. Capacité à évaluer de manière critique et à intégrer de manière sécurisée les résultats générés par l'IA dans les workflows de développement.
CDI
Freelance
CDD

Offre d'emploi
Développeur Camunda & Sécurité Applicative

Publiée le
Apache Kafka
Camunda
LDAP

1 an
Ivry-sur-Seine, Île-de-France
📌 Contexte de la mission Dans le cadre du développement et de l’automatisation de processus métiers complexes, la mission consiste à concevoir et implémenter des workflows sur la plateforme Camunda, tout en garantissant un haut niveau de sécurité applicative. Le consultant interviendra sur des architectures microservices et participera au développement d’API sécurisées. 🎯 Missions principales • Modéliser et automatiser les workflows métiers avec Camunda (BPMN) • Concevoir et développer des API REST (et SOAP si nécessaire) • Développer des microservices en environnement Java / Spring Boot • Réaliser des revues de code (code review) • Mettre en place la sécurité applicative : Authentification et autorisation (OAuth2, OpenID Connect, JWT, Keycloak, RBAC, MFA) Chiffrement des données (TLS, AES) Protection contre les failles (SQL Injection, XSS, XXE) • Rédiger les spécifications techniques et la documentation associée 🧰 Livrables attendus • Modélisation des workflows Camunda • Code source des applications et services • Spécifications techniques • Documentation sécurité applicative ⚙️ Compétences techniques (impératives) ✔ Camunda BPM ✔ LDAP ✔ Spring Boot ✔ Kafka ✔ Architecture microservices ✔ Keycloak ✔ Sécurité applicative avancée
Freelance

Mission freelance
Expert Data Transfer / Intégration SI

Publiée le
API
Control-M
Middleware

12 mois
450-500 €
Paris, France
Télétravail partiel
Dans le cadre d’un projet relatif à l’intégration d’une société d’investissement au sein d’une société de gestion d’actifs, nous recherchons un expert en transferts de données et interconnexions entre systèmes d’information. L’objectif est d’accompagner la mise en place des flux de données et des connecteurs nécessaires entre les applications existantes de la premier organisme et celles du second, afin de garantir une transition efficace, sécurisée et maîtrisée. Description de la mission L’expert interviendra sur des sujets liés à l’intégration applicative et à la circulation des données entre SI, en étroite collaboration avec les équipes techniques déjà en place (middleware, ordonnancement, connectivité, applicatifs, etc.). Principales responsabilités Analyser les besoins de transfert de données entre les systèmes d’information des deux entités. Participer à la conception et à la mise en œuvre des connexions et flux nécessaires. Travailler avec les experts internes sur les volets : Middleware Scheduling / Ordonnancement Connectivité réseau Applications et interfaces Définir les modalités techniques de transfert : protocoles, formats, fréquences, sécurisation, monitoring Contribuer à la fiabilisation des échanges (tests, validation, résolution d’incidents). Documenter les solutions mises en place (schémas de flux, procédures, référentiels techniques).
Freelance

Mission freelance
Digital Product Owner

Publiée le
API
Azure
KPI

12 mois
Madrid, Espagne
Télétravail 100%
Détails du projet : Entreprise : multinationale dans la santé Localisation : Europe (fuseau CET) Mode de travail : télétravail ou hybride Date de début : janvier 2026 Durée : 12 mois Langues : anglais obligatoire, espagnol apprécié Charge de travail : temps plein Objectif du poste : Recruter un Product Owner Digital pour piloter l'évolution d'un chatbot IA destiné à soutenir les collaborateurs. Il sera responsable de la stratégie produit, de la feuille de route, et de l'optimisation pour garantir fiabilité, pertinence et évolutivité, afin d'améliorer l'expérience utilisateur et l'efficacité opérationnelle. Principales responsabilités et activités clés : Stratégie produit & Feuille de route : Définir la vision et la feuille de route Réaliser analyses concurrentielles et de marché Établir et suivre KPIs et métriques de succès Prioriser les cas d'usage selon leur valeur et coût Expérience utilisateur & Conception : Collecter et analyser les retours utilisateurs Collaborer avec UX/UI pour améliorer l'ergonomie et les interactions Définir personas, parcours et cas d'usage Gestion technique du produit : Collaborer avec les ingénieurs IA/ML pour améliorer les capacités du chatbot Gérer l'intégration avec les systèmes d'entreprise Superviser la qualité des données et la gouvernance Définir exigences de performance, scalabilité et sécurité Gestion des parties prenantes : Identifier de nouveaux cas d'usage et opportunités d'automatisation Présenter des rapports d'avancement à la direction Animer réunions et ateliers inter-fonctionnels Gérer relations avec partenaires technologiques Analyse & Optimisation : Suivre les indicateurs de performance et d'adoption Réaliser tests A/B et expérimentations Produire des rapports et améliorer continuellement le produit Charge de travail : variable selon les besoins du projet et le contexte opérationnel.
Freelance
CDI
CDD

Offre d'emploi
Expert AppSec / DevSecOps / Sécurité API (H/F)

Publiée le
API
DevSecOps

1 an
Paris, France
🎯 Contexte Dans le cadre du renforcement de la sécurité applicative et de la stratégie DevSecOps, l’entreprise souhaite intégrer un expert capable d’évaluer, sécuriser et accompagner les équipes autour des enjeux AppSec et sécurité des API. L’objectif est de réduire les risques cyber, d’améliorer les processus de développement sécurisé et de garantir la conformité des applications et API avec les standards internes et internationaux. 🎯 Objectif global Accompagner la sécurité des applications (AppSec), la promotion du DevSecOps et la sécurisation des API. 📝 Description détaillée 1️⃣ Sécurité des applications (AppSec) L’expert devra intervenir sur : Audit complet de sécurité des applications internes et solutions tierces. Identification des vulnérabilités (ex. : OWASP Top 10 ) et évaluation des risques. Analyse et interprétation des résultats d’outils : SAST (analyse statique), SCA (analyse des composants), DAST (analyse dynamique)… Rédaction de rapports techniques détaillés : vulnérabilité, criticité, recommandations. Présentation des résultats aux développeurs et synthèses destinées aux responsables sécurité. Analyse des pratiques DevOps existantes, identification des lacunes et proposition de plans de remédiation. Support aux équipes pour la mise en place de pratiques de développement sécurisé. 2️⃣ Sécurité des API L’expert devra : Participer à l’élaboration et à la mise en œuvre de la stratégie de sécurisation des API. Réaliser des analyses approfondies des API : authentification, autorisation, niveau d’exposition, protections contre attaques (injection, CSRF, etc.). Accompagner les développeurs dans la remédiation des failles détectées. Rédiger des guides et standards de sécurité : politiques d’accès, protocoles de sécurisation, processus de gestion des incidents. Assurer un reporting régulier sur l’état de sécurité des API et mettre à jour la documentation. 📦 Livrables Audits AppSec détaillés Rapports de vulnérabilités Guides de sécurité API Recommandations DevSecOps Documentation technique mise à jour Plans de remédiation 🧩 Compétences techniques requises Impératif – Niveau Expert Sécurité des API Sécurité des applications (AppSec) Analyse de vulnérabilités Méthodologies et outils SAST / DAST / SCA Important Analyse & gestion de vulnérabilités avancée Bonnes pratiques de développement sécurisé Expérience DevSecOps Présentation des résultats à des équipes techniques et non techniques 🗣️ Connaissances linguistiques Anglais Professionnel – Impératif
Freelance
CDI
CDD

Offre d'emploi
Data Engineer / GenAI Engineer (Senior)

Publiée le
DevOps
Docker
Mongodb

1 an
Île-de-France, France
Contexte de la mission Dans le cadre d’un programme stratégique d’IA augmentée , la mission vise à concevoir et déployer un dispositif de benchmark permettant d’évaluer les technologies et solutions d’IA générative du marché. L’objectif est de sécuriser les choix technologiques , réduire les risques et structurer une roadmap produits et technologies IA . Objectifs globaux Mettre en place une architecture data complète dédiée aux benchmarks IA générative Automatiser l’ingestion, la préparation, le versioning et l’évaluation des données Garantir performance, scalabilité, traçabilité et reproductibilité des benchmarks Missions principalesArchitecture & Data Engineering Concevoir et implémenter des pipelines automatisés d’ingestion, nettoyage et versioning des datasets Développer des pipelines de génération d’embeddings et de collecte des résultats des modèles IA Mettre en place et administrer des bases de données : Vectorielles SQL / NoSQL Stockage objet (volumes importants) Définir une architecture data robuste répondant aux exigences de performance et de scalabilité DevOps & Industrialisation Conteneurisation des environnements ( Docker ) Mise en place d’ Infrastructure as Code (IaC) Automatisation CI/CD et déploiements reproductibles Qualité, documentation & gouvernance Rédiger le dictionnaire de données Produire la documentation technique complète Définir les procédures de validation et de contrôle qualité des données Assurer la traçabilité et la conformité des traitements Livrables attendus Architecture data détaillée (schémas, flux, intégrations) Infrastructure data opérationnelle (DB vectorielles, SQL/NoSQL, stockage objet) Environnements reproductibles (IaC, Docker, configurations) Code source documenté et versionné des pipelines Dictionnaire de données et documentation technique Procédures de validation et critères d’acceptation qualité Méthodologie Travail en mode Agile Participation aux rituels agiles et points d’avancement réguliers Reporting mensuel : livrables réalisés, à venir, points bloquants Compétences techniques requisesImpératives Python avancé (API, scripts, pipelines data) Bases de données : PostgreSQL, MongoDB, bases vectorielles Cloud : Google Cloud Platform (GCP) DevOps : Docker, Kubernetes, CI/CD (GitLab CI) Architecture Data & Big Data IA générative : LLM, RAG, embeddings, prompts Appréciées IaC (Terraform ou équivalent) Tests unitaires, intégration et fonctionnels Software Craftsmanship (code review, pair programming) Connaissances fonctionnelles Concepts IA : LLM, agents, assistants, hallucinations, prompts Usage critique et éthique de l’IA RGPD et enjeux éthiques liés à l’IA Langues Anglais technique courant – impératif (oral & écrit)
Freelance
CDI

Offre d'emploi
Technical Product Owner Data Science Platform

Publiée le
DevOps
Machine Learning

1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Objectifs Au sein de la division AI & Innovation de l'IT groupe d'une institution financière majeure, l'équipe AI Production Center recherche un profil premium afin d'assurer l'ownership technique du produit "Data Science Platform" du groupe. Contexte Équipe de 20 experts répartis sur 5 pôles d'activité (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services) 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Generative en production à l'attention de tous les métiers du Groupe Un GRID de GPU on premise utilisé pour le training et l'inference Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrastructures, des plateformes (kubernetes/openshift) et des produits Environnement de travail Team Play avant tout! Curiosité sans limites!! Autonomie, rigueur, qualité Sens du service client Patience & bienveillance Appétance naturelle pour le partage de connaissances L'automatisation dans le sang Anglais courant (fournisseurs et clients en dehors de France, base documentaire entièrement en Anglais) Laptops au choix (MacOS, Windows)
Freelance

Mission freelance
Data Factory – Expert / Référent Technique Dataiku & Braincube

Publiée le
API
AWS Cloud
Dataiku

6 mois
400-600 €
Île-de-France, France
Contexte de la mission Pour notre client, nous recherchons un Expert / Référent Technique – Dataiku & Braincube, capable de piloter, sécuriser et faire évoluer une plateforme data hybride (AWS + On Premise) intégrant Dataiku, Braincube et Snowflake. Le rôle inclut une forte dimension d’architecture, de gouvernance, d’exploitation et de coordination internationale. Responsabilités de la mission 1. Pilotage & Gestion du Service • Maintien des standards, gestion des licences, suivi des usages via KPIs • Gestion des incidents, demandes, changements • Définition, suivi et respect des SLAs • Optimisation de la performance opérationnelle 2. Architecture & Expertise Technique • Référent technique & architectural pour la plateforme Data Groupe (Snowflake, Dataiku, Braincube) • Garantie de la résilience du service et gestion des obsolescences • Contrôle du niveau de sécurité et conformité 3. Roadmap & Gouvernance • Construction et pilotage de la roadmap d’évolution • Gestion du plan de charge • Coordination France / Inde (prestataires, éditeur, équipes internes) 4. Communication & Coordination • Communication en cas d’incident, évolution ou maintenance • Interface avec DSIC (GCIS, Delivery cas d’usage, etc.) 5. Support & Accompagnement • Support aux équipes dans l’exploitation Dataiku / Braincube • Contribution à la montée en compétence des équipes • Animation de sessions de formation et partage de bonnes pratiques
Freelance
CDI

Offre d'emploi
Data Engineer – Apache NiFi (H/F)

Publiée le
Apache NiFi
API REST
BI

12 mois
Paris, France
Télétravail partiel
Dans le cadre du renforcement d’un socle data stratégique, l’équipe recherche un Data Engineer pour intervenir sur la conception et l’industrialisation de pipelines de données au sein d’une architecture orientée Datalake / MDM, basée sur le modèle Bronze / Silver / Gold. Le poste s’inscrit dans un environnement à forte exigence métier, avec des enjeux de qualité, de sécurité et de gouvernance des données. Missions principales : Concevoir et développer des pipelines de données robustes et évolutifs Implémenter et maintenir des workflows Apache NiFi (ingestion, orchestration, monitoring) Intégrer des données multi-sources (fichiers, API REST) Réaliser les transformations et contribuer à la modélisation des données Mettre en place les contrôles de qualité, la traçabilité et le monitoring Optimiser les performances et garantir la sécurité des flux Documenter les processus et bonnes pratiques
Freelance

Mission freelance
Architecte Technique Senior - SI

Publiée le
Big Data
DevOps
Java

6 mois
Paris, France
Télétravail partiel
a mission s'inscrit au sein du département Architecture d'un organisme majeur de la protection sociale. Nous recherchons un Architecte Technique Senior (15-25 ans d'expérience) pour rejoindre le pôle Accompagnement et Conformité. Le consultant aura pour responsabilité de faire évoluer l'architecture du SI pour répondre aux besoins utilisateurs tout en assurant l'interopérabilité des nouvelles solutions avec l'environnement existant. Il travaillera en étroite collaboration avec l'Architecture d'Entreprise (Urbanistes) et les équipes d'experts techniques (socles, systèmes, réseaux). Objectifs et livrables Objectifs principaux : La mission consiste principalement à accompagner les projets dans la définition de leur architecture technique en cohérence avec les politiques techniques de l'organisme. Détail des activités : Support aux projets (70% de l'activité) : Accompagner l'élaboration des Dossiers d'Architecture Technique (DAT), contribuer à l'instruction et aux revues d'architecture, et réaliser des études d'impact pour les nouvelles technologies. Démarche d'architecture et conformité : Définir des solutions techniques conformes aux standards et assurer la cohérence avec les briques de production (Gateway, Kubernetes, Middleware...). Collaboration et expertise : Valider les solutions avec les experts techniques et suivre les évolutions des socles. Transformation SI : Accompagner les transformations vers le Cloud et les projets BI / Big Data. Environnement technique : Socle applicatif : JAVA (JEE, Spring, Hibernate), API/SOA (REST, SOAP) Infrastructure & Cloud : Kubernetes, Openshift, Ansible, VMWare, Architecture Microservices. Data (Atout) : Big Data, Spark, Kafka, ELK. Bases de données : PostgreSQL, Oracle, Cassandra. Livrables attendus : Dossiers d'Architecture Technique (DAT). Schémas d'architecture (modélisation Archimate). Architecture Decision Records (ADR) pour la traçabilité des choix. Comptes rendus des comités d'architecture. Analyses de marché et supports de veille technologique.
Freelance
CDI

Offre d'emploi
Développeur Middleware – Intégration & Data (H/F)

Publiée le
API
Batch
BI

1 an
Lille, Hauts-de-France
Télétravail partiel
Démarrage : ASAP Localisation : Lille (59), avec 2 jours de télétravail/semaine Durée de la mission : longue Contexte Dans le cadre d’une importante transformation de son Système d’Information, notre client recherche un Développeur Middleware / Intégration pour renforcer son pôle dédié aux flux, à la data et à l’interconnexion des applications. Votre mission Concevoir, développer et maintenir des solutions d’intégration (batch, temps réel, API, BI) afin de garantir : la fiabilité des flux , la qualité des données , la continuité opérationnelle , et la modernisation progressive du socle d’intégration. Vos responsabilités 1. Développement & Delivery Conception et réalisation de composants d’intégration (transformations, échanges inter-applicatifs, exposition de services). Développement de traitements ETL/batch , temps réel (ESB/API/event-driven) ou data/BI selon les besoins. Contribution aux estimations, lotissements et préparations des mises en production. 2. Fiabilisation & Continuité opérationnelle Diagnostic et résolution des incidents liés aux flux. Mise en place de pratiques de robustesse : reprise sur erreur, idempotence, gestion de volumétrie, alerting… Contribution à l’industrialisation (logs, supervision, runbooks). 3. Qualité & bonnes pratiques Respect des standards de développement (naming, quality gates, documentation…). Mise en œuvre de tests, validations de données et revues techniques. 4. Données & Modélisation Manipulation de bases SQL (requêtes, performance, modélisation). Prise en compte des enjeux de qualité et cohérence des données. 5. Collaboration transverse Travail avec architectes, experts, Tech Leads et équipes applicatives. Participation aux ateliers techniques, capitalisation et amélioration continue. Force de proposition sur la rationalisation et les patterns d’intégration. Vos compétences Solide culture de l'intégration (patterns, orchestrations, résilience). Maîtrise SQL et environnements bases de données (Oracle apprécié). Compétences dans un ou plusieurs domaines : ETL / batch (DataStage, ODI, Sunopsis…) ESB / API / Event-driven Modélisation & exposition de services (REST) Dév d’intégration (Node.js ou équivalent) BI / décisionnel Adaptabilité, rigueur, documentation, sens de l’exploitabilité. Profil recherché Expérience confirmée en intégration et flux de données . Approche “ingénieur d’intégration” plutôt qu'expert mono-outil. Aisance dans un environnement multi-équipes, orienté performance et continuité de service. Une expérience retail / omnicanal est un plus.
614 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous