L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 185 résultats.
Mission freelance
Expert Talend / Talend Data Integration Specialist
Publiée le
ETL (Extract-transform-load)
Talend
12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Mission freelance
Devops AWS / GCP
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
12 mois
370-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un OPS Cloud Public / DevOps confirmé pour intervenir sur le cycle de vie applicatif, l’exploitation Cloud (AWS/GCP), la CI/CD, l’observabilité et la gestion des incidents/changes. Missions principales : Création & gestion de ressources natives Kubernetes / Cloud Accompagnement des équipes applicatives à l’usage des outils DevOps Bon accostage Dev → Cloud public via CI/CD (GitLab, Artifactory, Vault…) Définition des flux de logs, automatisation des tests & prérequis d’exploitation Mise en place de tests de sécurité (images, vulnérabilités, intrusion) Construction de l’observabilité, supervision & alerting (GCP/AWS) Provisionnement & déploiement IaC (Terraform, KCC) Gestion des changements : Prise en charge des requêtes ServiceNow jusqu’à clôture Analyse d’impact, préparation & autorisation des changements Contribution aux devis projets & respect des normes de production Coordination mise en production, validation DTA, supervision, consignes Incidents & problèmes : Gestion complète des incidents & communication client Coordination restauration service / SLA Production post-mortem + suivi plan d’actions Analyse des causes racines & actions pérennes Configuration & reporting : Gestion CMDB (CI) Reporting opérationnel & contribution aux comités Mise à jour documentation, DEX, DTA, référentiels
Offre d'emploi
Développeur Data Integration – Chaîne d’Intégration Comptable (NodeJS/TypeScript, Java, GCP)
Publiée le
Java
Node.js
SQL
62 jours
Hauts-de-France, France
📢 Appel d’Offre – Développeur Data Integration / Chaîne d’Intégration Comptable (H/F) Programme Finance – Finalisation Core Model | Contexte international Bonjour à tous, Nous recherchons un développeur expérimenté pour participer aux évolutions de notre chaîne d’intégration comptable dans le cadre d’un programme Finance international, afin de finaliser notre Core Model Finance . Le consultant interviendra sur deux composants majeurs : L’interpréteur comptable (transformation, validation, enrichissement des données) Un ETL (transport/conversion des fichiers + appels services web) 📅 Informations clés Type de contrat : Assistance technique Démarrage souhaité : 05/01/2026 Fin estimée : 31/03/2026 Volume prévisionnel : 62 jours Présence sur site : 3 jours / semaine Déplacements : Non Astreintes : Non Langue : Anglais professionnel impératif Code profil : 3.2.2 – Concepteur/Développeur – Medium 🎯 Objectif de la mission Contribuer au développement et à la stabilisation des évolutions nécessaires sur la chaîne d’intégration des données comptables, afin de garantir la qualité , la cohérence et la fiabilité des flux dans un contexte international . 🧩 Responsabilités principales Développer et mettre au point des programmes de transformation et d’enrichissement de données en NodeJS typé TypeScript + SQL sur GCP (interpréteur comptable) Développer et mettre au point des programmes équivalents en Java dans l’ ETL Concevoir et réaliser les tests unitaires Corriger les anomalies et contribuer à la stabilisation des composants Participer à la rédaction / mise à jour des spécifications techniques Respecter les normes, procédures et standards de développement (qualité, sécurité, performance) 💡 Compétences techniques attendues (Impératif) NodeJS (TypeScript) – Expert Java – Expert SQL – Expert GCP – Expert Web Services REST – Expertise solide ⭐ Compétences appréciées Expérience sur des chaînes d’intégration de données / projets Finance Pratique des environnements ETL , flux fichiers, traitements batch & contrôles Autonomie, rigueur, sens du résultat Capacité à évoluer dans un contexte international (échanges en anglais) 🧠 Profil recherché Développeur / Concepteur-Développeur confirmé À l’aise sur des sujets data transformation , intégration, APIs REST Capacité d’analyse, qualité de code, esprit d’équipe Orienté delivery (développement + tests + correction) 📄 Livrables attendus Programmes de transformation/enrichissement de données (NodeJS/TS + SQL + Java) Spécifications techniques (flux, mapping, interfaces, règles techniques) Tests unitaires (jeux de tests, résultats, couverture) Suivi des anomalies / corrections (selon processus interne)
Offre d'emploi
Développeur .NET / Azure
Publiée le
.NET
.NET CORE
Azure
2 ans
Paris, France
Télétravail partiel
Description de la mission : Vous rejoignez l’équipe Referential pour travailler sur le projet qui consiste à migrer une application existante d’une plateforme On-Premise vers Microsoft Azure . Ce projet inclut également la connexion à un nouveau fournisseur de données , avec la mise en place des flux d’alimentation pour nos référentiels (instruments financiers, émetteurs, données extra-financières, etc.). Vous collaborerez de manière transverse avec les équipes IT et Business. Vos responsabilités : Développer les nouveaux composants applicatifs. Garantir la cohérence technique des modules et appliquer les bonnes pratiques (qualité du code, tests unitaires, modèles de données). Rédiger les spécifications techniques et documents d’architecture en collaboration avec le Business Analyst. Planifier et estimer les travaux, identifier les risques et points de blocage. Travailler avec les équipes Infrastructure pour définir et mettre en place l’environnement Azure. Tester et déployer l’application sur Azure, corriger les anomalies. Accompagner la phase de validation (UAT et production) et assurer la qualité des livrables. Effectuer les tests sur les outils/modules développés. Profil recherché : Formation : Bac+5 (école d’ingénieur ou équivalent). Expérience : 5+ ans en développement informatique. Expertise en Azure , .NET 8 , C# , Blazor WebAssembly/Server App . Développement d’API REST, ETL, batchs et services. Conception et développement de modèles et bases de données. Maîtrise des pratiques DevOps, qualité du code (Sonar), automatisation des tests (un plus). Expérience en environnement agile (SCRUM). Langues : Français et anglais courants. Atouts : Connaissance des produits financiers et des référentiels, intérêt pour la data.
Offre d'alternance
Stage Ingénieur Développeur Web et Cloud AWS H/F
Publiée le
6 mois
20k €
Crédit Agricole du Languedoc, Occitanie
Contexte du stage : Dans le cadre de R&D en lien avec nos clients dans les domaines de l'informatique embarquée et de l'énergie, Viveris souhaite tester des solutions d'envoi de données de systèmes embarqués dans des providers cloud, ainsi que de traitement d'images et de voix directement sur les systèmes embarqués, ou dans le cloud lorsque des ressources importantes sont nécessaires. Le stagiaire intégrera l'équipe projet et prendra en charge la réception de flux de données dans le cloud, les analyses en temps réel sur le cloud et le développement d'une interface web permettant de visualiser l'état du système. Responsabilités : - Proposer différentes architecture cloud d'ingestion et de traitement de données telles que de l'analyse d'images basée sur des services d'intelligence artificielle ; - Développer des codes de traitement de données en Python et permettant le bon interfaçage avec le cloud ; - Développer une interface web C# permettant de visualiser en temps réel les données et résultats d'analyse ; - Documenter les travaux et proposer des améliorations.
Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Offre d'emploi
Développeur iPaaS Azure Junior (H/F)
Publiée le
Azure
1 an
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Secteur Luxe Vos missions Développer des flux d'intégration avec Azure Logic Apps ou Azure Function Créer des Azure Functions en C#/.NET pour des traitements spécifiques Implémenter des pipelines de données avec Azure Data Factory (ADF) Développer en .NET/C# pour les composants personnalisés Participer à la mise en place de l'infrastructure Azure (Terraform) Contribuer aux pipelines DevOps pour le déploiement automatisé Collaborer sur la configuration des environnements Implémenter le monitoring avec Azure Monitor et Application Insights Utiliser ELK Stack pour l'analyse des logs Assurer le support niveau L3 des solutions déployées avec documentation associée Profil du candidat 3 ans d’expérience minimum dont 1 an sur Azure iPaaS Autonomie, rigueur et sens de la qualité Bonnes compétences en communication et pédagogie Connaissance des outils low-code et approche test unitaire Compétences techniques Technologies : • Azure Logic Apps (conception avancée, patterns complexes) • Azure Functions (architecture serverless, scaling) • Event Hub, Event Grid et Service Bus (patterns d'intégration) • .NET/C# (développement avancé, optimisation) • API Managemennt (policies, sécurité) DevOps et Infrastructure : • Azure DevOps (pipelines complexes, templates, CI/CD) • Infrastructure as Code (Terraform) • ELK Stack (configuration avancée, requêtes complexes) • Sécurité Azure et compliance
Offre d'emploi
Ingénieur réseau & sécurité
Publiée le
Active Directory
DHCP (Dynamic Host Configuration Protocol)
DNS
2 ans
45k-55k £GB
400-500 £GB
Guyancourt, Île-de-France
Télétravail partiel
Vous interviendrez en tant qu'expert senior pour garantir la disponibilité, la performance et la sécurité des infrastructures réseaux. Votre rôle est transverse : vous assurez le maintien en condition opérationnelle et de sécurité (MCO/MCS), tout en pilotant des projets d'évolution technologique (Build & POC). Vous êtes le référent technique ultime pour les équipes de support et l'interlocuteur privilégié des partenaires constructeurs et éditeurs. 1. Expertise et ingénierie (Build & Projets) : Orientation technologique : contribuer aux choix stratégiques et aux orientations technologiques du socle réseau/sécurité. Projets & POC : organiser et réaliser des Proof of Concept (POC) pour tester les solutions de demain. Veille technologique : assurer une veille constante pour anticiper les menaces et les évolutions constructeurs. Transversalité : assurer l’interface technique avec les experts des autres domaines (Système, Cloud, Appliqué). 2. Maintien en Condition Opérationnelle (RUN - Niveau 3) : Référent technique : apporter votre expertise de Niveau 3 aux équipes de support N1/N2. Gestion des incidents critiques : piloter le traitement des incidents et problèmes complexes. Participer activement aux cellules de crise en lien avec les supports constructeurs et opérateurs. Communication : assurer un reporting précis vers le management et communiquer efficacement avec les clients finaux ou les interlocuteurs des clusters. Continuité de service : participer au support en heures non ouvrées (HNO) et aux astreintes. 3. Périmètre technique spécifique Vous assurez l'intégration et le suivi des infrastructures suivantes : Sécurité Web : Web Application Firewall (WAF) et protection DDoS. Accès & identité : F5 APM (Access Policy Manager). Services réseau : DNS, NTP. Flux : relais de messagerie et sécurisation des flux Internet.
Mission freelance
Développeur expérimenté Spring Batch
Publiée le
Git
Java
Oracle
6 mois
Montreuil, Île-de-France
Télétravail partiel
Métiers et Fonctions Études & Développement Développeur Spécialités technologiques Applications Web Versionning, Gestion de configuration Tests unitaires Type de facturation Assistance Technique (facturation avec un taux journalier) Compétences requises Technologies et Outils : GIT, CI/CD, Java, Spring Batch (5 ans d'expérience), Oracle, Kafka Soft skills : Autonomie Secteur d'activité : Administration Publique Description de la prestation Dans le cadre d’un projet de traitement de flux critiques, l’équipe, principalement composée de profils juniors, nécessite un renfort expérimenté pour accélérer le delivery, stabiliser les développements et renforcer les bonnes pratiques. Un lead tech est déjà en place, mais il manque de séniorité opérationnelle sur Spring Batch et la conception de traitements robustes et performants. Objectifs de la mission Assurer le développement fiable de jobs Spring Batch pour flux volumétriques Structurer les bonnes pratiques de développement (qualité, tests, performance) Former et accompagner les développeurs juniors Contribuer à la sécurité et la stabilité des mises en production Rôles & responsabilités Concevoir et développer des jobs Spring Batch performants et robustes Participer aux ateliers techniques et à la définition des solutions Analyser et optimiser les flux existants Produire un code propre, maintenable et conforme aux standards Réaliser les tests unitaires, d’intégration et de charge Supporter l’équipe dans la résolution d’incidents et l’amélioration continue Encadrer techniquement les profils moins expérimentés (pair programming, revue de code) Collaborer étroitement avec le lead technique Environnement technique Java 17 Spring Batch Kafka Oracle 19c Outils annexes : CI/CD, Git, monitoring, selon la stack interne
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Offre d'emploi
Data Analyst spécialisé données RH & qualité de données
Publiée le
Azure
Data quality
Google Cloud Platform (GCP)
42k-60k €
Paris, France
Télétravail partiel
📢 Recrutement CDI – Data Analyst spécialisé données RH & qualité de données Nous recrutons un Data Analyst en CDI pour intervenir sur des sujets de fiabilisation et structuration de données RH et identités au sein d’un environnement data transverse et stratégique. 🎯 Votre rôle Vous interviendrez sur des données collaborateurs (internes, externes, organisations, comptes) afin d’en garantir la cohérence, la fiabilité et l’exploitabilité. Vous travaillerez en lien avec des équipes data, RH et sécurité sur des flux multi-sources. 🛠 Vos missions principales Analyser et comprendre des données issues de plusieurs systèmes (notamment RH) Détecter les incohérences, doublons et données manquantes Mettre en place des règles de contrôle et d’amélioration de la qualité des données Participer à la structuration d’un référentiel de données fiable Produire des indicateurs et tableaux de bord de suivi (qualité, complétude, fiabilité) Documenter les jeux de données et les règles associées
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
DBT
DevOps
Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Mission freelance
Développeur Python/vuejs
Publiée le
Google Cloud Platform (GCP)
Python
Vue.js
1 an
400-440 €
Lille, Hauts-de-France
Télétravail partiel
Le/La Software Engineer - Full stack contribuera au développement et à la maintenance de nos solutions logicielles réseau. Responsabilités Développement : - Concevoir l'architecture de composants backend et frontend - Participer au développement de nouvelles fonctionnalités pour nos produits logiciels. - Rédiger du code propre, efficace, testé et bien documenté. - Réaliser de revues de conception et de code - Participer à la définition de la stratégie et des objectifs de l'équipe en matière de software - Corriger les bugs et les anomalies. - Assister les équipes techniques et les clients en cas de problèmes. Projets spécifiques à court terme: - Développement sur notre outil de gestion des flux firewalls - Automatisation d'autres tâches réseau Note: Une très forte expertise technique est attendue
Offre d'emploi
Test Lead Technico fonctionnel flux API Microservices anglais courant H/F
Publiée le
Agile Scrum
Apache Kafka
API
50k-55k €
Paris, France
Télétravail partiel
Vous souhaitez rejoindre une équipe de passionnés du test et participer activement au développement de l’entreprise ? ALDEMIA recrute dès que possible en CDI un Test Lead Technico fonctionnel flux API Microservices anglais courant H/F pour réaliser cette opportunité de mission chez l'un de nos clients dans le secteur de l'assurance. L’objectif est d’assurer la qualité d'un produit, la performance et la conformité du système d’information à chaque évolution, migration et phase de maintenance, tout en garantissant une expérience fluide pour tous les profils d’utilisateurs. Les utilisateurs principaux sont des clients externes et partenaires externes. RÔLE ET MISSIONS DU TEST LEAD QA Garant de la qualité d’un produit dans le SI, il : • Veille au respect du cahier des charges technique et fonctionnel (use cases, user stories, processus métier), de bout en bout (front-to-back) • Assure l’utilisabilité pour les clients et partenaires externes, incluant la migration d’anciens systèmes et l’onboarding de nouveaux utilisateurs • Gère la non-régression et l’impact des évolutions sur les autres composants du SI • Assure la continuité de service de test de son périmètre (capitalisation, formation) Définition et pilotage de la stratégie de tests • Élaboration de la stratégie de tests pour l’ensemble d’un produit, couvrant toutes les phases projet et la maintenance • Gestion et coordination des ressources dédiées aux tests, ainsi que des équipes transverses nécessaires Reporting qualité • Suivi et restitution de la qualité du produit selon les Axes techniques et fonctionnels, Risques identifiés et mitigation, décisions Positionnement hiérarchique et interlocuteurs • Interactions quotidiennes avec : Responsable des tests, Product Owners, Business Analysts, équipes techniques, testeurs manuels et équipe d'automatisation. • Reporting régulier auprès des responsables produit, développement et direction des opérations. ENVIRONNEMENTS ET OUTILS • Architecture : Web Services, batch, IHM, accès internes/externes • Outils QA (ou équivalent) : JIRA, Xray, Confluence, API, SQL • Spring batch, Java, SQL, API Rest, Kafka, Swagger
Mission freelance
Data engineer senior H/F
Publiée le
Google Cloud Platform (GCP)
HFSQL
Python
2 ans
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
Mission freelance
Développeur expérimenté Spring Batch
Publiée le
Application web
Git
Monitoring
18 mois
100-400 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Applications Web, Versionning, Gestion de configuration tests unitaires Dans le cadre d’un projet de traitement de flux critiques, l’équipe actuelle composée majoritairement de profils juniors nécessite un renfort expérimenté afin d’accélérer le delivery, stabiliser les développements et renforcer les bonnes pratiques. Un lead tech est déjà en place, mais l’équipe manque de séniorité opérationnelle sur Spring Batch et la conception de traitements robustes et performants. MISSIONS Objectif de la mission - Assurer le développement propre et fiable de jobs Spring Batch destinés au traitement de flux volumétriques. - Structurer les bonnes pratiques de développement (qualité, tests, performance). - Accompagner et faire monter en compétence les développeurs juniors de l’équipe. - Contribuer à la sécurisation des mises en production et à la stabilité de la chaîne de traitement. Rôle & responsabilités : - Concevoir et développer des jobs Spring Batch performants et robustes. - Participer aux ateliers techniques et à la définition des solutions. - Analyser les flux existants, identifier les optimisations possibles. - Assurer un code propre, maintenable, conforme aux standards internes. - Effectuer les tests unitaires, d’intégration et de charge liés aux batchs. - Supporter l’équipe dans la résolution d’incidents et l’amélioration continue. - Encadrer techniquement les profils moins expérimentés (pair programming, revue de code). - Collaborer étroitement avec le lead tech Environnement technique : - Java 17 - Spring Batch (compétence clé) - Kafka - Oracle 19c - Outils annexes (CI/CD, Git, monitoring…) selon stack interne Expertise souhaitée Développeur confirmé avec 4 à 5 ans d’expérience minimum. - Maîtrise impérative de Spring Batch (critère déterminant). - Bonne autonomie et capacité à produire rapidement du code fiable. - Capacité démontrée à travailler dans une équipe mixte (junior + lead). - Bon sens de la pédagogie et de la transmission des bonnes pratiques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
185 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois