L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 932 résultats.
Offre d'emploi
Développeur NodeJS
Publiée le
CI/CD
Git
Google Cloud Platform (GCP)
3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Développement back - Run & Build - Développement d'APIs - Recueil des besoins - Maintenir les applications en cours - Assurer la qualité des applications à venir - Apporter votre support aux membres de l’équipe sur les bonnes pratiques de développement et de méthodologie - Mission basée en métropole lilloise avec télétravail partiel Compétences demandées : - Expériences significatives comme développeur NodeJS - Python - Connaissances de la data (Snowflake, GCP BigQuery, Stambia, DBT ...) - Outils de CI/CD - Maîtrise et pratique de l’Agile - Anglais un+
Mission freelance
Chef de projet géomarketing
Publiée le
CRM
Data analysis
Data governance
12 mois
520-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) chef de projet Géomarketing pour piloter l’industrialisation de nos outils géomarketing et la mise en place d’un reporting KPI efficace, afin de renforcer la prise de décision et l’optimisation des opérations commerciales et logistiques. Missions principales : Industrialisation des outils géomarketing Analyse des besoins métiers et identification des outils existants. Standardisation et automatisation des processus géomarketing. Déploiement de solutions adaptées aux différentes entités du groupe. Formation et accompagnement des utilisateurs internes. Mise en place de reporting KPI Définition et structuration des indicateurs clés de performance (KPI) géomarketing. Création de tableaux de bord interactifs et automatisés pour le suivi des activités. Mise en place de processus de collecte, de consolidation et d’analyse des données. Pilotage de la performance et identification des leviers d’optimisation. Pilotage de projets transverses Coordination avec les équipes commerciales, marketing, logistique et IT. Suivi du planning, des coûts et des livrables. Garantir la qualité et la fiabilité des données utilisées dans les analyses. Profil recherché : Expérience confirmée en géomarketing et gestion de projets data / BI. Maîtrise des outils SIG (QGIS, ArcGIS…) et des solutions de data visualisation (Power BI, Tableau…). Bonne compréhension des enjeux commerciaux et logistiques dans un contexte multi-pays. Capacité à industrialiser des processus et à créer des reportings automatisés. Esprit analytique, rigueur et sens de la communication. Livrables attendus : Outils géomarketing industrialisés et documentés. Tableaux de bord KPI opérationnels et automatisés. Processus standardisés pour le suivi de la performance géomarketing.
Offre d'emploi
INGENIEUR SRE
Publiée le
AWS Cloud
Azure
MySQL
3 ans
40k-55k €
400-500 €
Strasbourg, Grand Est
Ingénieur SRE (Site Reliability Engineer) – H/F Dans le cadre du renforcement de notre équipe Infrastructure, nous recherchons un Ingénieur SRE pour assurer la fiabilité, la performance et la disponibilité de nos systèmes. Vos missions/ En tant qu’Ingénieur SRE, vous interviendrez sur l’ensemble du cycle de vie des infrastructures et aurez notamment pour missions : Administrer, maintenir et optimiser des systèmes Linux (Debian, RHEL, RockyLinux, Ubuntu) Garantir le maintien en condition opérationnelle (MCO) du système d’information Gérer et optimiser les plateformes d’ hébergement Web (Apache, Nginx, Traefik) Mettre en œuvre et maintenir les solutions de virtualisation et de conteneurisation (Docker Swarm, Portainer) Automatiser les déploiements et la gestion de configuration ( Puppet, Terraform, Ansible ) Mettre en place et exploiter les outils de supervision et monitoring (Nagios, Prometheus, Grafana, Minio, Thanos, OpenTelemetry) Assurer la centralisation et l’analyse des logs (ElasticSearch, Logstash, Kibana, Syslog-ng) Réaliser le diagnostic et la résolution d’incidents complexes Participer aux phases de POC et à l’évaluation de nouvelles solutions techniques Rédiger et maintenir la documentation technique Apporter un support technique aux utilisateurs sur les problématiques système Travailler en collaboration étroite avec l’équipe Infrastructure
Offre d'emploi
Développeur Backend Senior
Publiée le
Ansible
API REST
Docker
12 mois
56k-60k €
400-550 €
Saint-Denis, Île-de-France
Télétravail partiel
Au sein d'un client industriel grand compte, la mission consiste à : Participer aux réflexions d’architecture et de choix techniques menées dans le cadre de la refonte du code S’impliquer dans la compréhension des besoins fonctionnels Participer aux développements du back pour la refonte du code S’assurer de la qualité et de la robustesse du code Encadrer si besoin un développeur junior dans le cadre d’un stage Contribuer à la chaîne de déploiement continue de l'application au moyen de l'usine logicielle Assurer le fonctionnement et les correctifs de l'outil
Mission freelance
Architecte Solution (Toulouse ou Lille)
Publiée le
Architecture
1 an
400-650 €
Toulouse, Occitanie
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Toulouse ou à Lille, je suis à la recherche d'un architecte solution. L'architecte sera responsable de la définition & de la communication d'une vision technique et architecturale partagée pour un ART (ou une Large Solution). Il aidera à s’assurer que la solution en cours de développement réponde aux besoins et aux objectifs du Train. Ses missions : - Définir la piste architecturale (infrastructure CI/CD, solution architecturale & intentionnelle) - Guider l’implémentation des Enablers au travers du Program Kanban - Identifier & Analyser les Compromis techniques pour ouvrir des alternatives et préserver des options - Définir & publier les NFRs - Aligner les équipes du train (ou de la large Solution) sur une orientation technique partagée et sur l’effort d’intégration pour délivrer une solution complète - Aider le PM dans les sessions de priorisation des éléments du Backlog (Cost of Delay, Effort) & négocier les capacités allouées aux Enablers et à la dette technique - Montrer, dans le cadre des Revue d’itération, la livraison continue de la Piste Architecturale.
Offre d'emploi
Data Analyst Splunk ITSI – Secteur Bancaire – Région Parisienne (H/F)
Publiée le
BI
Splunk
SQL
38k-42k €
Île-de-France, France
Télétravail partiel
Contexte du poste Rejoignez une entreprise majeure dans le secteur bancaire, engagée dans une transformation digitale ambitieuse. Située en Ile-De-France, notre entité est au cœur d’un projet stratégique visant à optimiser nos infrastructures IT grâce à des solutions innovantes de gestion de données. Vous intégrerez une équipe composée de passionnés de technologie et d’experts en data, dédiée à la création et à l’optimisation des dashboards ITSI. Cette mission vitale pour notre équipe a émergé pour renforcer notre capacité à analyser, interpréter, et intégrer les logs de nos infrastructures à travers la plateforme Splunk. Missions Missions principales Développer et optimiser les dashboards Splunk ITSI pour le monitoring et la performance SI. Configurer Splunk et structurer la base de données logs pour les infrastructures. Organiser, nettoyer, modéliser et fiabiliser les jeux de données nécessaires au pilotage. Explorer les données, produire des analyses, identifier tendances et anomalies. Créer ou améliorer des requêtes SPL et des algorithmes d’extraction pertinents. Industrialiser les traitements récurrents et assurer la qualité des gisements de données. Collaborer avec les équipes Argos pour comprendre les besoins métiers et orienter les dashboards. Documenter les travaux, sécuriser la cohérence et garantir un usage opérationnel durable. Participer à l’exploration de données complexes et à l’industrialisation des processus d’analyse. Soutenir le management dans la résolution des enjeux métiers via l’analyse de données passées. Stack technique Stack principale à maîtriser Splunk Dashboarding Splunk ITSI Data Analyse
Mission freelance
Chef de Projet SI – Engineering
Publiée le
Gestion de projet
Site Reliability Engineering (SRE)
12 mois
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Nous recherchons un Chef de Projet SI pour piloter des projets stratégiques liés à l’évolution du système d’information des métiers de l’Engineering, dans un contexte de transformation digitale. Vous interviendrez sur des projets variés : upgrades applicatifs, mise en œuvre de nouvelles solutions, décommissionnement et archivage. Vos responsabilités : Pilotage de projets SI en respectant qualité, coûts, délais Coordination des équipes et animation des instances projet Suivi des livrables, reporting et gestion des risques Communication avec les parties prenantes
Mission freelance
230795/Data OPS Niort Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana)
Publiée le
Control-M
Dynatrace
3 mois
320-350 £GB
Niort, Nouvelle-Aquitaine
Data Ops Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python Contexte : Mettre en place des outils et des méthodes d'industrialisation et d'automatisation de l’exploitation informatique dans des environnements Data (orchestration des données). • Définir et mettre en place des processus pour une meilleure collaboration/ coordination entre les équipes de développement et d'exploitation. • Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques d’infrastructure as code dans le cycle d'orchestration des données. • Intégrer et maintenir les CI/CD (intégration continue et livraison continue), les tests automatisés pour fluidifier les pipelines de développement et de déploiement. • Configurer les Runners Gitlab pour les différents projets afin d’assurer le déploiement continue. • Assurer la gestion des versions des configurations afin de reproduire facilement les déploiements. • Assurer le monitoring des assets en collaboration avec l'équipe d'exploitation. • Concevoir et maintenir des services d'assistance FINOPS (observabilité). • Fournir une formation et un support aux membres de l'équipe d'exploitation sur les bonnes pratiques, les outils et les technologies utilisées. • Rédiger et maintenir une documentation précise et à jour pour les configurations, les processus et les workflows des solutions mises en place. Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python
Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)
Publiée le
Snowflake
6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Mission freelance
NetOPS Support N2/N3 (Run) - LILLE
Publiée le
ITSM
Python
SLA
6 mois
Lille, Hauts-de-France
Télétravail partiel
Objectifs et livrables Pilotage de la qualité & des performances Suivre et analyser les KPIs opérationnels (SLA, disponibilité, incidents). Piloter les métriques hebdomadaires et garantir l’excellence opérationnelle. Maintien en condition opérationnelle (MCO) Diagnostiquer les composants réseau & cloud. Participer à la montée en maturité des pratiques opérationnelles. Gestion des incidents & crises Résoudre les incidents de niveau 2/3 via l’outil ITSM. Piloter des crises techniques avec les équipes expertes. Animer les phases post-mortem. Amélioration continue & process Auditer les pratiques opérationnelles et proposer des optimisations. Identifier les actions à automatiser (Terraform, Python…). Garantir la conformité documentaire et opérationnelle. 🧩
Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)
Publiée le
Apache Kafka
AWS Cloud
Big Data
12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Mission freelance
Ingénieur DATA – Coordination & Support Technique IA Industrielle
Publiée le
Data analysis
IA
1 an
500 €
Belgique
Télétravail partiel
Assurer la coordination et le support technique Data & IA pour l’industrialisation et l’optimisation des flux de données. L’objectif est de structurer, automatiser et rendre exploitables les données industrielles , tout en développant les premiers use cases IA opérationnels pour la ligne de production. 1. Coordination Data & IA Piloter et structurer l’automatisation de l’alimentation de la plateforme 3DEXpérience depuis Publisher , en exploitant des techniques d’IA (machine learning, NLP…). Documenter et suivre les scripts et workflows de migration automatisés . Proposer les premiers use cases DATA & IA pour la production. Appuyer l’équipe UNS sur la structuration des données industrielles pour usages IA futurs. Veille technologique et reporting sur les sujets Data & IA. 2. Support technique et développement Implémenter et tester les scripts et workflows de migration de données (DataPrep, ETL, IA) sur données simulées ou réelles. Concevoir et tester des use cases IA “production ready” : supervision process, maintenance prédictive, contrôle qualité automatique. Structurer les datasets pour l’entraînement IA : normalisation, règles qualité, automatisation des flux. Assurer documentation technique et transfert de compétences aux équipes.
Mission freelance
Consultant·e senior Metadata & Contenus
Publiée le
Data analysis
Gestion de projet
4 mois
580-640 €
Paris, France
Télétravail partiel
Contexte Mission d’étude au bénéfice d’un client (organisation de presse – anonymisée), sans prestation de développement à ce stade. Coordination avec la DSI en charge des métadonnées. Échanges préalables déjà tenus ; la présente fiche formalise le périmètre à présenter avant contractualisation. Interlocuteurs et coordination Côté client : DSI en charge des métadonnées. Demande associée : partage des coordonnées des personnes clés côté prestataire pour une présentation du périmètre de mission avant formalisation. Objectif de planification Cible de chiffrage : avant Noël. Démarrage envisagé : début 2026, sous réserve de validation par la DSI. Objectifs « high level » de la mission (phase initiale) Analyse concurrentielle des métadonnées : comparaison [Client – organisation de presse] vs Reuters, AP, et autres acteurs à déterminer. Analyse des besoins clients en metadata dans leurs systèmes CMS / DAM / MAM, avec un focus spécifique sur les usages « AI‑friendly ». Recommandations d’actions. Description détaillée du besoin 1) Analyse concurrentielle des métadonnées Construire une grille de comparaison couvrant : modèles de métadonnées (schéma, champs obligatoires/optionnels), taxonomies/ontologies, politiques de nommage, qualité/complétude, mécanismes d’identifiants, historisation/versioning, exposition via APIs, et modalités de licence/usage. Cadrer les sources publiques et matériaux accessibles des acteurs ciblés (Reuters, AP, autres à confirmer) et expliciter les limites éventuelles. Évaluer l’alignement/déviations du [Client – organisation de presse] par rapport aux pratiques observées, avec exemples représentatifs. 2) Besoins clients metadata dans CMS / DAM / MAM Conduire des entretiens structurés avec un panel représentatif de clients/intégrateurs (rôles : équipes CMS, responsables DAM/MAM, data/AI) pour cartographier les besoins par parcours : ingest → édition → publication → réutilisation. Identifier les champs et structures « AI‑friendly » prioritaires (désambiguïsation, liens entité‑événement, timestamps normalisés, droits/licensing, source, provenance) et les contraintes d’ingestion/export (formats, payloads, latence, webhooks). Formaliser les attentes d’intégration : modèles d’API (REST/GraphQL), filtres, pagination, recherche/facettes, webhooks, documentation attendue, exemples de réponses, politiques de versioning et SLA de fraîcheur/qualité. 3) Recommandations d’actions Produire des options de convergence par paliers (quick wins vs chantiers structurants), avec impacts estimés sur qualité des métadonnées, réutilisabilité, et compatibilité IA. Proposer une trajectoire de normalisation (champ par champ / structure par structure), des règles de gouvernance (dictionnaire, contrôles automatiques, métriques de complétude), et les prérequis organisationnels. Préparer le chiffrage et les hypothèses associées, adaptés à la cible « avant Noël » pour décision de lancement début 2026. Périmètre de la phase initiale Cadrage et restitution du périmètre aux parties prenantes identifiées par la DSI Metadata. Prise en compte des échanges précédents comme base de travail. Inclusion des trois volets listés dans les objectifs « high level ». Hypothèses et dépendances Validation interne DSI nécessaire pour enclencher un démarrage début 2026. Identification et disponibilité des personnes clés côté prestataire et côté [Client – organisation de presse] pour la présentation de cadrage. Livrables attendus (alignés sur les objectifs « high level ») Restitution d’analyse concurrentielle métadonnées [Client – organisation de presse] vs acteurs cités. Synthèse des besoins clients metadata dans CMS / DAM / MAM, avec attention aux usages « AI‑friendly ». Recommandations d’actions.
Mission freelance
Consultant Data Migration – SAS / SQL – Contexte Épargne & Transformation SI
Publiée le
SAS
SQL
2 ans
400-580 €
Île-de-France, France
Télétravail partiel
Description de la mission : Dans le cadre d’un programme de transformation du système d’information épargne , nous recherchons un consultant confirmé spécialisé en migration de données pour intervenir sur la construction et l’industrialisation d’un modèle de données pivot entre les systèmes existants et un nouvel outil de gestion. Vos missions : Analyser les traitements et modèles de données existants sous SAS Enterprise Concevoir et faire évoluer le modèle de données Pivot servant d’interface entre les systèmes source et cible Développer et industrialiser les flux SAS (pré-traitement, transformation, injection) Réaliser les tests unitaires et suivre les anomalies Participer au passage de run de migration et assurer le suivi des compteurs Rédiger la documentation technique et les spécifications fonctionnelles détaillées
Offre d'emploi
Team leader Cybersécurité
Publiée le
Cybersécurité
Nantes, Pays de la Loire
Télétravail partiel
Vous serez aussi porteur des missions suivantes en collaboration avec les autres équipes Conseil et Audit de la région Grand Ouest et les équipes nationales : * Manager une équipe d’une dizaine de consultants spécialisés en cybersécurité, et assurer le pilotage opérationnel et financier de l’activité. * Développer notre activité Conseil & Audit sur le territoire des Pays de la Loire en portant la valeur de notre offre de cybersécurité et en accroissant le portefeuille client * Décliner sur le territoire des Pays de la Loire, le Plan tactique régional établi avec le Directeur de l’activité Conseil & Audit Grand Ouest et vous lui rendez compte périodiquement. * Participer aux phases d’avant-ventes des projets en collaboration avec nos équipes commerciales. * Piloter des projets de grande échelle, et assurer la bonne conduite des missions dans leur ensemble. * Agir en qualité de référent pour les clients sur le domaine de la cybersécurité, en capacité de communiquer aussi bien auprès des interlocuteurs techniques que devant un comité exécutif. * S’investir dans nos communautés d’experts nationales pour y apporter votre RETEX, vos idées de développement et réfléchir à de nouvelles offres adaptées au contexte local. * Apporter votre expérience et votre expertise dans les domaines tels que * Conseil en Gouvernance, Risques et Conformité dans la cybersécurité * Conseil dans la Cyber-résilience (PRA, PCA, PGC, crises cyber…) * Conseil technologique en sécurité (sécurité du cloud, sécurité OT, gestion des identités et des accès, IA, PQC, etc.) *
Mission freelance
Tech Lead java
Publiée le
API REST
Domain Driven Design (DDD)
Java
3 mois
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de nos équipes de développement du produit, nous recherchons un Tech Lead JAVA expérimenté pour assurer la cohérence technique, accompagner les équipes de développement et garantir la qualité des livrables tout au long du projet. Une refonte technique doit être lancée pour augmenter le périmètre des KPI, améliorer la tenue à la charge, les performances et l'APIsation du produit. Le projet est composé de 80% backend / 20% frontend, avec le même niveau d'expertise attendu sur les deux aspects. Organisation : 4 développeurs hybrides (2 experts, 1 confirmé, 1 junior), 1 Tech Lead mi-temps, 1 QA/QE, 1 PO. Sprints de 3 semaines. Missions principales - Définir et faire évoluer l'architecture technique en assurant son alignement avec les standards de l'entreprise - Concevoir les solutions techniques garantissant scalabilité, maintenabilité et performance - Rédiger et maintenir la documentation technique (ADR, diagrammes d'architecture, guidelines) et assurer les choix techniques structurants en collaboration avec les architectes - Accompagner l'équipe via les revues de code et le partage de bonnes pratiques - Organiser des sessions de pair/mob programming - Assurer le mentorat des développeurs - Animer des ateliers techniques réguliers (craftsmanship, clean code, design patterns) - Contribuer activement au développement (20% mini) sur les fonctionnalités complexes ou critiques - Mettre en place et garantir les standards de qualité (tests unitaires, tests d'intégration, couverture de code) - Industrialiser les pratiques DevOps (CI/CD, automatisation) - Intervenir sur la résolution des problèmes techniques complexes, la dette technique et la sécurité - Évaluer la faisabilité technique des user stories et proposer des alternatives - Contribuer à l'estimation de la charge et au cadrage des sprints - Maintenir une veille active sur l'écosystème Java et proposer des évolutions pertinentes - Évaluer et expérimenter de nouvelles technologies apportant de la valeur au projet - Accompagner l'équipe dans l'adoption de nouvelles approches notamment l'IA Stack technique requise - Obligatoire -- Backend: Java 11+ (idéalement Java 17 ou 21), Spring Boot, Spring Framework, JPA, API REST, Maven -- Base de données: SQL (PostgreSQL), MongoDB serait un plus -- Qualité et tests: JUnit 5, Mockito, SonarQube -- DevOps: Git, Github actions, Docker --Architecture / méthode: microservices, architecture hexagonale, event-driven architecture, design patterns, SOLID principles, clean code, DDD, TDD -Souhaitable: Kafka, Cloud GCP (Kubernetes, Terraform), monitoring Datadog, Playwright
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
1932 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois