L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 959 résultats.
Mission freelance
POT8828 - Un Expert WebMethods – Echanges de Données / Kafka sur Nanterre
Publiée le
XML
6 mois
280-410 €
Nanterre, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients un Expert WebMethods – Echanges de Données / Kafka sur Nanterre Mission : - Développement et support sur la plateforme iPaaS (WebMethods). - Conception de services API, intégration et monitoring. - Expertise sur bus d’échange événementiels Kafka, streaming analytics. - Participation à la performance et sécurité des flux. Compétences clés : - WebMethods, Kafka, ElasticSearch. - SOA, API Management, Big/Fast Data. - DevSecOps : Jenkins, GitLabCI, Ansible. - Langages : Java, XML, JSON, SOAP/REST.
Mission freelance
Consultant Kafka H/F
Publiée le
Apache Kafka
API
DevOps
3 ans
550-650 €
Paris, France
Télétravail partiel
Contexte Au sein de l’équipe Data Analytics, nous concevons, déployons et maintenons des architectures Big Data destinées à répondre aux besoins internes de l’entreprise. Dans le cadre du renforcement de notre équipe support, nous recherchons un Data Engineer spécialisé Kafka pour intervenir sur des plateformes critiques à fort volume de données. Missions principales Mettre en œuvre son expertise sur Kafka (conception, configuration, optimisation et troubleshooting) Assurer le support, l’automatisation et le maintien en conditions opérationnelles (MCO) des plateformes Kafka Participer aux développements de l’équipe Data Analytics, notamment sur le projet “Topic as a Service” Contribuer à l’amélioration continue des architectures Big Data et des processus d’exploitation Assurer le support de la plateforme Worlwide Participer à la documentation technique et au partage des bonnes pratiques Interagir avec des équipes internationales dans un environnement anglophone Environnement technique Apache Kafka OpenSearch Elastic Stack : Elasticsearch, Logstash, Kibana, Beats Ansible Git / Bitbucket Développement Python REST APIs
Mission freelance
Consultant Technique API & Event (REST / Kafka)
Publiée le
API
Apigee
Run
18 mois
100-350 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 2 ans et plus Métiers Fonctions : Etudes & Développement, Consultant technique Spécialités technologiques : API Contexte Dans le cadre des projets 2026 et du RUN de la plateforme API, notre client renforce son Centre d’Excellence API & Events (6 personnes : production & gouvernance). Objectifs de la mission : - Contribuer au BUILD et au RUN des APIs et Events - Accompagner la structuration et la montée en maturité du centre d’expertise APIs Répartition : - 50 % BUILD / 50 % RUN MISSIONS - Rédaction/écriture d’API (Swagger / OpenAPI) - Accompagnement des équipes techniques et métiers sur le design d’APIs - Conception technique des Events et APIs asynchrones (AsyncAPI) - Contribution à la gouvernance de la plateforme Kafka - Participation à la modélisation des objets métiers du SI : JSON / NoSQL (documents, dénormalisation) & SQL relationnel selon les cas d’usage - Documentation des APIs - Support aux équipes consommatrices Un Architecte d’Entreprise accompagne la mission pour les aspects métiers si nécessaire. Expertise souhaitée Profil recherché : - 2 à 3 ans d’expérience minimum - Forte orientation API & Event-driven Compétences clés : - Excellente maîtrise de Swagger / OpenAPI - Excellente maîtrise de Kafka : Expert – impératif - Une connaissance de APIGEE est un +
Offre d'emploi
Expert KAFKA Senior
Publiée le
60k-80k €
Île-de-France, France
Télétravail partiel
CONTEXTE DE LA MISSION L’organisation souhaite mettre en place un socle de streaming de données temps réel afin de gérer ses flux de données, en s’appuyant sur des standards de gouvernance et de bonnes pratiques. La prestation vise à assurer la gestion complète du service de streaming, incluant notamment : La maintenance corrective et préventive (support de niveau intermédiaire et expert) La maintenance évolutive (mise en œuvre de nouveaux flux ou d’améliorations) L’accompagnement des ressources techniques (sessions de formation, suivi des montées en compétence, coaching opérationnel) La structuration et l’outillage de la base de connaissance Le pilotage opérationnel et le reporting régulier des indicateurs de service La proposition devra prendre en compte les éléments suivants : Expertise sur les plateformes de streaming distribuées (traitement de flux, connecteurs, clusters distribués) Connaissances en sécurité, supervision et pratiques DevOps (conteneurisation, orchestration) Capacité à documenter les solutions et à former les équipes Missions: Audit et conception : analyse des besoins, définition de l’architecture cible, de la gouvernance et des standards Déploiement : installation et configuration de la plateforme et des outils associés, mise en œuvre de la haute disponibilité et des mécanismes de reprise Gouvernance et bonnes pratiques : définition des règles d’usage, gestion des flux, des droits et des schémas de données Transfert de compétences : formation des équipes et production de documentation opérationnelle PRESTATIONS ATTENDUES Prise en charge des demandes via un outil de gestion des tickets Cadrage, conception et analyse d’impact Établissement des devis (sur la base d’unités d’œuvre négociées) et planning associé Réalisation (développements, paramétrage et configuration) Tests unitaires, assistance à la recette et aux phases de validation Fourniture de jeux de données et rédaction des cahiers de recette Tests d’intégration et de non-régression Production des documentations fonctionnelles et techniques détaillées Prise en charge de projets existants dans le cadre d’une prestation de réversibilité
Mission freelance
Administrateur Kafka
Publiée le
Apache Kafka
Automatisation
IAC
3 ans
Toulouse, Occitanie
Télétravail partiel
L’administrateur Kafka est responsable de l’installation, de la configuration et de l’exploitation des clusters Kafka. Il assure la supervision, la performance et la disponibilité de la plateforme, tout en garantissant sa sécurité via TLS, ACL et bonnes pratiques d’accès. Il gère le cycle de vie des topics, des partitions et des données, optimise les flux et automatise les opérations via des outils IaC. Il accompagne les équipes applicatives, résout les incidents liés aux producers/consumers et contribue à l’amélioration continue de l’écosystème Kafka (Connect, Schema Registry, monitoring).
Mission freelance
Expert WebMethods – Kafka / Streaming (H/F)
Publiée le
Apache Kafka
JIRA
JSON
1 an
400-580 €
Île-de-France, France
Télétravail partiel
La mission s’inscrit dans un programme de modernisation des échanges de données temps réel au sein d’une plateforme iPaaS / Digital PaaS destinée à des applications à forts volumes et à forte criticité métier dans le secteur de l’énergie . L’objectif est d’apporter une expertise senior webMethods couplée à une maîtrise des architectures événementielles et streaming , notamment autour de Kafka . Le consultant participera à la conception, à l’intégration et à l’optimisation de flux temps réel, depuis les phases amont jusqu’au maintien en condition opérationnelle . Il jouera un rôle clé dans la performance, la scalabilité et la fiabilité des solutions, tout en contribuant aux POC, à la documentation et au support de niveau 3.
Mission freelance
Développeur Java / Kafka F/H
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java
12 mois
450-480 €
La Défense, Île-de-France
Télétravail partiel
Description de la prestation : Le consultant intégrera une squad du programme Galaxy. En intégrant l’équipe de développeurs, il participera à l’estimation et la réalisation des fonctionnalités. En lien avec le Tech Lead de sa Squad, il travaillera avec un Ops pour la partie CICD et sera garant de la qualité du code produit. Les missions s’articulent autour des axes suivants : • Participer aux phases de Discovery ; • Prendre part dans les analyses techniques et les études d’impacts en amont des développements ; • Concevoir des solutions en respectant et en promouvant les bonnes pratiques de développements ; • Fournir des estimations concernant les futures réalisations (dans le cadre de la méthode SCRUM) • Réaliser les développements en suivant les bonnes pratiques de développement de l'entreprise. • Effectuer des contrôles croisés afin d’assurer la qualité des développements réalisés par l’équipe ; • Assurer le support de niveau 2 aux équipes d’homologation lors des phases de recette ; • Assurer le support lors des mises en production de chacune des évolutions ; • Assurer le maintien en condition opérationnelle des applications du périmètre. • Participer aux activités du Chapter Back End (développement de librairies transverses, partage de connaissances, développement de poc avec impact sur la squad et le Chapter) Les aptitudes requises : Compétences métiers/techniques : • Développement Back-End en JAVA 17/21 • Les frameworks JAVA communs tels que Spring (Web, Security, Boot...) • Connaissance et pratique d’Apache Kafka (Producer, Consumer). Les connaissances de Kafka Stream, Kafka Connect et du Schema Registry seront considérées comme un gros plus • Maitrise des API REST • Les modèles d’architectures Microservice • Connaissance et pratique de l’architecture hexagonale • Connaissance et pratique du TDD, BDD, Cucumber • Pratique de la sécurité des API • Serveur d'application Jetty, Tomcat et des technologies JEE • Utilisation des outils de CICD (Gitlab) et de contrôle de source (Git) • Utilisation de Docker et Kubernetes • Les bases de données et la modélisation (SQL, PostgreSQL, Oracle, MySQL, Hibernate) • Les méthodologies Agile (User story, backlog, cérémonies, etc …)
Mission freelance
Lead Dev Python - FastAPI
Publiée le
Apache Kafka
FastAPI
Python
12 mois
580-630 €
Paris, France
Télétravail partiel
Contexte du poste Nous recherchons un Tech Lead expérimenté pour encadrer une équipe de 4 personnes (2 développeurs et 2 QA) au sein d’un environnement agile et orienté produit. Le rôle exige un haut niveau d’expertise technique , en particulier autour de Python et FastAPI , avec une participation active au développement et aux revues de code. En étroite collaboration avec le Product Owner , le Tech Lead sera responsable de la définition des besoins fonctionnels et techniques, de la conception de l’architecture, ainsi que du découpage des tâches pour l’équipe. Il jouera également un rôle clé dans l’amélioration continue des pratiques d’ observabilité et de sécurité . Missions principales Encadrer et accompagner une équipe composée de 2 développeurs et 2 QA. Participer activement au développement backend en Python et intervenir directement sur le code. Assurer des revues de code rigoureuses pour maintenir un haut niveau de qualité. Travailler conjointement avec le Product Owner pour : définir les besoins, concevoir l’architecture technique, découper les tâches et prioriser les développements. Mettre en place et améliorer les solutions d’ observabilité (logs, métriques, traces, dashboards). Renforcer les bonnes pratiques de sécurité applicative et d’architecture. Garantir la qualité, la performance et la maintenabilité des composants techniques développés. Compétences techniques recherchées Maîtrise avancée de Python (expert). Excellente connaissance de FastAPI et de la conception d’API performantes. Expérience significative avec Kafka (publication/consommation, patterns d’event streaming). Connaissances solides en observabilité : monitoring (ex. Grafana), logs, métriques, traces distribuées. Sensibilité forte à la sécurité applicative et infrastructurelle . Pratique confirmée des revues de code et des bonnes pratiques d’ingénierie logicielle. Capacité avérée à encadrer une équipe technique , accompagner les développeurs et structurer les travaux. Profil recherché Tech Lead / avec au moins 5 à 7 ans d’expérience , dont au moins une expérience en tant que Tech Lead. Forte culture engineering, sens du détail et exigence sur la qualité du code. Bon relationnel, capacité à collaborer étroitement avec un Product Owner et les QA. Esprit d’analyse, structuré, orienté solution. Envie de faire monter l’équipe en compétence et de participer activement aux décisions technologiques.
Mission freelance
Ingénieur Big Data / Cloudera – Automatisation & Production (H/F)
Publiée le
Apache Kafka
3 ans
Île-de-France, France
Le service réalise le développement de l'ensemble des services BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L'expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : - L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l'administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants Environnement technique : Ansible Apache NiFi Hadoop (Big Data) Kafka Scripting (GuitHub, Ansible, AWX, shell, vba)
Mission freelance
Développeur Back-End API E-commerce (Java / Spring Boot / Kafka)
Publiée le
Apache Kafka
API REST
Java
250 jours
500-580 €
Châtillon, Île-de-France
Télétravail partiel
Développeur Back-End API E-commerce (Java / Spring Boot / Kafka) Contrainte forte : Environnement e-commerce Objectif global Développer et faire évoluer les API du périmètre e-commerce dans un contexte de modernisation de la plateforme. Livrables Développements back-end Conception technique Tests unitaires Compétences techniques attendues Java 11+ : niveau expert, impératif Spring Boot 2+ : niveau expert, impératif API RESTful : niveau expert, impératif Messaging / Kafka : niveau confirmé, important Français courant : impératif Description de mission Le consultant participera à l’ensemble du cycle de développement des API e-commerce. Ses principales activités seront : Développer de nouvelles API. Contribuer à l’amélioration des performances globales de la plateforme. Participer à la modernisation de l’architecture (adoption de nouvelles technologies, urbanisation du SI). Garantir la qualité du code et prendre part aux revues de code. Participer au RUN applicatif : monitoring, reporting, traitements récurrents. Rôle et responsabilités (référentiel Expert) Analyse Contribue à l’analyse fonctionnelle détaillée. Participe aux ateliers de définition des besoins et des spécifications. Étudie la faisabilité technique et réalise l’analyse détaillée. Contribue à l’estimation des charges. Conception et développement Participe au design logiciel et aux choix de frameworks. Réalise du prototypage si nécessaire. Analyse et développe les composants avec les langages appropriés. Contribue à la structuration des bases de données. Participe aux revues croisées des développements. Prépare le dossier d’exploitation pour la mise en production. Assemble les composants dans un package cohérent et gère la configuration. Documente les applications pour les futures évolutions et pour la MEP. Industrialise et harmonise les composants. Utilise et met à jour les composants logiciels réutilisables. Tests unitaires et intégration Rédige et exécute les tests unitaires. Identifie et corrige les dysfonctionnements. Vérifie la conformité du développement aux besoins exprimés. Contribue aux tests d’intégration et à leur préparation. Analyse les résultats et rédige le rapport de tests. Maintenance Réalise les développements liés à la maintenance corrective et évolutive. Participe à l’analyse et à la résolution des incidents de production.
Offre d'emploi
DATA ENGINEERING sur KAFKA
Publiée le
Apache Kafka
API REST
Elasticsearch
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Pour notre client dans le secteur bancaire, nous recherchons un expert Kafka : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Les principales technologies utilisees • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Mission freelance
Développeur C++ / Qt / QML
Publiée le
Apache Kafka
C/C++
QML
3 ans
400-550 €
Île-de-France, France
Télétravail partiel
Pour l’un de nos clients grand compte , nous recherchons un Développeur C++ expérimenté. Contexte et missions Développement et maintenance d’applications en C++ (14/17/20) Développement d’interfaces graphiques avec Qt 6.8 et QML Développements complémentaires en Python Participation à la conception, aux tests et à l’optimisation des performances Collaboration avec des équipes pluridisciplinaires (logiciel, système, QA) Environnement technique C++ 14 / 17 / 20 Qt 6.8 / QML Python Linux RedHat et Windows MySQL
Mission freelance
Développeur IAM avec une casquette fonctionnelle
Publiée le
Apache Kafka
Gitlab
Java
1 an
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Compétences techniques : Expérience en développement et support de solutions CIAM APIs et messagerie Kafka Protocoles d’authentification et d’autorisation : OIDC, SAML Technologies Front-end : HTML, JavaScript, CSS, Angular Technologies Back-end : Java, Spring Boot, CSS ou autres frameworks MVC Outils de CI/CD : GitLab Compétences appréciées (atout supplémentaire) Développement et support de la solution Transmit Compétences générales & aptitudes : Capacité à traduire les besoins métiers en solutions techniques Excellentes compétences en communication Rigueur, autonomie et sens de l’organisation Maîtrise de Scrum et des pratiques Agile Connaissance des processus ITIL, avec une expérience en tant que Product Owner ou Business Analyst appréciée
Mission freelance
Consultant ELK
Publiée le
Ansible
Apache Kafka
Kibana
3 ans
Île-de-France, France
Télétravail 100%
Contexte de la mission Le périmètre concerné couvre la gestion des flux de logs applicatifs et techniques au sein de notre infrastructure. Nous utilisons une chaîne de traitement basée sur les technologies Filebeat, Kafka, Logstash, Elasticsearch et Kibana. Nous avons besoin d’un renfort opérationnel capable de prendre en charge ces demandes de manière autonome, depuis la réception du besoin jusqu’à la mise en production. Détails de la prestation attendue La prestation consistera à : Recueillir et analyser les besoins d’ingestion exprimés par les équipes métiers ou techniques. Configurer et déployer les agents Filebeat sur les sources de logs identifiées. Assurer l’intégration des flux dans Kafka, en respectant les normes de structuration et de sécurité. Développer les pipelines Logstash pour le traitement et la transformation des données. Indexer les données dans Elastics. Créer ou adapter les dashboards Kibana pour permettre une visualisation efficace des données. Utilisation de Git pour la gestion des configurations Logstash et Filebeat. Déploiement automatisé via AWX, en respectant les procédures et les bonnes pratiques.
Offre premium
Offre d'emploi
Product Owner Apps Microsoft Office
Publiée le
Administration Windows
Déploiement
Gestion de projet
6 mois
55k-70k €
550-600 €
Seine-Saint-Denis, France
Télétravail partiel
Rôle : Product Owner Apps Microsoft Office Objectif de la mission : Assurer le pilotage opérationnel d’un produit du périmètre Office Apps et poste de travail : intégration, mise en service, documentation, support avancé, coordination technique et contribution à la roadmap. Responsabilités principales : • Superviser l’intégration du produit, les pré-requis à la mise en service et le passage en maintenance. • Réaliser le paramétrage initial et garantir la qualité des notices utilisateurs / mainteneurs. • Mettre à jour la documentation technique et identifier les besoins de montée en compétences. • Présenter les nouvelles fonctionnalités et maintenir la liste des produits. • Apporter une expertise aux équipes support N2/N3 en cas d’incidents majeurs. • Contribuer à la gestion des problèmes liés au produit. • Assurer la veille technique, l’interface avec les éditeurs et la participation à la roadmap. • Fournir un tableau de bord de santé du produit et participer aux comités de pilotage. Périmètre technique : • Office Apps : MCO et évolutions (Word, Excel, PowerPoint, Power BI Desktop…) sur PC et mobile. • Projet / Études : migration Office 32b→64b, Windows 10→11, étude déploiement Office via Cloud. • Ingénierie supplémentaire : solutions de « bridage de poste » (Windows Kiosk, SiteKiosk…). Livrables attendus : • Mise à jour du catalogue produit et coordination technique. • Suivi des études, projets et déploiements. • Homologation (tests, recettes) et validation sécurité. • Fiches de paramétrage et documentation technique / fonctionnelle. • Tableau de bord produit et contribution à la roadmap. • Gestion des incidents / problèmes et analyses associées.
Mission freelance
Product Owner API (h/f)
Publiée le
Agile Scrum
API REST
Microservices
1 an
480-600 €
Essonne, France
Télétravail partiel
Nous recherchons pour le compte d'un de nos clients dans le secteur du Tourisme un Product Owner Sénior APIs (h/f) Objectif : Piloter un produit backend stratégique (APIs REST/GraphQL & microservices) et assurer la gestion complète du backlog et des releases. Missions Gérer, prioriser et affiner le backlog technique. Préparer les sprints, définir les critères d’acceptation, animer les ateliers techniques. Étudier les API sources et accompagner les équipes (dev, QA, consommateurs). Piloter les releases : release notes, Go/NoGo, readiness, suivi des livraisons. Assurer la recette fonctionnelle et le support L3. Suivre la qualité en production et contribuer à la documentation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Création de site Wordpress : BIC ou BNC ?
- Quel logiciel de compta en ligne avez vous choisi et pourquoi ? Avec quel compte pro en ligne ?
- Passage sasu à eurl: transition mutuelle/prévoyance
- Meilleure banque pour compte pro
- Est ce que Indy est suffisant ?
959 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois