L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 904 résultats.
Offre d'emploi
QA - Solutions Monétiques Innovantes - Lyon (H/F)
EASY PARTNER
Publiée le
Bash
JIRA
Linux
50k-60k €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Notre entreprise, acteur majeur dans le secteur des technologies monétiques, est actuellement en pleine phase de réorganisation stratégique. Localisée à Lyon et rattachée à un groupe international, elle se concentre sur la relance et la croissance de ses activités, avec pour objectif d'accroître le chiffre d'affaires dans les années à venir. Dans cette optique, nous recherchons un(e) QA pour rejoindre notre équipe agile et dynamique. Vous serez le garant de la qualité de nos solutions, travaillant en étroite collaboration avec nos équipes de développement et de production. Vous serez le seul QA de l'équipe, ce qui nécessite un haut niveau d'autonomie et d'expertise. Missions Principales : - Conduire l'ensemble des activités QA, incluant la gestion des recettes fonctionnelles et métiers. - Définir, dérouler et optimiser les plans de test en utilisant des simulateurs de marché comme Galit et Canest. - Garantir la traçabilité et le suivi des anomalies détectées. Annexes : - Assurer le lien entre les équipes de développement et les phases d'habilitation. - Participer à l'évolution et à l'automatisation progressive des tests. - Collaborer étroitement avec les équipes techniques en cas d'incident chez le client.
Mission freelance
Assistance Informatique ( ITIL/Servicenow)
Codezys
Publiée le
CRM
ITIL
ServiceNow
12 mois
Le Mans, Pays de la Loire
Contexte de la mission Modalités : Localisation : Le Mans Budget prestataire : 440 euros Seniorité requise : Environ 5 ans d’expérience Objectifs et livrables Gestionnaire des formations pour les techniciens Front Office : Animation de sessions de formation pour des profils variés, avec la responsabilité de concevoir, dispenser, et maintenir les supports de formation (tels que le livret de formation, les questionnaires d’évaluation, et la matrice de compétences). Sensibilisation à la qualité du service client : Formation des techniciens sur la prise en charge des incidents et des demandes, afin d’instaurer une culture orientée client. Maintien opérationnel de la base de connaissances : Mise à jour et gestion des modèles de saisie dans l’outil ServiceNow, accessibles aux techniciens. Amélioration de la qualité de service : Évaluation et challenge sur deux axes principaux : La gestion des sollicitations utilisateurs : accueil, posture, utilisation des outils, consultation des bases de connaissances, diagnostic (incluant des méthodes comme la double écoute). La qualité des informations dans les tickets : organisation d’échanges en double écoute, sélection pertinente d’informations, et partage avec les groupes support pour identifier les difficultés et proposer des axes d’amélioration. Support opérationnel : Être le point de contact pour les techniciens Front Office, accompagnant dans la prise d’appels afin d’accroître le taux de résolution immédiate. Analyser les incidents unitaires pour proposer ou ajuster les processus, connaissances, et directives. Gestion des incidents majeurs : Participer à leur gestion en alertant la tour de contrôle, en activant un message ACD, et en transmettant les consignes aux techniciens concernés. Renfort en cas de besoin : Prendre en charge les appels pour soutenir l’équipe lors des pics d’activité ou des absences imprévues, tout en consolidant votre expertise technique sur le périmètre défini.
Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics
Ela Technology
Publiée le
Machine Learning
Python
SQL
6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude
Offre d'emploi
Data Engineer AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
249332/Développeur Angular expérimenté - Annecy
WorldWide People
Publiée le
Angular
3 mois
320-370 €
Annecy, Auvergne-Rhône-Alpes
Développeur Angular expérimenté - Annecy Contribuer au développement de parcours Créer des interfaces utilisateurs ergonomiques, interactives et sécurisées. Comprendre les besoins spécifiques (sécurité, confidentialité). Participer à l’analyse des besoins, la conception, le développement et les tests unitaires. Collaborer avec l’équipe pour résoudre les problèmes et optimiser les performances. Construire un projet Angular from scratch en appliquant les bonnes pratiques. Travailler en mode Agile : participation aux cérémonies (planning, rétro, revue de code). Mettre à profit une expertise Angular, NodeJS, Web Components. Intégrer des interfaces web en HTML / CSS. Communiquer efficacement et partager ses connaissances au sein de l’équipe. Faire preuve d’un bon relationnel et d’une capacité avérée à travailler en équipe pluridisciplinaire. Compétences demandéesCompétences Niveau de compétence ANGULAR Expert
Mission freelance
Développeur API - Expert Python / FastAPI
Codezys
Publiée le
Angular
API
Azure
12 mois
Paris, France
Principales missions Collaborer avec les équipes d'infrastructure en tant qu' expert en développement Python et FastAPI , pour concevoir, développer, et déployer des APIs de gestion des infrastructures. Participer à la migration vers des solutions cibles API et mettre en œuvre des mesures pour garantir la stabilité et la performance des services. Intégrer des outils DEVOPS tels que XLR, Jenkins, Bitbucket et Artifactory dans le processus de développement. Réaliser des tests unitaires et de non-régression pour assurer la qualité et la fiabilité des APIs développées. Contribuer à l' amélioration continue des pratiques de développement, notamment en matière de performance et de disponibilité. Ce que nous attendons de vous Nous recherchons des experts passionnés disposant d'une solide expérience en développement Python et FastAPI . La connaissance d'outils tel qu' Ansible et Angular sera considérée comme un plus. La maîtrise des concepts CI/CD et une sensibilité à la sécurité des développements sont essentielles. Vous devrez faire preuve d' adaptabilité et d' esprit collaboratif pour travailler efficacement avec diverses équipes. Une expertise approfondie en tests (unitaires, non-régression) et une approche orientée résultats seront fondamentales. Enfin, votre capacité à communiquer et à transmettre vos connaissances sera cruciale pour aider nos équipes à atteindre leur autonomie dans le développement d'APIs. Objectifs et livrables Réaliser des APIs permettant d'accéder aux services internes, tout en respectant les exigences de performance et de sécurité . Définir les nouvelles APIs en collaboration avec les équipes métiers et d'architecture . Développer et maintenir des APIs utilisant des technologies telles que Java, Maven, RAML, Anypoint . Créer les tests unitaires et d' intégration associés à chaque API. Déployer les APIs sur différents environnements , en assurant leur fiabilité et leur conformité aux normes en vigueur.
Mission freelance
Chef de projets Événements – Médias
Cherry Pick
Publiée le
HTML5
Marketing
Responsive Web Design
12 mois
300-350 €
Paris, France
Missions principales Organisation et coordination de la distribution d’événements d’actualité (sport, culture, info) sur les environnements numériques, sites, applications et pages sociales. Mise en place et suivi des comités de projet : rédaction des comptes rendus, listes d’actions et points d’alerte. Coordination des parties prenantes internes et externes : équipes éditoriales, produit, techniques, marketing, data, partenaires de distribution. Mutualisation des informations et bonnes pratiques avec les rédactions et équipes produit. Proposition de dispositifs éditoriaux adaptés à chaque plateforme (extraits courts, directs, vidéos longues…). Travail avec journalistes, community managers, graphistes, éditeurs vidéo pour livrables : expression de besoins, spécifications éditoriales, visuels, documents de recette, planning et comptes rendus. Production de bilans, présentations, procédures et post-mortem. Veille éditoriale, technologique et benchmark. Compétences techniques et expertise Requises : Gestion de projets numériques multi-support dans les médias et l’information (références de réalisations attendues). Maîtrise de la formalisation et production des documents nécessaires à la coordination d’événements numériques. Connaissance approfondie des produits numériques et de l’amélioration fonctionnelle continue. Gestion de projets transverses avec coordination éditoriale et technique. Capacités de synthèse, médiation, communication et résolution de problèmes. Expertise réseaux sociaux et dispositifs d’acquisition de trafic. Connaissance du secteur de l’actualité générale, sportive et culturelle. Appréciées : Technologies web : HTML5, responsive design, web app, ergonomie mobile. Méthodologies Agile pour le design et le développement de produits numériques. Webmarketing et SEO. Pack Office et analyse de données.
Mission freelance
Generative AI Engineer (H/F) 92
Mindquest
Publiée le
Amazon S3
AWS Cloud
Python
3 mois
La Défense, Île-de-France
Développement IA / Computer Vision: - Concevoir et développer de nouveaux cas d’usage en vision par ordinateur : - Détection de corrosion - Segmentation 2D/3D - Classification d’anomalies - Améliorer les performances et la robustesse des modèles existants MLOps & Industrialisation: - Concevoir et déployer une infrastructure MLOps complète sur AWS - Structurer et automatiser les pipelines de Machine Learning : - Entraînement - Validation - Versioning - Déploiement - Mettre en place le suivi des expérimentations et la gestion des modèles - Définir et appliquer les bonnes pratiques d’industrialisation : - CI/CD - Monitoring des modèles - Gestion des versions Gestion des données: - Gérer et structurer les datasets d’images 2D/3D issus des drones - Contribuer à l’amélioration continue de la qualité des données Collaboration transverse: - Travailler en étroite collaboration avec les équipes techniques et métiers - Assurer la cohérence technique et fonctionnelle des solutions développées
Offre d'emploi
Superviseur Business Intelligence - Data Analyst F/H (H/F)
█ █ █ █ █ █ █
Publiée le
CI/CD
DevOps
Figma
Puteaux, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Ingénieur Intégration & Maintenance IP/MPLS
UMANTIC
Publiée le
55k-60k €
Noisy-le-Grand, Île-de-France
Dans le cadre d'une mission de longue durée au sein de la RATP, Umantic Technologies recherche un Ingénieur Intégration & Maintenance IP/MPLS expérimenté pour renforcer l'équipe chargée du support à l'exploitation du coeur de réseau MPLS et des infrastructures physiques télécom. Le candidat sera intégré dans une équipe de vingt personnes pilotée par un Responsable garant du Maintien en Conditions Opérationnelles (MCO) du coeur de réseau et de l'infrastructure physique télécom de la RATP. Cette équipe couvre à la fois le support à l'exploitation quotidienne et le support aux projets d'évolution du réseau. La mission se déroule sur le site de Noisy-le-Grand, avec une organisation permettant deux jours de télétravail par semaine. Le réseau de la RATP étant un réseau critique au service des transports en commun franciliens, le poste implique un haut niveau d'exigence en matière de disponibilité, de rigueur opérationnelle et de réactivité. L'ingénieur aura en charge les activités suivantes : Maintenance et exploitation Il assure le MCO des équipements IP/MPLS déployés en production, comprenant notamment les équipements Nokia et Cisco. Il prend en charge l'analyse et la résolution des incidents réseau de niveaux 2 et 3, réalise les opérations de maintenance préventive et corrective, et supervise la disponibilité et les performances des infrastructures via les outils de monitoring en place. Il peut être amené à participer aux astreintes et aux interventions planifiées hors horaires ouvrés selon le planning de l'équipe. Intégration et déploiement Il intègre et configure les équipements réseau, aussi bien sur la gamme Nokia (SR OS : 7750 SR, 7210 SAS, 7450 ESS) que sur les plateformes Cisco (ASR, NCS, séries sous IOS-XE et IOS-XR). Il réalise les travaux d'intégration LAN, incluant le déploiement de VLANs, la configuration du spanning tree (STP/RSTP/MSTP) et la mise en oeuvre de l'agrégation de liens (LACP / 802.3ad). Il rédige et exécute les procédures d'installation, de recette et de mise en production, et contribue activement aux projets d'évolution du réseau (montées de version logicielle, remplacement d'équipements, extensions de capacité). Support et documentation En qualité de référent technique, il apporte son support aux équipes opérationnelles et aux chefs de projet, participe aux comités techniques et contribue aux revues d'architecture.
Offre d'emploi
Data Engineer – Cloudera CDP & Data Services (OpenShift)
Craftman data
Publiée le
Apache Spark
CI/CD
Cloudera
8 mois
40k-45k €
400-500 €
Paris, France
Description du poste Dans le cadre de la mise en place et de l’évolution de sa plateforme data, l’entreprise recherche un Data Engineer spécialisé sur l’écosystème CDP, évoluant dans un environnement conteneurisé OpenShift. Au sein de l’équipe data, le collaborateur conçoit, développe et optimise les pipelines de traitement de données. Il intervient sur l’ensemble du cycle de vie de la donnée, depuis son ingestion jusqu’à sa mise à disposition pour les usages analytiques et métiers. Il contribue activement à la fiabilité, à la performance et à la scalabilité des traitements dans un environnement distribué. Missions principales Le Data Engineer conçoit et développe des pipelines de données robustes et performants en s’appuyant sur les services CDP et les frameworks de traitement distribué. Il met en œuvre des processus d’ingestion de données provenant de différentes sources (bases de données, APIs, flux temps réel) et garantit leur qualité. Il développe et optimise des traitements batch et streaming à l’aide d’outils tels que Spark, Hive ou autres composants de l’écosystème Hadoop. Il exploite les CDP Data Services, notamment Data Engineering et Data Warehouse, pour industrialiser les traitements et faciliter l’accès aux données. Il collabore avec les équipes data science, BI et métiers afin de comprendre les besoins et de proposer des solutions adaptées. Il participe à la structuration et à la modélisation des données en définissant des schémas optimisés pour l’analyse. Il veille à la qualité des données en mettant en place des contrôles, des tests et des mécanismes de monitoring. Responsabilités techniques Le Data Engineer développe des workflows de traitement dans un environnement CDP Private Cloud (PVC) en s’appuyant sur des outils comme Spark et Hive. Il déploie et exécute ses traitements dans un environnement OpenShift via les CDP Data Services, en garantissant leur bon fonctionnement et leur scalabilité. Il optimise les performances des jobs en travaillant sur la gestion des ressources, le partitionnement des données et l’optimisation des requêtes. Il met en œuvre des bonnes pratiques de développement (versioning, tests, documentation) et participe à l’automatisation des déploiements. Il assure la gestion des dépendances et l’orchestration des traitements à l’aide d’outils adaptés. Compétences requises Le candidat possède une expérience significative en data engineering, idéalement dans un environnement CDP. Il maîtrise les frameworks de traitement distribué, notamment Apache Spark, ainsi que les outils de requêtage comme Hive ou Impala. Il a une bonne compréhension des architectures big data et des systèmes distribués. Il est à l’aise avec les environnements conteneurisés, notamment OpenShift ou Kubernetes. Il maîtrise au moins un langage de programmation utilisé en data engineering (Python, Scala ou Java). Il possède des compétences en modélisation de données et en optimisation des performances. Une connaissance des pratiques DevOps et des outils d’intégration continue constitue un atout. Profil recherché Le poste s’adresse à un profil curieux, autonome et orienté solution, capable de travailler dans un environnement technique exigeant. Le candidat sait faire preuve de rigueur dans la gestion de la qualité des données et possède un bon esprit d’équipe. Il est capable de communiquer efficacement avec des interlocuteurs techniques et métiers. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Engineering, Data Warehouse) OpenShift / Kubernetes Apache Spark, Hive, Impala / Hadoop ecosystem (HDFS) / Python / Scala / Java Outils d’orchestration et de CI/CD / Linux
Offre d'emploi
Développeur Apex Salesforce / Release Manager
Peppermint Company
Publiée le
Apex
Développement
Salesforce
12 mois
Île-de-France, France
Localisation Charenton-le-Pont Présence attendue sur site selon le rythme d’équipe, avec un cadre habituel de 2 jours minimum sur site par semaine , et environ 30 jours par trimestre . Contexte Dans le cadre du renforcement d’une équipe Salesforce d’environ vingt personnes, nous recherchons un profil capable d’intervenir à la fois sur le développement Apex Salesforce et sur un rôle de Release Manager . L’équipe est pluridisciplinaire et réunit des profils de business analysis, pilotage, scrum, développement Salesforce et intégration avec le reste du SI. Elle fonctionne dans un environnement très agile , dynamique et collaboratif, avec une forte culture d’équipe et de qualité de delivery. Le poste s’inscrit dans une logique où chacun contribue au build comme au run, avec une rotation sur le traitement des incidents afin de maintenir un lien concret avec la production et les usages terrain. Missions principales Au sein de l’équipe, vous interviendrez sur deux volets complémentaires. 1. Développement Salesforce / Apex Vous participez aux évolutions de la plateforme Salesforce en veillant à privilégier autant que possible les standards et à limiter le spécifique aux besoins indispensables. À ce titre, vous serez amené à : concevoir et développer des fonctionnalités sur Salesforce, principalement en Apex contribuer à la qualité technique des développements respecter les bonnes pratiques de maintenabilité et de robustesse participer aux phases de test et de sécurisation des évolutions intervenir ponctuellement sur le run et le traitement des incidents dans le cadre de la rotation d’équipe 2. Release Management Vous prenez en charge la préparation opérationnelle des mises en production, avec une fréquence de release d’environ une toutes les trois semaines . À ce titre, vous serez responsable de : consolider et gérer les branches préparer les packages de déploiement gérer les dépendances sécuriser les contenus avant mise en production coordonner les étapes de préparation de version avant livraison fiabiliser les releases, notamment lors des livraisons les plus complexes appliquer et faire respecter une démarche rigoureuse de versioning et de préparation des livrables Le rôle de release management ne représente pas un temps plein, mais nécessite une vraie méthode , de la rigueur et une capacité à absorber les pics de charge avant livraison.
Mission freelance
101375/Développeur front-end avec React et TypeScript (back-end avec Node.js et NestJS) FULL REMOTE
WorldWide People
Publiée le
React
9 mois
400-620 €
France
Développeur front-end avec React et TypeScript (back-end avec Node.js et NestJS) FULL REMOTE Mission de conception, développement et industrialisation d'applications web critiques conformes aux normes GxP (contexte pharmaceutique). Attention : Le CV doit être soumis en anglais. Mission entièrement à distance, sans présence sur site requise. Tâches principales demandées : • Développement front-end avec React et TypeScript • Développement back-end avec Node.js et NestJS • Conception et implémentation d'API REST et de spécifications OpenAPI • Développement de tests unitaires, d'intégration et de bout en bout (Jest, Cypress) • Contribution à la documentation, aux revues de code et aux pipelines CI/CD • Participation active aux activités de validation des systèmes informatiques (CSV) Compétences requises : • 6 à 8 ans d'expérience avec React • Maîtrise de l'anglais technique • Solide expertise en TypeScript, Node.js et NestJS • Solide expertise en développement front-end et back-end • Connaissance des réglementations GxP et des processus de validation • Expérience en CI/CD, sécurité des applications et OAuth2/OIDC Compétences appréciées • Familiarité avec les plateformes cloud (Azure, AWS ou GCP) • Expérience avec Kubernetes, Docker et Terraform • Connaissance de GraphQL, Kafka et des frameworks d'observabilité (OpenTelemetry) Livrables attendus • Code propre, maintenable, bien testé et bien documenté • Documentation d'architecture (modèles C4, ADR) • Livrables de validation (URS, FS/DS, RTM, VP, rapports de test)
Mission freelance
Développeur back end PHP / Symphony
Next Mondays
Publiée le
PHP
6 mois
400-500 €
Paris, France
Dans un contexte de transition, vous interviendrez sur la modernisation d’une plateforme existante. Les enjeux principaux sont : - amélioration des performances - optimisation SEO - mise en place de bonnes pratiques de développement - automatisation des tests - A/B testing Vous participerez activement à la conception et au développement de nouvelles fonctionnalités, tout en contribuant à l’amélioration continue de l’existant. Vous serez également attendu sur votre capacité à structurer, proposer et partager, dans un environnement où les soft skills sont clés.
Mission freelance
Développeur React/PHP confirmé React, PHP,Git, Jira Nantes ( 4 jours de télétravail)/du
WorldWide People
Publiée le
PHP
React
12 mois
350-370 €
Nantes, Pays de la Loire
Développeur React/PHP confirmé React, PHP,Git, Jira Nantes ( 4 jours de télétravail) ASAP 1 an Nantes ( 4 jours de télétravail) React, PHP,Git, Jira Conception Développement d'évolutions Tests Nous recherchons un développeur confirmé sur du React (3-4 ans d'expérience minimum). La maitrise de PHP est également attendue. Développeur React/PHP confirmé ASAP 1 an Nantes ( 4 jours de télétravail) React, PHP,Git, Jira Conception Développement d'évolutions Tests Nous recherchons un développeur confirmé sur du React (3-4 ans d'expérience minimum). La maitrise de PHP est également attendue.
Offre d'emploi
Développeur Kafka Confluent (H/F)
SAS GEMINI
Publiée le
Apache Kafka
Azure
DevOps
24 mois
La Défense, Île-de-France
Au sein de la DSI d’un grand groupe industriel international, vous intégrez une équipe Data & Streaming en charge de la conception et de l’exploitation de la plateforme de streaming de données temps réel. L’environnement technique est centré sur Apache Kafka (Confluent Platform) déployé sur Microsoft Azure. Missions principales: - Concevoir, développer et maintenir les pipelines de streaming de données basés sur Apache Kafka (Confluent Platform) sous Azure - Assurer la mise en place et l’administration des clusters Kafka : topics, partitions, consumers, connecteurs (Kafka Connect) - Développer des applications de traitement en temps réel avec Kafka Streams ou ksqlDB - Implémenter et gérer les schémas de données via le Schema Registry (Avro, Protobuf, JSON Schema) - Participer à la mise en place de patterns d’intégration événementielle (Event-Driven Architecture) - Monitorer les performances et la fiabilité des flux Kafka (Confluent Control Center, Grafana, Azure Monitor) - Collaborer avec les équipes Data Engineering, DevOps et Architecture dans un contexte Agile - Rédiger la documentation technique en anglais
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2904 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois