Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Développeur Java (Spring, MongoDB, Kafka)
Dans le cadre d'un assistance technique, pour l'un de nos clients se trouvant en métropole Lilloise nous sommes à la recherche d'un/d'une Développeur Java (Spring, MongoDB, Kafka) Vos missions au quotidien sont les suivantes: - Concevoir, développer et déployer des applications backend hautement évolutives en utilisant Java et le framework Spring. - Intégrer et gérer des bases de données NoSQL telles que MongoDB pour stocker et récupérer des données de manière efficace. - Mettre en place des pipelines de traitement des données en utilisant Apache Kafka pour assurer la fiabilité et la scalabilité de nos systèmes. - Collaborer avec d'autres membres de l'équipe pour concevoir des solutions techniques, résoudre des problèmes et optimiser les performances des applications. - Participer activement à l'amélioration continue de nos processus de développement, en proposant et en mettant en œuvre de nouvelles idées et meilleures pratiques. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Mission freelance
Architect KAFKA confluent
Dans le cadre de la création de l’équipe streaming basé sur la technologie KAFKA Confluent Cloud, nous recrutons un(e) Système Architecte Kafka confluent Cloud. En tant qu'Architecte Kafka sur Confluent, vous serez responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Vous travaillerez étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Ce rôle implique : L'accompagnement des équipes clientes IT dans la mise en œuvre des solutions liées à Kafka L’encadrement d’équipes techniques sur les projets L’accompagnement de nos équipes sur leur montée en compétences L’écriture des spécifications techniques en amont de la réalisation La validation des chiffrage projets Gestion de back log utilisant la méthode adaptée Le travail en étroite collaboration avec l’équipe IT Métier pour délivrer les projets selon les priorités stratégiques partagée Et, surtout, et créer un cadre de travail harmonieux et valoriser le travail des équipes de développements pour fédérer les meilleurs talents Expérience attendue Expérience dans le développement opérationnel de flux sous KAFKA Expérience significative sur la plateforme Confluent Expérience significative dans un environnement Agile/ Hybrid Expérience de management d’équipes de développeurs et de suivi du delivery Test unitaire/Compliance /Performance Documentation & procédures afin de facilité au support le Monitoring technico fonctionnel des interfaces/Jobs Expérience SAP (ECC & S4/HANA) serait apprécié Coordination avec l’équipe de DEV afin de délivrer un support N3.
Offre d'emploi
Architecte système Kafka Confluent
Responsabilités principales • Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. • Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. • Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. • Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. • Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. • Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. • Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. • Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent.
Offre d'emploi
Ingénieur devOps (spécialisé KAFKA) _ Sophia Antipolis / (H/F)
engIT recrute un ingénieur devOps (Kafka) pour intégrer les équipes transverses et middleware de notre partenaire leader mondial dans son secteur. Vous participerez à des projets où une infrastructure haute performance capable de supporter des volumes de données massif en temps réel est nécessaire. Principales responsabilités : Faire évoluer et concevoir des infrastructures Cloud (Kubernetes) Azure Utiliser les processus CI/CD Appréhender et concevoir une infrastructure répondant à des problématiques de haute disponibilité et architectures distribuées (Kafka) Monitorer la plateforme (Prometheus) Utiliser les outils d’infrastructure (Terraform, Ansible, etc.)
Mission freelance
Architecte Kafka confluent Cloud
Pour l'un de nos clients finaux sur Paris, nous sommes à la recherche d'un Système Architecte Kafka confluent Cloud. Démarrage dès que possible pour long terme. En tant qu'Architecte Kafka sur Confluent, vous serez responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Vous travaillerez étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Compétences et qualifications Diplôme en informatique, ingénierie ou domaine connexe. Expérience approfondie avec Apache Kafka et la plateforme Confluent. Expérience démontrée en architecture de solutions de données à grande échelle. Maîtrise des langages de programmation tels que Java, Scala ou Python. Connaissance approfondie des pratiques de sécurité des données et des architectures microservices. Excellentes compétences en communication, en présentation et en leadership. Ce rôle implique : L'accompagnement des équipes clientes IT dans la mise en œuvre des solutions liées à Kafka L’encadrement d’équipes techniques sur les projets L’accompagnement de nos équipes sur leur montée en compétences L’écriture des spécifications techniques en amont de la réalisation La validation des chiffrage projets Gestion de back log utilisant la méthode adaptée Le travail en étroite collaboration avec l’équipe IT Métier pour délivrer les projets selon les priorités stratégiques partagée Et, surtout, et créer un cadre de travail harmonieux et valoriser le travail des équipes de développements pour fédérer les meilleurs talents
Mission freelance
Architecte Système Kafka Confluent Cloud
Responsabilités principales : Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Outils : KAFKA toolset Programmation et scripting (Java, PL/SQL, SQL, Unix, etc) Job Scheduling / Ordonnanceur (OpCon) Database (SQL Server) Gestion de la demande et service incident (JIRA / SNOW)
Mission freelance
Systeme Architecte Kafka Confluent Cloud
Notre client dans le sectuer du Retail recherche un Sycteme Architecte Kafka pour une mission freelance de Longue duree (12 mois) . Dans le cadre de la création de l’équipe streaming basé sur la technologie KAFKA Confluent Cloud. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance... Compétences et qualifications Diplôme en informatique, ingénierie ou domaine connexe. Expérience approfondie avec Apache Kafka et la plateforme Confluent. Expérience démontrée en architecture de solutions de données à grande échelle
Mission freelance
Architecte Système KAFKA - CONFLUENT (h/f)
emagine recherche pour l’un de ces clients finaux : 1 architecte Système KAFKA CONFLUENCE Lieu : La Défense Démarrage : ASAP Durée : 6 mois minimum Prestation à temps plein en hybride Contexte : Dans le cadre de la création d’un équipe dédiée streaming basé sur la technologie KAFKA Confluent Cloud. Rôle: Etre responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Travailler étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données. Activités et responsabilités : Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation dans l'utilisation optimale de Kafka et Confluent. L'accompagnement des équipes clientes IT dans la mise en œuvre des solutions liées à Kafka L’encadrement d’équipes techniques sur les projets L’accompagnement de nos équipes sur leur montée en compétences L’écriture des spécifications techniques en amont de la réalisation La validation des chiffrage projets Gestion de back log utilisant la méthode adaptée Environnement technique : KAFKA toolset Programmation et scripting (Java, PL/SQL, SQL, Unix, etc) Job Scheduling / Ordonnanceur (OpCon) Database (SQL Server) Gestion de la demande et service incident (JIRA / SNOW) Expérience recquise : Expérience dans le développement opérationnel de flux sous KAFKA Expérience significative sur la plateforme Confluent Expérience significative dans un environnement Agile/ Hybrid Expérience de management d’équipes de développeurs et de suivi du delivery Test unitaire/Compliance /Performance Documentation & procédures afin de facilité au support le Monitoring technico fonctionnel des interfaces/Jobs Expérience SAP (ECC & S4/HANA) serait apprécié Coordination avec l’équipe de DEV afin de délivrer un support N3.
Offre d'emploi
Développeur Java Kafka
De nos jours, les transactions numériques prennent le dessus sur les paiements physiques. Les chèques sont de moins en moins courants et les espèces sont maintenant utilisées uniquement pour des petits achats. La forte augmentation des transactions numériques (paiements par smartphone, cartes, etc.) est portée par la digitalisation des moyens de paiement, d'une part par la virtualisation de la carte et dans le future, par les paiement A2A (Account to Account), où posséder une carte bancaire ne sera plus un pré-requis. Au sein du domaine des 'Paiements Particulier' vous intégrerez la squad wallet en tant que 'Ingenieur Software'
Offre d'emploi
Administrateur/Expert KAFKA
Contexte de la mission La mission aura lieu dans de la direction Data&IA dans l’entité data réseau qui est en charge de la big data pour le réseau. La mission se déroulera autour de trois axes principaux : · Administration des clusters Kafka · Support aux clients du cluster · Mise en place d’automatisation Objectifs et livrables Le candidat aura la charge d’administrer les clusters Kafka de la data réseau. Il y a actuellement 3 clusters Kafka à administrer, représentant plus de 15 nœuds et 1 million de transactions par secondes · Mettre en place la supervision des clusters · Réagir en cas d’alarme afin de limiter les impacts clients. · Effectuer les différents mis à jour de version. · Mettre en place et administrer les outils d’automatisation (mirrror, création de topic…) · Donner du support aux utilisateurs du cluster (Dev/Devops et équipe externe) · Mettre à disposition les nouvelles fonctionnalités nécessaires aux besoins (par exemple
Offre d'emploi
Java Kafka
Je suis à la recher d'un dev java kafka Responsabilités principales : Participer aux études d'impact et à la validation des solutions avec l'autorité de conception. Concevoir des frameworks génériques. Réaliser des tests unitaires et des tests croisés. Optimiser le code en réponse aux retours des revues. Coordonner les livraisons avec d'autres équipes. Analyser et résoudre les incidents applicatifs. Gérer les anomalies de tests et mettre à jour l'outil de suivi des demandes (Jira). Rédiger la documentation technique. Participer activement aux rituels Agile. Compétences requises : Maîtrise des méthodologies Agile. Compétences en conception de frameworks et en développement logiciel. Excellentes compétences en test unitaire et pair testing. Capacité à optimiser le code et à résoudre efficacement les problèmes. Bonne communication et travail en équipe. Compétences en documentation technique. Adaptabilité à un environnement en évolution.
Mission freelance
POT7816-Un consultant Spark/Kafka sur Tours
Almatek recherche pour l'un de ses clients, Un consultant Spark/Kafka sur Tours Il s’agit de participer à la migration de données hébergées sur une plateforme obsolète Hortonworks vers la solution cible. La mission comprend 3 activités principales : - Gestion de la plateforme actuelle Hortonworks 2.6 (run) - Construction de la plateforme cible sur openshift (build) - Préparation à la migration depuis Hortonworks vers openshift (build) Un membre de l’équipe participera également à ces mêmes activités Savoir-faire : - Maitrise de Kafka et Spark ,Hadoop Hive ,Kubernetes - Connaissance de la plateforme Hortonworks et du concept de Big Data - La connaissance d’openshift est un plus - Automatisation (python, shell, SQL, ansible) - Processus ITIL
Mission freelance
Développeur Java Fullstack expérimenté avec expertise Java et Springboot et Kafka (Y.A)
Concevoir et développer des fonctionnalités robustes et évolutives pour les applications en utilisant Java, avec une spécialisation marquée dans Spring Boot et Kafka. -Travailler en étroite collaboration avec les équipes de développement, les architectes logiciels et les responsables produit pour comprendre les exigences fonctionnelles et non fonctionnelles. - Mettre en œuvre des solutions intégrées basées sur des architectures modernes et des bonnes pratiques de développement.
Mission freelance
Expertise Elastic / Kafka
Dans le cadre de l’évolution de son système d’information nous recherchons un profil disposant de compétences avérées en matière d'expertise Kafka / Elastic pour développer, industrialiser et automatiser la plateforme Kafka / Elastic. -Assister et conseiller dans le choix et l’utilisation des méthodes - Informer sur les évolutions - Former aux nouvelles technologies et systèmes - Participer aux études et développement & conduite d’études ponctuelles - Gérer des normes, méthodes, outils et référentiels - Mettre en place les normes, méthodes et outils et en vérifie l'application - Certifier des composants et applications développées
Mission freelance
Expert Elastic / Kafka
Dans le cadre de l’évolution de son système d’information, notre client a émit le besoin de s’adjoindre l’expertise d’une ressource disposant de compétences avérées en matière d'expertise Kafka / Elastic pour développer, industrialiser et automatiser la plateforme Kafka / Elastic. Les prestations attendues seront les suivantes : Assistance et conseils dans le choix et l’utilisation des méthodes Partage d'informations sur les évolutions Réalisation de formations aux nouvelles technologies et systèmes Participation aux études et développement & conduite d’études ponctuelles Gestion des normes, méthodes, outils et référentiels Mise en place des normes, méthodes et outils. S'assurer de leur bonne application Certification des composants et applications développées
Offre d'emploi
Chef de projet MOE Big Data
La mission est le pilotage d’un projet stratégique en cours, projet de migration de la plateforme Cloudera CDH vers CDP. Dans ce cadre : Il faut avoir une expérience très significative en pilotage de projet. Connaitre les aspects batch et tps réel sur les outils Big Data, particulièrement Spark, HBASE et KAFKA, et API REST. Être capable de challenger le fournisseur de la nouvelle plateforme. Big Data 4 SPARK 3 HBASE 3 KAFKA 3 API REST 3 Le projet comporte 3 jours de TT et se situe dans le 94
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes