Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Data Engineering - TALEND / SPARK / SCALA / MSBI
💡 Contexte /Objectifs : L'entité a pour charge la maintenance, le support et l'évolution de l'outil concernant le pilotage financier de la banque, des directions centrales et de la facturation interne du groupe. Les outils sont basés sur les technologies Big Data pour le stockage, Talend et Spark/Scala pour les traitements, la suite MSBI SQL Server et cube SSAS pour l'analyse mutlidimensionnelle et enfin du Power BI pour la restitution. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone 2 - Livrables attendus Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des evolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets.
Mission freelance
POT7816-Un consultant Spark/Kafka sur Tours
Almatek recherche pour l'un de ses clients, Un consultant Spark/Kafka sur Tours Il s’agit de participer à la migration de données hébergées sur une plateforme obsolète Hortonworks vers la solution cible. La mission comprend 3 activités principales : - Gestion de la plateforme actuelle Hortonworks 2.6 (run) - Construction de la plateforme cible sur openshift (build) - Préparation à la migration depuis Hortonworks vers openshift (build) Un membre de l’équipe participera également à ces mêmes activités Savoir-faire : - Maitrise de Kafka et Spark ,Hadoop Hive ,Kubernetes - Connaissance de la plateforme Hortonworks et du concept de Big Data - La connaissance d’openshift est un plus - Automatisation (python, shell, SQL, ansible) - Processus ITIL
Mission freelance
Tech Lead Big Data Java Spark
Je recherche un Tech Lead Big Data – Expert Java - Spark : • Devenir le Pilier technique du socle Big Data en Java Spark pour aider les utilisateurs de différentes 6 squads à l’utiliser, répondre aux tickets, analyser les bugs et savoir coder les corrections et livrer (CI/CD Jenkins Maven) • Rôle orienté RUN mais quelques évolutions peuvent toujours intervenir, avec donc la capacité de comprendre le besoin fonctionnel et développer l’évolution • Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.
Offre d'emploi
Développeur Java Kafka
De nos jours, les transactions numériques prennent le dessus sur les paiements physiques. Les chèques sont de moins en moins courants et les espèces sont maintenant utilisées uniquement pour des petits achats. La forte augmentation des transactions numériques (paiements par smartphone, cartes, etc.) est portée par la digitalisation des moyens de paiement, d'une part par la virtualisation de la carte et dans le future, par les paiement A2A (Account to Account), où posséder une carte bancaire ne sera plus un pré-requis. Au sein du domaine des 'Paiements Particulier' vous intégrerez la squad wallet en tant que 'Ingenieur Software'
Mission freelance
DATA ENGINEER SPARK / SCALA
Bonjour, Pour le compte de notre client, nous recherchons un data engineer spark / scala. Mission : Livrables n 1 : Sprint n 1 + Lot 1 : développement des US et tests associés ; + Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d’exploitation ; + Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; + Lot 4 : Mise en place du monitoring ; LE PROFIL RECHERCHE Compétences métiers & outils : Les compétences technologiques attendues sont : + Indispensables : maîtrise de l’API Scala Spark (batch principalement), maîtrise des techniques d’optimisation Spark, expérience dans le traitement de volumétries importantes / complexes, développement et bonnes pratiques Scala, build Maven, travail en environnement cloud (idéalement Azure) + Appréciées : écosystème Databricks, développement d’API HTTP, expérience sur la stack ELK Compétences transverses + Aisance relationnelle + Esprit d’équipe et d’adaptabilité + Esprit de synthèse + Rigueur et esprit d’analyse + Autonomie + Force de proposition + Vous avez le sens des priorités et la capacité à gérer les délais + Vous aimez le travail en mode multi-projets + Appétence client, besoin métier et compréhension du fonctionnel + Mentoring et partage de connaissances
Mission freelance
développeur pyspark spark - 550€ max
Dans le cadre de la mise en place du projet Data Finance nous recherchons un data engineer confirmé. - Contexte : le projet Data Finance à pour objectif de mettre a disposition des données consolidé de différente source (base de données relationnelle, SAP , base de données Iaas) dans un modèle de donnée modélisé en Etoile a des fins d'analyse financier. - Environnement technique : Azure DataFactory, Databricks, Pyspark, SQL , Azure devops, Blob Storage. - Mission du candidat : Développer des pipeline d'ingestion des données dans le datalake avec datafctory Développer des flux de transformation de données via Python/spark/ Pyspark Databricks. Mettre en place des pipeline CICD azure devops Participé au re factoring du code existant Être garant de la qualité du code et le bon respect des norme de développement Mis en place des test unitaire. Mise en place du monitoring et de la supervision de l'application datafinance .
Offre d'emploi
Administrateur/Expert KAFKA
Contexte de la mission La mission aura lieu dans de la direction Data&IA dans l’entité data réseau qui est en charge de la big data pour le réseau. La mission se déroulera autour de trois axes principaux : · Administration des clusters Kafka · Support aux clients du cluster · Mise en place d’automatisation Objectifs et livrables Le candidat aura la charge d’administrer les clusters Kafka de la data réseau. Il y a actuellement 3 clusters Kafka à administrer, représentant plus de 15 nœuds et 1 million de transactions par secondes · Mettre en place la supervision des clusters · Réagir en cas d’alarme afin de limiter les impacts clients. · Effectuer les différents mis à jour de version. · Mettre en place et administrer les outils d’automatisation (mirrror, création de topic…) · Donner du support aux utilisateurs du cluster (Dev/Devops et équipe externe) · Mettre à disposition les nouvelles fonctionnalités nécessaires aux besoins (par exemple
Offre d'emploi
Java Kafka
Je suis à la recher d'un dev java kafka Responsabilités principales : Participer aux études d'impact et à la validation des solutions avec l'autorité de conception. Concevoir des frameworks génériques. Réaliser des tests unitaires et des tests croisés. Optimiser le code en réponse aux retours des revues. Coordonner les livraisons avec d'autres équipes. Analyser et résoudre les incidents applicatifs. Gérer les anomalies de tests et mettre à jour l'outil de suivi des demandes (Jira). Rédiger la documentation technique. Participer activement aux rituels Agile. Compétences requises : Maîtrise des méthodologies Agile. Compétences en conception de frameworks et en développement logiciel. Excellentes compétences en test unitaire et pair testing. Capacité à optimiser le code et à résoudre efficacement les problèmes. Bonne communication et travail en équipe. Compétences en documentation technique. Adaptabilité à un environnement en évolution.
Offre d'emploi
Data Engineer TALEND / SPARK / SCALA / MSBI H/F
La prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des évolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets
Offre d'emploi
Data Engineer Spark Senior
Analyse des Exigences : Collaborer avec les équipes métier pour comprendre les besoins en matière d'analyse de données et de traitement. Conception de Solutions : Concevoir des architectures de données et des solutions de traitement distribué en utilisant Apache Spark. Proposer des modèles de données adaptés aux cas d'utilisation spécifiques. Développement de Pipelines de Données : Développer des pipelines de données robustes et évolutifs en utilisant Apache Spark pour l'ingestion, le nettoyage, la transformation et la préparation des données. Utiliser Spark Streaming pour le traitement en temps réel des flux de données. Optimisation des Performances : Optimiser les performances des jobs Spark en ajustant les configurations, en utilisant des techniques de partitionnement et de cache, et en améliorant l'efficacité des transformations. Gestion des Versions : Utiliser des outils de contrôle de version pour gérer le code source et les artefacts des pipelines Spark. Tests et Validation : Élaborer des stratégies de test pour les pipelines Spark et mettre en œuvre des tests unitaires, d'intégration et de régression. Valider la qualité des données à différentes étapes du pipeline. Déploiement et Monitoring : Déployer les pipelines Spark sur des clusters de production et surveiller les performances en temps réel. Mettre en place des alertes pour détecter les problèmes de performance ou de disponibilité. Sécurité : Implémenter des mesures de sécurité pour protéger les données sensibles tout au long du pipeline. Utiliser des technologies telles que Kerberos, Ranger, ou des outils de chiffrement pour assurer la sécurité des données. Documentation : Documenter les pipelines de données, les flux de travail, les configurations et les bonnes pratiques. Créer des guides d'utilisation pour les autres membres de l'équipe et les utilisateurs finaux.
Mission freelance
Développeur Java Fullstack expérimenté avec expertise Java et Springboot et Kafka (Y.A)
Concevoir et développer des fonctionnalités robustes et évolutives pour les applications en utilisant Java, avec une spécialisation marquée dans Spring Boot et Kafka. -Travailler en étroite collaboration avec les équipes de développement, les architectes logiciels et les responsables produit pour comprendre les exigences fonctionnelles et non fonctionnelles. - Mettre en œuvre des solutions intégrées basées sur des architectures modernes et des bonnes pratiques de développement.
Mission freelance
développeur python spark
Package pyspark Documentation technique Compétences techniques PYTHON / PYSPARK / SPARK - Confirmé - Impératif Databricks/ datafactory/ azure devops - Confirmé - Impératif Integration GIT - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée Dans le cadre de la mise en place du projet Data Finance nous recherchons un data engineer confirmé. - Contexte : le projet Data Finance à pour objectif de mettre a disposition des données consolidé de différente source (base de données relationnelle, SAP , base de données Iaas) dans un modèle de donnée modélisé en Etoile a des fins d'analyse financier. - Environnement technique : Azure DataFactory, Databricks, Pyspark, SQL , Azure devops, Blob Storage. - Mission du candidat : Développer des pipeline d'ingestion des données dans le datalake avec datafctory Développer des flux de transformation de données via Python/spark/ Pyspark Databricks. Mettre en place des pipeline CICD azure devops Participé au re factoring du code existant Être garant de la qualité du code et le bon respect des norme de développement Mis en place des test unitaire. Mise en place du monitoring et de la supervision de l'application datafinance . - Compétences requises : - Une bonne maitrise SQL / Pyspark / SPARK. -Avoir au moins 4/5 ans d'expérience en tant que Data engineer / utilisation de databricks. - Une connaissance environnement Cloud (Microsoft Azure), GIT, Devops - Une bonne communication et être fort de proposition. - Connaissance des bonnes pratique de développement.
Mission freelance
Expertise Elastic / Kafka
Dans le cadre de l’évolution de son système d’information nous recherchons un profil disposant de compétences avérées en matière d'expertise Kafka / Elastic pour développer, industrialiser et automatiser la plateforme Kafka / Elastic. -Assister et conseiller dans le choix et l’utilisation des méthodes - Informer sur les évolutions - Former aux nouvelles technologies et systèmes - Participer aux études et développement & conduite d’études ponctuelles - Gérer des normes, méthodes, outils et référentiels - Mettre en place les normes, méthodes et outils et en vérifie l'application - Certifier des composants et applications développées
Mission freelance
développeur python spark
Dans le cadre des projets de l’équipe et de ses travaux de construction ou d’évolution : - Contribuer aux projets d’intégration d’entités dans le dispositif DDF Groupe - - Accompagner les entités du Groupe dans la construction ou l’optimisation de leur dispositif LCB/FT/Fraude Techniques - Développement langage de type SQL, Python, Spark : Expert - Bases de données : Expert - Analyse BI : Expert - Excel : Expert - Powerpoint : Requis Livrables attendus : - Cadrage et estimation des coûts et délais - Etude et documentation technique dont les spécifications - Développements et codes auditables - Cahier et PV recette auditables - Simulations et analyse détaillées auditables - Présentations des travaux et des résultats obtenus - Documents et tableaux de synthèse - Comptes rendus - Modes opératoires
Mission freelance
tech lead Spark/Scala
- Développement Spark/Scala et HIVE - Une bonne expertise des environnements hadoop- Environnement Anglophone 2 - Livrables attendus Les livrables attendus sont :- Revue de code et re-factoring - Projet agile (Scrum) - Traitement d'un gros volume de données - L'application des normes de développements 3 - Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après : Agile Scrum Hive PostGreSQL Python Scala Dans le cadre de cette prestation, le pourcentage d'exécution prévu hors site est de 60%
Mission freelance
Expert Elastic / Kafka
Dans le cadre de l’évolution de son système d’information, notre client a émit le besoin de s’adjoindre l’expertise d’une ressource disposant de compétences avérées en matière d'expertise Kafka / Elastic pour développer, industrialiser et automatiser la plateforme Kafka / Elastic. Les prestations attendues seront les suivantes : Assistance et conseils dans le choix et l’utilisation des méthodes Partage d'informations sur les évolutions Réalisation de formations aux nouvelles technologies et systèmes Participation aux études et développement & conduite d’études ponctuelles Gestion des normes, méthodes, outils et référentiels Mise en place des normes, méthodes et outils. S'assurer de leur bonne application Certification des composants et applications développées
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes