Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 549 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Data Engineering - TALEND / SPARK / SCALA / MSBI

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Microsoft Power BI

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'entité a pour charge la maintenance, le support et l'évolution de l'outil concernant le pilotage financier de la banque, des directions centrales et de la facturation interne du groupe. Les outils sont basés sur les technologies Big Data pour le stockage, Talend et Spark/Scala pour les traitements, la suite MSBI SQL Server et cube SSAS pour l'analyse mutlidimensionnelle et enfin du Power BI pour la restitution. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone 2 - Livrables attendus Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des evolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets.

Freelance

Mission freelance
POT7816-Un consultant Spark/Kafka sur Tours

Almatek
Publiée le
Python

3 mois
100-350 €
Tours, Centre-Val de Loire

Almatek recherche pour l'un de ses clients, Un consultant Spark/Kafka sur Tours Il s’agit de participer à la migration de données hébergées sur une plateforme obsolète Hortonworks vers la solution cible. La mission comprend 3 activités principales : - Gestion de la plateforme actuelle Hortonworks 2.6 (run) - Construction de la plateforme cible sur openshift (build) - Préparation à la migration depuis Hortonworks vers openshift (build) Un membre de l’équipe participera également à ces mêmes activités Savoir-faire : - Maitrise de Kafka et Spark ,Hadoop Hive ,Kubernetes - Connaissance de la plateforme Hortonworks et du concept de Big Data - La connaissance d’openshift est un plus - Automatisation (python, shell, SQL, ansible) - Processus ITIL

Freelance

Mission freelance
Tech Lead Big Data Java Spark

Cogigroup
Publiée le
Apache Spark
Java

3 mois
100-440 €
Paris, France

Je recherche un Tech Lead Big Data – Expert Java - Spark : • Devenir le Pilier technique du socle Big Data en Java Spark pour aider les utilisateurs de différentes 6 squads à l’utiliser, répondre aux tickets, analyser les bugs et savoir coder les corrections et livrer (CI/CD Jenkins Maven) • Rôle orienté RUN mais quelques évolutions peuvent toujours intervenir, avec donc la capacité de comprendre le besoin fonctionnel et développer l’évolution • Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.

CDI

Offre d'emploi
Développeur Java Kafka

CAT-AMANIA
Publiée le
Apache Kafka
Domain Driven Design (DDD)
Java

10k-51k €
Montreuil, Île-de-France

De nos jours, les transactions numériques prennent le dessus sur les paiements physiques. Les chèques sont de moins en moins courants et les espèces sont maintenant utilisées uniquement pour des petits achats. La forte augmentation des transactions numériques (paiements par smartphone, cartes, etc.) est portée par la digitalisation des moyens de paiement, d'une part par la virtualisation de la carte et dans le future, par les paiement A2A (Account to Account), où posséder une carte bancaire ne sera plus un pré-requis. Au sein du domaine des 'Paiements Particulier' vous intégrerez la squad wallet en tant que 'Ingenieur Software'

Freelance

Mission freelance
DATA ENGINEER SPARK / SCALA

UCASE CONSULTING
Publiée le
Apache Spark
Scala

3 ans
100-600 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer spark / scala. Mission : Livrables n 1 : Sprint n 1 + Lot 1 : développement des US et tests associés ; + Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d’exploitation ; + Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; + Lot 4 : Mise en place du monitoring ; LE PROFIL RECHERCHE Compétences métiers & outils : Les compétences technologiques attendues sont : + Indispensables : maîtrise de l’API Scala Spark (batch principalement), maîtrise des techniques d’optimisation Spark, expérience dans le traitement de volumétries importantes / complexes, développement et bonnes pratiques Scala, build Maven, travail en environnement cloud (idéalement Azure) + Appréciées : écosystème Databricks, développement d’API HTTP, expérience sur la stack ELK Compétences transverses + Aisance relationnelle + Esprit d’équipe et d’adaptabilité + Esprit de synthèse + Rigueur et esprit d’analyse + Autonomie + Force de proposition + Vous avez le sens des priorités et la capacité à gérer les délais + Vous aimez le travail en mode multi-projets + Appétence client, besoin métier et compréhension du fonctionnel + Mentoring et partage de connaissances

Freelance

Mission freelance
développeur pyspark spark - 550€ max

Innov and Co
Publiée le
Apache Spark
PySpark
Python

12 mois
100-550 €
Boulogne-Billancourt, Île-de-France

Dans le cadre de la mise en place du projet Data Finance nous recherchons un data engineer confirmé. - Contexte : le projet Data Finance à pour objectif de mettre a disposition des données consolidé de différente source (base de données relationnelle, SAP , base de données Iaas) dans un modèle de donnée modélisé en Etoile a des fins d'analyse financier. - Environnement technique : Azure DataFactory, Databricks, Pyspark, SQL , Azure devops, Blob Storage. - Mission du candidat : Développer des pipeline d'ingestion des données dans le datalake avec datafctory Développer des flux de transformation de données via Python/spark/ Pyspark Databricks. Mettre en place des pipeline CICD azure devops Participé au re factoring du code existant Être garant de la qualité du code et le bon respect des norme de développement Mis en place des test unitaire. Mise en place du monitoring et de la supervision de l'application datafinance .

CDI
Freelance

Offre d'emploi
Administrateur/Expert KAFKA

CONSULT IT
Publiée le
Apache Kafka
Clustering

3 mois
10k-60k €
Paris, France

Contexte de la mission La mission aura lieu dans de la direction Data&IA dans l’entité data réseau qui est en charge de la big data pour le réseau. La mission se déroulera autour de trois axes principaux : · Administration des clusters Kafka · Support aux clients du cluster · Mise en place d’automatisation Objectifs et livrables Le candidat aura la charge d’administrer les clusters Kafka de la data réseau. Il y a actuellement 3 clusters Kafka à administrer, représentant plus de 15 nœuds et 1 million de transactions par secondes · Mettre en place la supervision des clusters · Réagir en cas d’alarme afin de limiter les impacts clients. · Effectuer les différents mis à jour de version. · Mettre en place et administrer les outils d’automatisation (mirrror, création de topic…) · Donner du support aux utilisateurs du cluster (Dev/Devops et équipe externe) · Mettre à disposition les nouvelles fonctionnalités nécessaires aux besoins (par exemple

CDI
Freelance

Offre d'emploi
Java Kafka

HEPTASYS
Publiée le
Apache Kafka
Java

1 an
40k-200k €
Lille, Hauts-de-France

Je suis à la recher d'un dev java kafka Responsabilités principales : Participer aux études d'impact et à la validation des solutions avec l'autorité de conception. Concevoir des frameworks génériques. Réaliser des tests unitaires et des tests croisés. Optimiser le code en réponse aux retours des revues. Coordonner les livraisons avec d'autres équipes. Analyser et résoudre les incidents applicatifs. Gérer les anomalies de tests et mettre à jour l'outil de suivi des demandes (Jira). Rédiger la documentation technique. Participer activement aux rituels Agile. Compétences requises : Maîtrise des méthodologies Agile. Compétences en conception de frameworks et en développement logiciel. Excellentes compétences en test unitaire et pair testing. Capacité à optimiser le code et à résoudre efficacement les problèmes. Bonne communication et travail en équipe. Compétences en documentation technique. Adaptabilité à un environnement en évolution.

CDD
Freelance
CDI

Offre d'emploi
Data Engineer TALEND / SPARK / SCALA / MSBI H/F

SMARTPOINT
Publiée le
Apache Spark
Scala
Talend

3 ans
55k €
Paris, France

La prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des évolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets

Freelance
CDI

Offre d'emploi
Data Engineer Spark Senior

KLETA
Publiée le
Apache Spark
Spark Streaming

3 ans
10k-73k €
Paris, France

Analyse des Exigences : Collaborer avec les équipes métier pour comprendre les besoins en matière d'analyse de données et de traitement. Conception de Solutions : Concevoir des architectures de données et des solutions de traitement distribué en utilisant Apache Spark. Proposer des modèles de données adaptés aux cas d'utilisation spécifiques. Développement de Pipelines de Données : Développer des pipelines de données robustes et évolutifs en utilisant Apache Spark pour l'ingestion, le nettoyage, la transformation et la préparation des données. Utiliser Spark Streaming pour le traitement en temps réel des flux de données. Optimisation des Performances : Optimiser les performances des jobs Spark en ajustant les configurations, en utilisant des techniques de partitionnement et de cache, et en améliorant l'efficacité des transformations. Gestion des Versions : Utiliser des outils de contrôle de version pour gérer le code source et les artefacts des pipelines Spark. Tests et Validation : Élaborer des stratégies de test pour les pipelines Spark et mettre en œuvre des tests unitaires, d'intégration et de régression. Valider la qualité des données à différentes étapes du pipeline. Déploiement et Monitoring : Déployer les pipelines Spark sur des clusters de production et surveiller les performances en temps réel. Mettre en place des alertes pour détecter les problèmes de performance ou de disponibilité. Sécurité : Implémenter des mesures de sécurité pour protéger les données sensibles tout au long du pipeline. Utiliser des technologies telles que Kerberos, Ranger, ou des outils de chiffrement pour assurer la sécurité des données. Documentation : Documenter les pipelines de données, les flux de travail, les configurations et les bonnes pratiques. Créer des guides d'utilisation pour les autres membres de l'équipe et les utilisateurs finaux.

Freelance

Mission freelance
Développeur Java Fullstack expérimenté avec expertise Java et Springboot et Kafka (Y.A)

Signe +
Publiée le
Java
Springboot

8 mois
400-420 €
Grenoble, Auvergne-Rhône-Alpes

Concevoir et développer des fonctionnalités robustes et évolutives pour les applications en utilisant Java, avec une spécialisation marquée dans Spring Boot et Kafka. -Travailler en étroite collaboration avec les équipes de développement, les architectes logiciels et les responsables produit pour comprendre les exigences fonctionnelles et non fonctionnelles. - Mettre en œuvre des solutions intégrées basées sur des architectures modernes et des bonnes pratiques de développement.

Freelance

Mission freelance
développeur python spark

Innov and Co
Publiée le
Databricks
PySpark
Python

12 mois
100-540 €
Boulogne-Billancourt, Île-de-France

Package pyspark Documentation technique Compétences techniques PYTHON / PYSPARK / SPARK - Confirmé - Impératif Databricks/ datafactory/ azure devops - Confirmé - Impératif Integration GIT - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée Dans le cadre de la mise en place du projet Data Finance nous recherchons un data engineer confirmé. - Contexte : le projet Data Finance à pour objectif de mettre a disposition des données consolidé de différente source (base de données relationnelle, SAP , base de données Iaas) dans un modèle de donnée modélisé en Etoile a des fins d'analyse financier. - Environnement technique : Azure DataFactory, Databricks, Pyspark, SQL , Azure devops, Blob Storage. - Mission du candidat : Développer des pipeline d'ingestion des données dans le datalake avec datafctory Développer des flux de transformation de données via Python/spark/ Pyspark Databricks. Mettre en place des pipeline CICD azure devops Participé au re factoring du code existant Être garant de la qualité du code et le bon respect des norme de développement Mis en place des test unitaire. Mise en place du monitoring et de la supervision de l'application datafinance . - Compétences requises : - Une bonne maitrise SQL / Pyspark / SPARK. -Avoir au moins 4/5 ans d'expérience en tant que Data engineer / utilisation de databricks. - Une connaissance environnement Cloud (Microsoft Azure), GIT, Devops - Une bonne communication et être fort de proposition. - Connaissance des bonnes pratique de développement.

Freelance

Mission freelance
Expertise Elastic / Kafka

Root-MENU
Publiée le
Apache Kafka
Grafana
Python

6 mois
680-700 €
Niort, Nouvelle-Aquitaine

Dans le cadre de l’évolution de son système d’information nous recherchons un profil disposant de compétences avérées en matière d'expertise Kafka / Elastic pour développer, industrialiser et automatiser la plateforme Kafka / Elastic. -Assister et conseiller dans le choix et l’utilisation des méthodes - Informer sur les évolutions - Former aux nouvelles technologies et systèmes - Participer aux études et développement & conduite d’études ponctuelles - Gérer des normes, méthodes, outils et référentiels - Mettre en place les normes, méthodes et outils et en vérifie l'application - Certifier des composants et applications développées

Freelance

Mission freelance
développeur python spark

Innov and Co
Publiée le
Apache Spark
PySpark
Python

12 mois
100-600 €
Montrouge, Île-de-France

Dans le cadre des projets de l’équipe et de ses travaux de construction ou d’évolution : - Contribuer aux projets d’intégration d’entités dans le dispositif DDF Groupe - - Accompagner les entités du Groupe dans la construction ou l’optimisation de leur dispositif LCB/FT/Fraude Techniques - Développement langage de type SQL, Python, Spark : Expert - Bases de données : Expert - Analyse BI : Expert - Excel : Expert - Powerpoint : Requis Livrables attendus : - Cadrage et estimation des coûts et délais - Etude et documentation technique dont les spécifications - Développements et codes auditables - Cahier et PV recette auditables - Simulations et analyse détaillées auditables - Présentations des travaux et des résultats obtenus - Documents et tableaux de synthèse - Comptes rendus - Modes opératoires

Freelance

Mission freelance
tech lead Spark/Scala

Innov and Co
Publiée le
Apache Spark
Scala

12 mois
100-650 €
Fontenay-sous-Bois, Île-de-France

- Développement Spark/Scala et HIVE - Une bonne expertise des environnements hadoop- Environnement Anglophone 2 - Livrables attendus Les livrables attendus sont :- Revue de code et re-factoring - Projet agile (Scrum) - Traitement d'un gros volume de données - L'application des normes de développements 3 - Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après :  Agile Scrum  Hive  PostGreSQL  Python  Scala Dans le cadre de cette prestation, le pourcentage d'exécution prévu hors site est de 60%

Freelance

Mission freelance
Expert Elastic / Kafka

CAT-AMANIA
Publiée le
Ansible
Apache Kafka
Elasticsearch

7 mois
500-600 €
Niort, Nouvelle-Aquitaine

Dans le cadre de l’évolution de son système d’information, notre client a émit le besoin de s’adjoindre l’expertise d’une ressource disposant de compétences avérées en matière d'expertise Kafka / Elastic pour développer, industrialiser et automatiser la plateforme Kafka / Elastic. Les prestations attendues seront les suivantes : Assistance et conseils dans le choix et l’utilisation des méthodes Partage d'informations sur les évolutions Réalisation de formations aux nouvelles technologies et systèmes Participation aux études et développement & conduite d’études ponctuelles Gestion des normes, méthodes, outils et référentiels Mise en place des normes, méthodes et outils. S'assurer de leur bonne application Certification des composants et applications développées

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous