Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 308 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Développeur Java Finance H/F

SERYCE
Publiée le
Scala
Springboot

12 mois
400-520 €
Paris, France

Nous recrutons un(e) Développeur(se) Backend Java pour accompagner l'un de nos clients dans le secteur de la finance. L’analyse des besoins métiers, Le développement des fonctionnalités autour des technologies Java, L'amélioration continue (technique, organisation et processus), La mise en production, L’exécution des tests unitaires, Le traitement et suivi des anomalies, La rédaction de documentation technique. Compétences Backend : Java, Spring/ Spring Boot Connaissances fonctionnelles sur la finance de marché Un + : Scala/Spark

CDI

Offre d'emploi
Développeur Java Finance H/F

SERYCE
Publiée le
Scala
Springboot

40k-50k €
Paris, France

Nous recrutons un(e) Développeur(se) Backend Java pour accompagner l'un de nos clients dans le secteur de la finance. L’analyse des besoins métiers, Le développement des fonctionnalités autour des technologies Java, L'amélioration continue (technique, organisation et processus), La mise en production, L’exécution des tests unitaires, Le traitement et suivi des anomalies, La rédaction de documentation technique. Compétences Backend : Java, Spring/ Spring Boot Connaissances fonctionnelles sur la finance de marché Un + : Scala/Spark

Freelance
CDI

Offre d'emploi
Développeur Back

CHARLI GROUP
Publiée le
Haskell
Java
Microservices

3 ans
10k-53k €
Île-de-France, France

Dans le cadre de sa transformation d’une chaine de télévision linéaire payante française en un groupe Media International, a lancé un chantier ambitieux de développement d’une nouvelle plateforme de gestion des assets Media du groupe . La plateforme construite en interne à partir de logiciels libres dans une méthodologie Agile (Scrum) a pour objectifs principaux : - La mise en commun des catalogues de médias entre la France et l’international, entre la TV et le cinéma et à terme d’être la plateforme de référence du groupe VIVENDI - La remise à plat de l’ensemble des workflows avec l’ensemble des utilisateurs pour une meilleure efficacité opérationnelle (ergonomie et automatisation), une réactivité par rapport aux nouveaux usages (UHD, HDR, IMF etc.) et une meilleure intégration via nos APIs à l’écosystème Média avec les Majors (Sony, Disney, Warner etc.) et les plateformes (Netflix, Amazon, MyCanal). - D’un point de vue technique, l’application en charge de la gestion des essences media (fichiers audio, vidéo, sous-titres, etc). Elle est composée par un ensemble de Micro-Services développés en Scala (~50), en Golang (1) et en Kotlin (1) qui sont hébergés dans le Cloud (AWS) et On Premise (VMWare). - Un MacBook pro est fourni à tous les développeurs, le travail est organisé suivant des sprints de 2 semaines et l’équipe est constituée de plusieurs feature teams complètes (P.O / Devops / Recette / Dev) se partageant un Scrum Master et un UI/UX Designer. - Compte tenu des enjeux importants tant au niveau fonctionnel et technique qu’au niveau du calendrier, nous recherchons des candidats : - Dynamiques et motivés, capables de voir au-delà de leur tâche affectée de de s’inquiéter de la complétion de la User Story dans son ensemble (incluant la conception, les tests, la cohérence des livrables). - Sérieux et autonomes, permettant d’être un relais efficace des Lead Dev présents dans l’équipe, mais n’hésitant pas à poser des questions si nécessaires.

Freelance
CDI

Offre d'emploi
Data Engineering - TALEND / SPARK / SCALA / MSBI

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Microsoft Power BI

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'entité a pour charge la maintenance, le support et l'évolution de l'outil concernant le pilotage financier de la banque, des directions centrales et de la facturation interne du groupe. Les outils sont basés sur les technologies Big Data pour le stockage, Talend et Spark/Scala pour les traitements, la suite MSBI SQL Server et cube SSAS pour l'analyse mutlidimensionnelle et enfin du Power BI pour la restitution. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone 2 - Livrables attendus Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des evolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets.

Freelance
CDI

Offre d'emploi
Tech Lead Développement Big Data

Digistrat consulting
Publiée le
Apache Spark
Github
Scala

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Tech Lead Big Data. Périmètre fonctionnel : banque d'investissement Les principales tâches de la missions sont les suivantes :  Développement, Clean code,  L'intégration continue,  La définition des solutions dans l'environnement applicatif (Cloud Platform / Spark Data processing)  Mise en place et suivi des développements en production du socle de fonctionnalités Processing / preparation de données  L'assistance à la conception technique du produit  Diverses assistances techniques (sujets techniques complexes sur le produit, etc...)  La revue de code  L'intégration cohérente du produit dans le système d'information en synchronisation avec l'architecture technique  L'analyse de l'impact de la conception du produit sur l'architecture technique du SI  L'architecture technique aux choix d'implémentation dans le SI  La maintenabilité technique du produit  La stratégie de développement et de tests selon critères pré-définis Autres :  Support applicatif via le monitoring et résolution associée  DevOps pour les parties IAAS et CD.  Environnement anglophone

Freelance

Mission freelance
Architecte Data Azure et Snowflake

Inventiv IT
Publiée le
Azure
BigQuery
Databricks

12 mois
660-780 €
La Défense, Île-de-France

Architecte Data Azure et Snowflake . - Il maîtrise le panel des exigences fonctionnelles et non fonctionnelles à collecter afin d'assurer l'efficience opérationnelle et la pérennité de la data platform. - Expert et maîtrise tous les outils et services de l’écosystème Azure et a des facilités pour étendre votre champ de compétences. - proactif/ve sur la veille technique et la capitalisation et veille à garder toujours un temps d'avance sur l'état de l'art du secteur afin de pouvoir guider ses clients. - En tant qu'architecte expérimenté(e) il peut intervenir sur des missions opérationnelles pour concevoir la solution cible ou en phase de cadrage amont pour guider les choix et construire les roadmaps. - pédagogue et sait communiquer et vulgariser des réflexions complexes pour les rendre accessibles à tous.

Freelance

Mission freelance
Responsable opérationnel d'applications

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Hive
Apache Kafka
Apache Spark

4 mois
100-1 500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance
CDI
CDD

Offre d'emploi
Un(e) Développeur Fullstack Scala Angular - Luxembourg

EXMC
Publiée le
AngularJS
Apache Kafka
API REST

6 mois
40k-65k €
Luxembourg

Développeur Fullstack Scala Angular Description des tâches Les équipes sont organisées par domaine métier. Vous intégrerez le domaine Contrat Marché belge à plein temps où vous aurez la charge de : · Travailler dans un environnement agile · Concevoir, réaliser, tester, déployer, monitorer vos réalisations en Scala · Maintenir des APIs (Scala) et des Fronts (Angular) modulaires et intégrables · D’adhérer aux principes d’améliorations continues et de modernisation du domaine · De devenir un expert dans certaines parties du domaine applicatif avec une mission longue Les équipes se composent d’un Product Owner, 2 Business Analyst, 1 Scrum Master et de plusieurs développeurs qui évoluent dans la méthodologie Scrum; et travaillent étroitement avec les parties prenantes du côté métier. Compétences souhaitées · [FRONT] Vous avez une bonne expérience dans la conception d'architecture basée sur des composants utilisant Angular. React ou Vue.js sont également accepté · [FRONT] Vous maîtrisez HTML / CSS / JS · [FRONT] Vous êtes en mesure de consommer des APIs REST · [FRONT] Vous savez intégrer des maquettes réalisées par des designers (dans Figma) · [BACK] Vous maîtrisez la programmation Objet (Java 8, ...), · [BACK] La maîtrise de la programmation fonctionnelle (Scala, ...) est un réel atout · [BACK] Vous avez de l'expérience avec les DB relationnelles (Db2) · [BACK] La connaissance en DB non relationnelles (MongoDB) est un réel atout · [BACK] La connaissance de la programmation événementielle (event sourcing) avec KAFKA est un réel atout. · [BACK] Vous avez des connaissances dans la conception d’APIs REST · Vous êtes capable de faire monter en compétence vos pairs au travers de code-review, pair programming, … · Vous maîtrisez l’entièreté d’une chaine de développement, et avez la capacité de pousser et de justifier des choix d’architecture · Vous utilisez des outils de déploiement continu (K8s, Jenkins, …) et de monitoring (Instana et Sentry) · Vous savez collaborer avec des développeurs d’autres équipes afin d’améliorer les systèmes et les processus dans un environnement organisé par domaines · Vous êtes proactif, appréciez le travail en équipe et désireux d’apprendre · Vous êtes familier avec un outil de versionning de code tel que Git · Vous êtes en mesure de venir sur site à Leudelange (à raison d'au moins 3 jours par semaine) En plus: · Expérience avec des frameworks de tests unitaires · Utilisation du standard JSON-API

Freelance

Mission freelance
Data Engineer

MOBILE TECH PEOPLE
Publiée le
Azure
PySpark
Python

12 mois
100-410 €
Hauts-de-France, France

Nous recherchons pour le compte d'un de nos clients un Data Engineer en gestion de données Azure, souhaitant contribuer à des projets innovants dans un environnement dynamique et en constante évolution. Vous aurez l'occasion de travailler sur des tâches variées allant de la gestion de base de données SQL sur Azure à l'automatisation des pipelines ETL et au développement de scripts Python pour le web scraping. xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

CITECH
Publiée le
Apache Spark
Scala
Talend

1 an
45k-65k €
Paris, France

CITECH recrute ! 👌 👍 Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer (H/F) 🚀 💰 Votre mission est pour un client reconnu dans le secteur bancaire, implanté dans de nombreuses villes en France, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 💳 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Support de l'application (notamment lors des clôtures mensuelles). 🔸 Participer à la maintenance évolutive. 🔸 Participer à la conception et l'implémentation de nouvelles fonctionnalités. 🔸 Participer à la refonte technique. 🔸 Participer à la migration de Talend vers Spark/scala.

Freelance
CDI

Offre d'emploi
Développeur Back Java

CHARLI GROUP
Publiée le
Apache Kafka
AWS Cloud
Cassandra

3 ans
10k-54k €
Île-de-France, France

Nous recherchons un développeur backend Java pour rejoindre l’équipe dans le cadre du développement de la plateforme. Nos projets : En tant que Développeur Backend, il intègrera une équipe pluridisciplinaire composée de développeurs (Scala, Java), de Devops, de Scrum master, et de Product Owners qui travaillent en méthodologie Agile : o Nos défis : Fournir des plateformes de services ultra performantes, scalables et elastiques à nos applications front de Live, Catchup, SVOD et TVOD, s’adapter aux besoins de nos clients afin de donner vie à la nouvelle expérience . Supporter le 25000 req/s et des millions de consommations par jour. Méthode de travail : Agile / Scrum, intégration et déploiements continus, Code Review o Environnement technique : Java 21, SpringBoot , Kafka, AWS, Cassandra, Redis, Elasticsearch, Datadog, Scala, Play. La mission : · Renforcement de l’équipe de développement dans le cadre du projet. · Intégrer une équipe de développeurs jeunes, soudés, dynamiques et très expérimenté qui réalisent les APIs de services afin de fournir, demain, les nouvelles fonctions à nos fronts. · Nous écrivons du Java moderne basé sur de la programmation fonctionnelle et les dernières feature du langage. · Participer aux différentes phases de développement et de tests (unitaires, fonctionnels, intégration, tests de montée en charge) · Mettre en production ses développements en fin de sprint · Faire des applications observables et facilement administrable en production. · Créer et maintenir la documentation technique

Freelance

Mission freelance
Dataiku

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Spark
Dataiku
Hadoop

3 ans
100-500 €
Paris, France

Nous recherchons pour un de nos clients un Data engineer avec deux ans d’éxpériences à minima sur daitaiku , Ce collaborateur doit maitriser les technos comme Python stack technique du besoin : Python hadoop spark 2 ans a fond de dataiku Localisation : IDF, metro , Télétravail : 2 jours de télétravail Démarrage : asap Tjm : dépend de l’expérience, entre 500 et 600max Quelqu’un qui connait depuis 5 ans la solution NB : Ce besoin n'est pas encore exprimé chez notre client, c'est assez urgent nous pouvons faire passer les entretiens asap ainsi que le démarrage

CDI
Freelance

Offre d'emploi
Ingénieur Big Data - DevOps (H/F)

VISIAN
Publiée le
Apache Kafka
Apache Spark
Docker

3 mois
40k-65k €
Marseille, Provence-Alpes-Côte d'Azur

Orienté Big Data et ayant des compétences dans les domaines listés ci-joint : Kafka, Spark, Hbase, Hive, Hadoop, Jenkins, Ansible, Github, Scala, Python, Linux, Kube, Linux. Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le consultant devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Data Engineer (H/F) - Paris

Mindquest
Publiée le
Apache Kafka
Apache Spark
Cassandra

6 mois
700 €
Paris, France

Ingestion des données sources via NIFI dans des tables de travail Cassandra ou en parquet sur AWS S3 Développement des Traitements Spark/Scala en lots des données sources ingérées Traitement au quotidien des nouvelles données clients (ajout nouveaux clients Enrichissement au quotidien des données des clients avec des fichiers de scoring et de segmentation (fournis par un autre projet) Traitement toutes les 8 heures des nouvelles ventes avec notamment la mise à jour des ventes auditées ainsi que l’enrichissement des ventes avec les données des clients Ingestion toutes les 8 heures des données des ventes dans Druid Ajout et mise à jour des nouveaux produits des marques avec leur description, leur taille, leurs stocks …. Traitement en temps réel via Kafka/Spark des données sources fournies par les marques dans les topics dédiés : Enrichissement des données des produits des différentes marques en temps réel avec les informations des stocks, des prix Mise à jour temps réel des données des ventes Mise à jour temps réel des données clients Mise à jour des commandes clients Anonymisation des informations clients (RGPD) Mise à jour des stocks disponibles en magasin Exposition des informations des produits en transit (magasin d’origine, magasin destination) afin que les utilisateurs de Luce puissent estimer leurs dates de livraison Traitement et Stockage des données dans Apache Solr et Cassandra Exposition des données traitées dans une API nodejs à travers Cassandra et Solr Ingestion des données des ventes et commandes sur Apache Druid via NIFI Mise en place de tests automatiques afin d’éviter les régressions suite aux nouvelles évolutions Développement de tests unitaires avant déploiement Garantie de la cohérence des données Planification des heures de lancement des différents traitements afin d’éviter d’avoir des données corrompues Déploiement des différents traitements Spark via Jenkins/Livy dans les environnements dédiés Monitoring des Jobs Spark via Yarn et Spark UI avec un système d’alerting via Slack en cas de problème durant les traitements Mise en place de logs qui seront ensuite déposés dans ElasticSearch afin de faciliter la résolution et la recherche des bugs Optimisation des différents traitements Data (optimisation du code Spark, des traitements NIFI) Migration de tous nos workflows NIFI, traitements de données en lots/ temps réel Spark sur Amazon AWS Migration de l’api ainsi que des tables et collections utilisées dans Cassandra Environnement sur AWS Ordonnancement des tâches via Airflow/Python, gestion des différentes dépendances entre les traitements Mise à jour d’une librairie Airflow pour le lancement de nos Jobs Sparks ainsi que le monitoring (vérification des statuts des traitements). Mise en place des capteurs (sensors) nécessaires pour le suivi des statuts des traitements Mise à jour d’une librairie générique Spark pour les jobs d’ingestion via parquet/csv/json

Freelance

Mission freelance
Tech Lead Big Data Java Spark

Cogigroup
Publiée le
Apache Spark
Java

3 mois
100-440 €
Paris, France

Je recherche un Tech Lead Big Data – Expert Java - Spark : • Devenir le Pilier technique du socle Big Data en Java Spark pour aider les utilisateurs de différentes 6 squads à l’utiliser, répondre aux tickets, analyser les bugs et savoir coder les corrections et livrer (CI/CD Jenkins Maven) • Rôle orienté RUN mais quelques évolutions peuvent toujours intervenir, avec donc la capacité de comprendre le besoin fonctionnel et développer l’évolution • Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.

Freelance
CDI

Offre d'emploi
Expert.e DevOps AWS

Atlanse
Publiée le
AWS Cloud
IAM
Terraform

2 ans
10k-65k €
Saint-Denis, Île-de-France

Vous interviendrez en tant qu’expert.e DevOps AWS et participerez à la cartographie des applications, au planning du projet et à la rédaction des livrables associés. Missions · Déployer et maintenir les différents socles de la landing zone (Account factory, Identity, connectivité, sécurité, …) · S’assurer de la cohérence et de l’homogénéité de l’IaC et de sa documentation · Veiller à la conformité avec les standards d’architecture et de sécurité · Fournir des guidelines & outils pour le déploiement d’infrastructures scalables, sécurisées et résilientes · Écrire des scripts/lambdas pour automatiser des opérations courantes · Comprendre les besoins des clients et leur proposer des solutions en tenant compte des enjeux de sécurité, de coûts ainsi que de la facilité de déploiement, d’usage & de maintenance

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous