Trouvez votre prochaine offre d’emploi ou de mission freelance Scala

Votre recherche renvoie 34 résultats.
CDI
Freelance

Offre d'emploi
Data Engineer (Hadoop-Scala) Junior H/F

STORM GROUP
Publiée le
Hadoop
Scala

3 ans
42k-45k €
470 €
Île-de-France, France

Contexte et objectifs de la prestation : Le département informatique aligné avec les métiers en charge du pilotage financier du groupe. Cette tribu est en charge de la maitrise d'ouvrage, de la maitrise d'oeuvre et du support des produits (applications) nécessaire à la bonne exécution de ces processus financiers. Le Bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de certains de ses produits dédiés au pilotage opérationnel des directions centrales (BASYCOUT) et retail (AGENOR) mais aussi de la facturation interne (FI) et des expenses (Expenses Engagement), basés sur des technologies Datalake et cube OLAP, dans un cadre d'agilité à l'echelle (SAFE). Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre, la Prestation consistera à contribuer à/au(x) : - Code livré sous GIT - Tests unitaires développés et joués - Monitoring des traitements de production - Tickets JIRA & Unity mis à jour

Freelance

Mission freelance
DATA ENGINEER Scala/Spark

KEONI CONSULTING
Publiée le
autonomie
Rundeck

18 mois
100-500 €
Paris, France

CONTEXTE L'entité a donc également un but humain en assurant la réussite des développeurs en reconversion. La mission consiste à renforcer une équipe de Data Engineers pour réaliser des projets Scala/Spark pour le compte de l’un de nos clients. MISSIONS Vous assurerez le pilotage de plusieurs projets basés majoritairement sur les technologies Python sur le périmètre de la filiale Energie. Le pilotage concerne l’ensemble des projets de cette filiale confiés à D2D. Les engagements de l’entité D2D envers la filiale sont assurés grâce à un plateau projet composé de 2 à 4 développeurs, un ops et un architecte. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : Le profil recherché pour la mission est celui d’un chef de projet SI/Data. Une expérience significative est requise pour ce poste. Il bénéficiera d’un accompagnement du responsable de domaine / directeur de mission sur le périmètre et du responsable de l’équipe Chefs de Projets Data pour les aspects outillage et méthodologie. Ce soutien sera plus important au début de la mission, notamment pour la prise en main des outils indispensables mais peu répandus comme TimePerformance. Qualités requises - Excellent relationnel - Capacité rédactionnelle - Capacité d’adaptation et de travail en équipe - Rigueur et esprit de synthèse - Esprit d’initiative - Autonomie

Freelance

Mission freelance
Tech lead data engineer H/F

Pickmeup
Publiée le
Azure
Azure DevOps
Databricks

1 an
500-580 €
Châtillon, Île-de-France

🎯 Contexte et Environnement Au sein de la Direction Digital & Data , l’équipe Data Lab intervient sur les périmètres Data & Analytics dans le cadre de la transformation du système d’information du groupement. Le/la Tech Lead rejoindra la Data Factory (rassemblant les équipes IT et métiers), dont la mission est de concevoir et déployer des produits analytiques innovants à destination des magasins, de la logistique, des fonctions support et des consommateurs. Face à la montée en puissance des besoins, l’organisation évolue selon un modèle Agile structuré en Domaines et Squads , avec une forte ambition d’industrialisation et de valorisation du patrimoine de données.

Freelance

Mission freelance
Développeur Back-End Scala / Rust - MediaHub MAM

Cherry Pick
Publiée le
Java
Rust
Scala

12 mois
Paris, France

Cherry Pick est à la recherche d'un Développeur Back-End Scala / Rust - MediaHub MAM pour l'un de ses clients dans le secteur médias. Dans le cadre de la transformation d'une chaîne de télévision linéaire payante française en un groupe Media International, un chantier ambitieux a été lancé pour développer une nouvelle plateforme de gestion des assets média du groupe, nommée MediaHub. Cette plateforme, construite en interne à partir de logiciels libres avec une méthodologie Agile (Scrum), vise principalement à : Mettre en commun les catalogues de médias entre la France et l'international, entre la TV et le cinéma, et à terme devenir la plateforme de référence du groupe. Remettre à plat l'ensemble des workflows avec les utilisateurs pour une meilleure efficacité opérationnelle (ergonomie et automatisation), une réactivité face aux nouveaux usages (UHD, HDR, IMF, etc.) et une meilleure intégration via des API à l'écosystème Média avec les Majors et les plateformes. D'un point de vue technique, l'application MediaHub MAM, en charge de la gestion des essences média (fichiers audio, vidéo, sous-titres, etc.), est composée d'un ensemble de Micro-Services développés en Scala (~50) et Rust (~5). Ces services sont hébergés dans le Cloud (AWS) et On Premise (VMWare). Un MacBook Pro est fourni à tous les développeurs. Le travail est organisé en sprints de 2 semaines, et l'équipe est constituée de plusieurs Feature Teams complètes (P.O/Devops/Recette/Dev) se partageant un Scrum Master et un UI/UX Designer. Compte tenu des enjeux importants tant au niveau fonctionnel et technique qu'au niveau du calendrier, nous recherchons des candidats : Dynamiques et motivés , capables de voir au-delà de leur tâche affectée, de s'inquiéter de la complétion du récit utilisateur dans son ensemble (incluant la conception, les tests, la cohérence des livrables) et d'être acteur de sa livraison en production. Sérieux et autonomes , permettant d'être un relais efficace des Lead Tech présents dans l'équipe, tout en n'hésitant pas à poser des questions si nécessaires. Les candidats répondront idéalement aux critères ci-après classés par ordre d'importance : Disposer d'au moins une expérience significative (5 ans minimum) dans le développement d'une plateforme composée de micro-services. Le candidat devra être obligatoirement à l'aise avec la programmation concurrente et asynchrone. Avoir une bonne connaissance d'un langage fortement typé (Scala, Java, C#, Haskell, Golang, etc.) et avoir des notions de programmation fonctionnelle (expressions lambda, immutabilité, types algébriques, etc.). Avoir l'envie de monter en compétence sur l'écosystème Scala (cats-effect, zio, etc.). Être capable de répondre à un besoin métier avec une architecture évolutive (DDD, Clean, Onion, Hexagonale) et testable (tests unitaires et d'intégration).

CDI

Offre d'emploi
SENIOR SOFTWARE ENGINEER/STAFF SOFTWARE (H/F)

COSIUM
Publiée le
Java
Kotlin
Scala

Versailles, Île-de-France

Fondé en 2003, Cosium est un éditeur de logiciel. Nos logiciels sont fournis en mode Saas sur le cloud privé que nous opérons de bout en bout. Cosium est détenu et dirigé par des ingénieurs. Votre mission Construire les systèmes médicaux les plus pointus du marché. Produire du code de qualité et dont vous êtes fiers Utiliser les stacks OpenSource les plus avancées du marché Mentorer des ingénieurs logiciels moins expérimentés que vous Contribuer à des projets OpenSource utilisés et/ou maintenus par Cosium. Voir . Assister à plusieurs conférences de développeurs tout au long de l'année. Jusque là, nous avons assisté à Paris JUG, Devoxx France, PGConf et FOSSDem. Certains d'entre nous ont même été speakers au Paris JUG et au Devoxx France.

CDI

Offre d'emploi
Développeur Java Junior/Confirmé – Finance de Marché (H/F)

SERYCE
Publiée le
API REST
Finance
Git

Paris, France

Contexte de la mission (POSTE A POURVOIR EN CDI UNIQUEMENT) : Nous recrutons un(e) Développeur(se) Java Junior/confirmé(e) pour rejoindre grand groupe bancaire parisien. Vous intégrerez le pôle Pricing & Analytics , en charge du développement et de la maintenance des librairies financières utilisées pour le pricing des produits dérivés sur les marchés Equity, Fixed Income et Commodities . Accompagné(e) par des experts techniques et fonctionnels, vous contribuerez au développement des outils de calcul à destination des métiers Front Office et Risques . Vos missions : Participer au développement et à l'évolution des librairies de pricing Contribuer à l’intégration de ces librairies dans les différents outils du SI Collaborer avec les équipes IT, Quants et Risques pour assurer une bonne intégration des solutions Travailler sur des chaînes de calculs performantes et robustes, capables de traiter de grands volumes de données

Freelance

Mission freelance
Data Engineer confirmé Maintenance et Inspection pour la Digital Line

Signe +
Publiée le
Java
Python
Scala

6 mois
320-370 €
Pau, Nouvelle-Aquitaine

Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un "Data Engineer confirmé Maintenance et Inspection pour la Digital Line". Objectifs et livrables : Conception, développement et maintenance de pipeline de données évolutifs sur la plateforme Data Fabric, incluant ingestion et optimisation des performances et de l'usage de la donnée Garantir la qualité, sécurité et intégrité des données tout au long des pipelines Collaboration transversale avec les équipes Data Science, BI, Devops Réalisation d'audits techniques et proposition d'améliorations continues

Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer

ADATEK
Publiée le
Apache Spark
Azure
Azure DevOps

3 ans
Île-de-France, France

Le Tech Lead Data Engineer aura pour missions: Assurer un leadership technique auprès des équipes de développement. Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. Participer activement aux phases de conception, développement et tests. Porter la vision technique au sein des équipes Agile. Garantir la qualité des livrables et veiller à la réduction de la dette technique. Réaliser la modélisation des données. Assurer une veille technologique et participer aux POCs. Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques.

CDI

Offre d'emploi
Data Engineer

Inventiv IT
Publiée le
AWS Cloud
Azure
Databricks

45k-65k €
Paris, France

Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).

Freelance

Mission freelance
Data engineer

ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Spark
AWS Cloud
Big Data

12 mois
510-550 €
Paris, France

Description Grâce à ses compétences alliant développement bigdata, appétences pour les modèles d’IA et architecture applicative, le data engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables • Définition et analyse des structures de données. • Contribution dans les assets des différentes équipes produits pour interconnecter et collecter les données. • Mise à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données). • Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.). • Garant de la production (mise en place de monitoring et alerting et intervention si nécessaire). • Développement et maintien du continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés). • Présentation et explication des réalisations à des publics métiers et techniques.

Freelance

Mission freelance
Data Engineer AWS / Databricks

Groupe Aptenia
Publiée le
AWS Cloud
Databricks
Python

3 ans
450-500 €
Paris, France

Nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur une mission de conseil et d’optimisation d’une Data Platform AWS Databricks . ✅ Vos missions principales Auditer l’existant de la Data Platform AWS Databricks Proposer des préconisations techniques & méthodologiques pour renforcer la performance et la fiabilité Conseiller les équipes sur les bonnes pratiques Data & Cloud Contribuer à l’évolution et à la roadmap de la plateforme Accompagner les équipes internes dans la mise en œuvre

Freelance

Mission freelance
Data Engineer Databricks

Phaidon London- Glocomms
Publiée le
Apache Airflow
Azure DevOps
CI/CD

6 mois
400-480 €
Lyon, Auvergne-Rhône-Alpes

En tant que Data Engineer Databricks, nous vous proposons d’intégrer une équipe d’ingénieurs expérimentés et multi-compétentes. Au sein de nos clients issus de différents secteurs d'activité (Industrie, Services, Transport, Logistique, Banque, Assurances, Énergie), vous jouez un rôle clé dans la migration des données et des tâches de l'environnement Cloudera vers Databricks. Vous êtes également chargé d'automatiser le déploiement des jobs via le CI/CD. Pour réussir ces différents challenges, nous vous proposerons des actions de formation, des parrainages, des certifications sur les outils concernés et un dispositif d’évaluation personnel régulier.

CDI
Freelance

Offre d'emploi
Data Engineer (Spark-Scala-Azure Devops) H/F

STORM GROUP
Publiée le
Agile Scrum
Apache Spark
Azure DevOps

3 ans
55k-60k €
550 €
Île-de-France, France

Contexte et objectifs de la prestation : Dans ce cadre, la prestation consiste à contribuer à/au(x) : 1. Projets de migration vers notre nouveau Datalake sur infra “Azure” 2. Projets de maintenance évolutive des Use Cases Data déjà existants 3. Cadrage et chiffrage du projet (et validation) et assistance et expertise dans la définition de la stratégie et solution technique. 4. L'assistance et l'expertise sur l’architecture technique (design et conception) des couches datalake et des moyens de restitutions, 5. La conduite du changement dans la mise en œuvre et l’uniformisation des pratiques Craft 6. La définition des normes et standards de qualité édictés sur le périmètre (qualité de code, sécurité, performance, build automatique, analytics) 7. La définition du bon niveau de la documentation technique et mise à jour associée Diverses étapes de développements notamment sur les développements complexes : chiffrage, conception, spécifications techniques,mise en place, tests, déploiement, revue de code 8. Challenge des choix techniques pour qu’ils soient en adéquation avec : le besoin du client, les normes et standards des entités d’architectures, l’innovation et les principes de la transformation digitale de la banque Expertises : 1. Spark Scala 2. Cloudera, Azure 3. Mode Agile (Scrum) 4. Environnement anglophone.

Freelance

Mission freelance
Développeur Back-End

Cherry Pick
Publiée le
AWS Cloud
C#
Domain Driven Design (DDD)

12 mois
Île-de-France, France

Dans le cadre de la transformation d’un groupe média international, un ambitieux projet de développement d’une nouvelle plateforme de gestion des assets médias (MediaHub) est en cours. Construite en interne à partir de logiciels libres et suivant une méthodologie Agile (Scrum) , cette plateforme a pour objectifs : Mutualiser les catalogues de médias entre les différentes entités du groupe (TV et cinéma). Repenser l’ensemble des workflows utilisateurs afin d’améliorer l’efficacité opérationnelle (ergonomie, automatisation). Intégrer rapidement de nouveaux usages (UHD, HDR, IMF, etc.) et faciliter l’interconnexion avec l’écosystème média (majors, plateformes de streaming, etc.). Fournir une application MediaHub MAM assurant la gestion des essences média (fichiers audio, vidéo, sous-titres, etc.), composée de micro-services développés en Scala et Rust , déployés dans le Cloud (AWS) et On Premise (VMWare) . Organisation : Équipes en Feature Teams complètes (PO, DevOps, QA, Développeurs) avec Scrum Master et UI/UX Designer. Méthodologie Agile avec sprints de 2 semaines. Matériel fourni : MacBook Pro. Missions : Développer et maintenir des micro-services back-end au sein de la plateforme MediaHub. Participer activement aux cérémonies Agile (sprint planning, daily, rétrospectives). Contribuer à l’ensemble du cycle de vie des User Stories (conception, développement, tests, cohérence des livrables, mise en production). Être force de proposition dans l’amélioration continue des pratiques techniques et organisationnelles. Collaborer avec les Lead Tech et les équipes transverses pour garantir la qualité et la fiabilité des développements.

Freelance
CDI

Offre d'emploi
Tech Lead Databricks

1G-LINK CONSULTING
Publiée le
Databricks
Snowflake

2 ans
La Défense, Île-de-France

Ingénieur Data Confirmé – Databricks / Hadoop / Scala / Kafka (secteur Énergie) 📍 La Défense (92) | 🏠 10 jours de télétravail / mois | 🗓️ Démarrage : novembre 2025 | ⏱️ Mission longue durée Contexte Dans le cadre du renforcement d’un pôle Data stratégique au sein d’un grand acteur du secteur de l’énergie, nous recherchons un Ingénieur Data confirmé pour accompagner la migration d’une plateforme Hadoop open source vers Databricks et Snowflake . Le projet est en pleine expansion, avec une montée en charge prévue jusqu’à 7 collaborateurs. Vos missions Participer à la migration des traitements Hadoop/Scala vers Databricks et Snowflake Concevoir et industrialiser des pipelines data performants et maintenables Optimiser les traitements Spark (Scala/PySpark) Mettre en œuvre des bonnes pratiques DataOps / CI-CD Accompagner la montée en compétence des équipes internes Environnement technique Hadoop (HDFS, Yarn, Hive), Spark, Scala, Kafka, Databricks, Snowflake, Azure Data Factory, Terraform, dbt Profil recherché Solide expérience sur Hadoop full open source, Spark et Scala Bonne maîtrise de Kafka pour les traitements en streaming Expérience sur Databricks et/ou Snowflake Connaissance d’un environnement cloud (idéalement Azure) Autonomie, rigueur, esprit d’équipe et force de proposition Informations pratiques Localisation : La Défense (2 jours sur site / semaine) Télétravail : 10 jours par mois Démarrage : début novembre 2025 Durée : mission longue, renouvelable

CDI

Offre d'emploi
Lead data (H/F)

Amiltone
Publiée le

40k-45k €
Lille, Hauts-de-France

Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github

34 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous