Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 261 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Data Engineer BI

CHARLI GROUP
Publiée le
Apache Spark
Apache Sqoop
BigQuery

3 ans
10k-60k €
Île-de-France, France

➢ CONTEXTE * Au sein du domaine Data BI nous recherchons un Data Engineer qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l’équipe. À la suite d’une passation avec notre centre de service, il devra également être en mesure d’innover et d’améliorer les processus existants pour perfectionner l’efficience de l’équipe au quotidien dans ses différentes tâches. ➢ DESCRIPTION DE LA MISSION • Participe à l’analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l’analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l’acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d’étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d’alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d’exploitation) • Être force de proposition sur l’amélioration de notre stack Data • Faire le reporting d’avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

CDI
Freelance

Offre d'emploi
Big Data Engineer Scala - Spark H/F

STORM GROUP
Publiée le
Apache Hive
Apache Kafka
Apache Spark

3 ans
10k-60k €
Île-de-France, France

[Contexte] La prestation se déroule au sein du pôle Cybersecurity eFraud & Solutions dans lequel sont développés les outils de Maching Learning lutte contre la fraude et de réponse cyber à des recommendations de la BCE en cartographie et microsegmentation réseau (Octoflow) L'outil permet de recenser les échanges entre serveur afin de certifer les logs. Pour cela l'équipe a besoin d'un data engénieur afin de parser les données des différentes sources afin de les restituer à un outil interne. socle technique : Spark, Scala, Hadoop, Hive, Control-M, Starburst, ElasticSearch, Hbase [La prestation consiste à contribuer à/au(x)] - exploration et parsing des données - développement de programmes de traitements de données (micro-services) en Scala/Spark - Examen du code et assurance qualité : respect des normes de codage et mise en œuvre des pratiques d'assurance qualité afin de maintenir un niveau élevé de qualité des logiciels. - L'assistance au Product Owner et aux autres entité dont les architectes, les parties prenantes et les bénéficaires pour définir les exigences du projet et garantir l'alignement sur les objectifs de l'entreprise - Expertise technique : tendances et technologies du secteur dont le domaine DATA, WEB, etc. et assistance à l'entité. - Résolution de problèmes : Défis techniques et contribuer à apporter des moyens innovants à des problèmes complexes. - Gestion des performances : Evaluations des performances, retour d'information et favoriser la croissance et le développement professionnels au sein de l'entité [Les livrables attendus sont] - exploration et parsing des données - développement de programmes de traitements de données (micro-services) en Scala/Spark - veille technologique d'outils contribuant à l'optimisation de la solution

Freelance
CDI

Offre d'emploi
Data Engineer Confirmé

Oceane consulting
Publiée le
Apache Spark
Azure
Azure DevOps Services

6 mois
10k-55k €
Paris, France

1 - Contexte La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. 2 - Description de la mission Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL Développement et l’implémentation de solutions Big Data Analytics Analyse du besoin, étude d'impacts et conception de la solution technique Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake Développements de notebooks (ex : Databricks) de traitements avancés des données Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) Revue de code Réalisation de tests unitaires Maintenance corrective et évolutive Livraison dans un environnement Devops, CI/CD et outils associés

Freelance
CDI

Offre d'emploi
Data Engineer

SARIEL
Publiée le
Agile Scrum
Apache Spark
Big Data

3 ans
10k-62k €
Paris, France

Bonjour, Nous recherchons pour un pote à pourvoir ASAP pour notre client banque basé en Région parisienne un profil Data Engineer La mission consiste à intégrer l'équipe Projets en charge de l'intégration des données de l'entreprise au sein de la plateforme Data sous le Cloud Azure afin de couvrir les besoins Big Data et BI de nos métiers. La personne sera intégrée dans l'équipe projet qui fonctionne dans une organisation en mode Agile. Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Expérience architecture Lakehouse minimum 2 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Scala, Python, SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Freelance
CDI

Offre d'emploi
Data Engineer sénior H/F

GROUPE ALLIANCE
Publiée le
Apache Spark
Python
Scala

36 mois
45k-60k €
Paris, France

SI LA GESTION DES DONNEES EST TON DADA, TU PEUX GAGNER LA COURSE EN LISANT CETTE ANNONCE … Ce que tu recherches : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’acteurs majeurs du secteur Bancaire, tu participeras des projets d’envergure sur des évolutions majeures à mettre en œuvre dans le SI du client : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L’architecture et/ou socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras

Freelance
CDD

Offre d'emploi
Data Engineer confirmé/sénior H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
Databricks

6 mois
10k-55k €
Île-de-France, France

Nous recherchons un Data Engineer confirmé/sénior avec une forte expertise sur Azure, Databricks, Spark, Scala, Python et SQL : · Développement et l’implémentation de solutions Big Data Analytics · Analyse du besoin, étude d'impacts et conception de la solution technique · Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, …) · Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake · Développements de notebooks (ex : Databricks) de traitements avancés des données · Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL) · Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) · Revue de code · Réalisation de tests unitaires · Maintenance corrective et évolutive · Livraison dans un environnement Devops, CI/CD et outils associés

CDI
CDD

Offre d'emploi
Data Ingénieur Spark/Scala

Lùkla
Publiée le
Apache Airflow
Apache Spark
Databricks

3 ans
50k-60k €
Île-de-France, France

Secteur d'activité : Banque/Finance/Assurance Mission(s) : mise en oeuvre d'un nouveau socle de gestion et traitement de données en masse dans un environnement cloud Attendu(s) : développements (selon préceptes craft), définition de solutions techniques, étude et conception de produits techniques, définition et design d'architectures techniques, développement de solutions de processing, exploitation et restitution de données... Profil (s) : data ingénieur Spark/Scala familier des environnements cloud et devops (CI/CD) Méthodologie : agile SAFe, Devops Télétravail : 60%

CDI

Offre d'emploi
Data Engineer

DPC
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

10k-45k €
Île-de-France, France

Description du poste : En tant que Data Engineer chez Digital Power Consulting, vous serez chargé de la conception, de la mise en place et de l’optimisation des infrastructures de données. Vous interviendrez sur des projets stratégiques pour nos clients, en veillant à l'efficacité et à la qualité des flux de données. Vos missions : Concevoir et mettre en œuvre des pipelines de traitement des données. Collecter, stocker, transformer et traiter des données massives. Assurer la qualité, la sécurité et la scalabilité des infrastructures de données. Collaborer avec les équipes Data Science pour permettre une exploitation efficace des données. Optimiser les bases de données pour garantir des performances élevées. Participer à la mise en place de solutions Big Data et Cloud (AWS, Azure, GCP). Documenter les processus et les solutions techniques. Compétences requises : Maîtrise des langages de programmation tels que Python, Java ou Scala. Expérience dans la gestion des bases de données (SQL, NoSQL). Connaissance des technologies de traitement de données (Hadoop, Spark, Kafka). Bonne maîtrise des services Cloud (AWS, Azure, GCP). Expérience dans la gestion des pipelines de données CI/CD. Compétences en optimisation de bases de données et en data modeling. Une bonne connaissance des outils ETL est un plus.

Freelance
CDI

Offre d'emploi
Développeur Big Data (H/F)

SAS GEMINI
Publiée le
Hadoop
Scala

3 ans
18k-192k €
Paris, France

Nous recherchons un développeur big Data pour l'un de nos clients. L'équipe assure les fonctions décrites pour les périmètres SI suivants : Les systèmes d’échange Groupe, les référentiels Groupe, la base de données Liquidité, les données communes aux Filières Finance et Risques et Conformité, l’accès agile et la valorisation des données et le pilotage des opérations relevant du périmètre du centre de solutions. Vos responsabilités : • Intégration des données de risques, de notations et d’autorisations • Validation des données selon les règles métiers • Normalisation des données brutes et mise à disposition de table Hive • Développement des requêtes pour le requêtage des données à travers les Apis (Trino) • Etude et optimisation des jobs Spark • Participation à mise en place des spécifications des besoins et écriture des fichiers de mapping des données • Gestion d’équipe : prise de décisions techniques, suivi hebdomadaire, attribution des tâches • Participation et animation de réunions

Freelance
CDI

Offre d'emploi
Data Engineer Scala Spark Hadoop

Digistrat consulting
Publiée le
Scala

36 mois
10k-200k €
Paris, France

💼 Poste : Data Engineer Scala Spark Hadoop 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Notre client souhaite une assistance dans le cadre de la mise en œuvre d'une assiette commune pour les usages Finances et Risques, plus particulièrement sur les données Evènements. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : L’architecture avec le reste de l’entité (tech lead, devs, architecture). Mise en œuvre/Développement des propositions techniques. Revue de code. Suivi des méthodologies agiles. L'industrialisation des développements et des tests sur de l'open source Environnement anglophone. Livrables attendus Les livrables attendus sont : Développements et tests (en TDD) en mode Agile pour répondre au cas d'usage métier et déployable en environnement de production. PVs techniques Chiffrage de projets et évolutions Design de solution 🤝 Expertises spécifiques : Continuous Integration Hadoop (Big Data) Scala Spark

Freelance
CDI

Offre d'emploi
Data Engineer h/f

HAYS MEDIAS
Publiée le
Python
Scala
SQL

6 mois
10k-70k €
Levallois-Perret, Île-de-France

Missions principales : En tant que Data Engineer, vous serez responsable de la conception, de la construction et de la maintenance des infrastructures de données nécessaires à la collecte, au stockage, à la transformation et à l'analyse des données de l'entreprise. Vous travaillerez en étroite collaboration avec les data scientists, les chefs de projet data et les équipes métiers pour garantir la qualité et la disponibilité des données. Vos missions incluent : Conception et Développement de Pipelines de Données : Concevoir, développer et déployer des pipelines de données pour collecter, traiter et transformer les données provenant de diverses sources (ERP, CRM, IoT, capteurs sur chantiers, etc.) ; Assurer l’ingestion, la transformation et le nettoyage des données dans un Data Lake ou Data Warehouse ; Mettre en place des processus d'automatisation pour garantir des flux de données fiables et sécurisés. Gestion et Maintenance de l’Infrastructure Data : Participer à la mise en place et à la gestion des infrastructures cloud (AWS, Azure, Google Cloud) pour le stockage et le traitement des données ; Assurer la disponibilité et la performance des plateformes de données (bases de données, Data Lake) Surveiller et optimiser les performances des systèmes de stockage et de traitement des données. Qualité et Sécurité des Données : Mettre en œuvre les pratiques de gouvernance des données pour garantir leur qualité, leur conformité (RGPD) et leur sécurité ; Effectuer des contrôles de qualité des données pour détecter et corriger les anomalies ; Collaborer avec les équipes sécurité pour garantir la protection des données sensibles. Support aux équipes Data Science et BI : Travailler en collaboration avec l’équipe data pour préparer les jeux de données nécessaires à la modélisation et à l’analyse ; Optimiser les requêtes et les modèles de données pour faciliter les analyses et la visualisation (ETL/ELT) ; Accompagner les équipes BI dans la conception de tableaux de bord et de rapports à partir des données disponibles. Veille Technologique et Innovation : Rester informé des dernières évolutions technologiques dans le domaine de la data engineering (outils, langages, méthodologies) ; Proposer des solutions innovantes pour améliorer les architectures de données et répondre aux nouveaux besoins métiers ; Participer à des projets de R&D pour explorer de nouvelles approches en matière de stockage et de traitement de données.

CDI
Freelance

Offre d'emploi
Data Engineer

SKILL EXPERT
Publiée le
Apache Kafka
Hadoop
Python

1 an
23k-200k €
Vélizy-Villacoublay, Île-de-France

La Prestation s’effectuera au sein de l’équipe « IS Data Factory » d’une vingtaine de personnes composée de : Data Engineer, travaillant majoritaire à l’alimentation du Datawarehouse d’entreprise Data Architect travaillant sur les évolutions de la gestion des données au sein de l’entreprise. Les données sont principalement gérées au sein - D’un datawarehouse d’entreprise organisé autour de plusieurs instances de base de données ORACLE - D’un Datalake s’appuyant sur l’offre cloudera on premise L’équipe est en charge des évolutions, du support et de la maintenance du datawarehouse. Dans ce contexte, la prestation consiste à intervenir sur le POC (Proof of concept) en étroite collaboration avec l’administrateur du Data Lakehouse et à mettre en œuvre et valider l’infrastructure de plateforme de données. Dans ce cadre, le Prestataire contribuera et aura la responsabilité de : Ø POC Developpement : o Conception et développement du POC pour notre Data Lakehouse ouvert en utilisant les dernières technologies (Cloudera, NoSQL, NiFi, Apache Iceberg, DBT, Superset, etc.) pour répondre aux exigences de l’entreprise, Ø L’intégration des données : o Mise en œuvre des pipelines d’ingestion et d’intégration de données à partir de diverses sources tout en s’assurant la qualité et la cohérence des données. Ø Du processus ETL/ELT: o Développement et optimisation des processus ETL/ELT pour soutenir les besoins de data warehousing et d’analyse. Ø L’optimisation de la performance: o Analyse et optimisation de la performance des flux de données et des requêtes. Ø La collaboration : o Travail en étroite collaboration avec l’administrateur du Data Lakehouse pour assurer l’intégration et la fonctionnalité de l’infrastructure du Data Lakehouse. Ø La documentation : o Création et maintenance de documents techniques sur les pipelines de données, o l’architecture o les flux de travail. Ø L’innovation: o Rester à jour avec les technologies émergentes et les meilleures pratiques pour améliorer continuellement la plateforme de données.

Freelance

Mission freelance
Développeur Scala Senior

DEV AND CONNECT
Publiée le
Scala

6 mois
100-600 €
Paris, France

👉 Contexte Nous recherchons deux développeurs Scala senior pour renforcer les équipes d’un de nos clients. L’équipe est composée de la manière suivante : 1 PO, 1 dev front end, 3 back end, 1 full stack, 1 QA, 1 scrum master 🚀 Mission: - Développement de nouvelles features sur l’application existante via les US - Faire évoluer la plateforme existante - Proposer des solutions techniques maintenables et pérennes - Challenger les solutions techniques Equipe: - 1 PO, 1 dev Front, 3 back, 1 full stack, 1 QA, 1 scrum

CDI
Freelance

Offre d'emploi
Développeur JAVA / SCALA - Finance de Marchés

HIGHTEAM
Publiée le
Java
Scala

3 ans
45k-47k €
Île-de-France, France

Contexte / Objectifs : Au sein du pôle Pricing & Analytics de l'IT Global Markets, le consultant interviendra au sein de l’équipe Calculation Engines en tant que Développeur JAVA . Le pôle Pricing & Analytics est en charge du développement et de la maintenance des librairies financières Equity (TK EDA) et Fixed Income (ARM), et de son intégration dans différentes applications du SI. Ces librairies gèrent les produits dérivés des marchés Equity, Commodity et Fixed Income. Les équipes de Calculation Engines s’appuient sur ces librairies de pricing pour mettre en place des chaines de calcul (Calibration de Market Datas, StressTess, HVAR, CVA, EEPE) robustes industrialisées à destination des métiers Front Office et Risques de Global Market. Ces chaines de calcul traitent des volumes importants de données en respectant les contraintes de temps de calcul et de stockage pour les pistes d’auditabilité. Elles doivent également exposer des API customisées d’accès à la donnée.

Freelance

Mission freelance
Mission Scala

Happy Hire
Publiée le
Scala

6 mois
400-430 €
Paris, France

Tu intègreras une belle équipe de passionnés dédiée au backend , qui comprend un de nos fondateurs, qui travaille en étroite collaboration avec les Product Owner, l’équipe de Quality Analysts et l’équipe de développement front-end. Tes missions, organisées en sprints seront : Assurer le rôle de référent technique au sein de l’équipe backend Développer de nouvelles fonctionnalités utilisateur au travers d’API Participer à l’évolution du coeur des produits Participer à la conception des nouveaux produits Participer aux mises à jour des librairies et des frameworks de la stack technique Développer et maintenir des tests unitaires La stack technique backend choisie pour nos solutions est composée des techno suivantes: Scala, Play Framework, Akka, Janusgraph, Tapir, Macwire, Git.

Freelance

Mission freelance
DATA ENGINEER

SURICATE IT
Publiée le
Azure
Databricks
Python

3 mois
100-590 €
Paris, France

- Construction des pipelines de données pour collecter, transformer et traiter des données dans notre Data Lake sur Azure - Développement de notebooks de traitement avancés des données sur Databricks (Spark, langages Scala, SQL et Python) - Conception et modélisation des données au niveau du Data Lake (format Parquet, Delta) - Réalisation des tests unitaires - Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, ….) - Préparation de package pour livraison en CI/CD avec les équipes DevOps - Réalisation des activités de maintenance corrective et évolutive - Participation aux cérémonies agiles (Sprint Planning, Daily, Spring Review, Demo,…)

261 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

< 2 ans d’expérience 2 à 5 ans d’expérience 5 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous