Trouvez votre prochaine offre d’emploi ou de mission freelance SPARQL

Votre recherche renvoie 44 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance

Mission freelance développeur python spark

Innov and Co
Publiée le
Apache Spark
PySpark
Python

12 mois
100-600 €
Montrouge, Île-de-France

Dans le cadre des projets de l’équipe et de ses travaux de construction ou d’évolution : - Contribuer aux projets d’intégration d’entités dans le dispositif DDF Groupe - - Accompagner les entités du Groupe dans la construction ou l’optimisation de leur dispositif LCB/FT/Fraude Techniques - Développement langage de type SQL, Python, Spark : Expert - Bases de données : Expert - Analyse BI : Expert - Excel : Expert - Powerpoint : Requis Livrables attendus : - Cadrage et estimation des coûts et délais - Etude et documentation technique dont les spécifications - Développements et codes auditables - Cahier et PV recette auditables - Simulations et analyse détaillées auditables - Présentations des travaux et des résultats obtenus - Documents et tableaux de synthèse - Comptes rendus - Modes opératoires

Freelance
CDI

Offre d'emploi DATA ENGINEER - SPARK / SCALA F/H - STRASBOURG (67)

HIGHTEAM GRAND SUD
Publiée le
Apache Spark
Scala

3 ans
10k-53k €
Strasbourg, Grand Est

VOTRE QUOTIDIEN RESSEMBLERA A… Dans le cadre de la mise en oeuvre de son Datalake, vous rejoignez notre client (spécialisé dans le domaine de la finance) en qualité de Data Engineer / Développeur Spark Scala F/H. Vous serez en charge de la reprise des tableaux de bord existants, programmés en SAS afin de mener à bien le projet. Environnement technique : Spark, Scala Le poste est localisé à Strasbourg (67). Dans le cadre de cette mission, vous pourrez bénéficier de 2 à 3 jours de télétravail par semaine.

Freelance

Mission freelance DATA ENGINEER SPARK /SCALA

UCASE CONSULTING
Publiée le
Apache Spark
Azure
Databricks

3 ans
100-650 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer spark / scala. Mission : Livrables n 1 : Sprint n 1 + Lot 1 : développement des US et tests associés ; + Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d’exploitation ; + Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; + Lot 4 : Mise en place du monitoring ; LE PROFIL RECHERCHE Compétences métiers & outils : Les compétences technologiques attendues sont : + Indispensables : maîtrise de l’API Scala Spark (batch principalement), maîtrise des techniques d’optimisation Spark, expérience dans le traitement de volumétries importantes / complexes, développement et bonnes pratiques Scala, build Maven, travail en environnement cloud (idéalement Azure) + Appréciées : écosystème Databricks, développement d’API HTTP, expérience sur la stack ELK Compétences transverses + Aisance relationnelle + Esprit d’équipe et d’adaptabilité + Esprit de synthèse + Rigueur et esprit d’analyse + Autonomie + Force de proposition + Vous avez le sens des priorités et la capacité à gérer les délais + Vous aimez le travail en mode multi-projets + Appétence client, besoin métier et compréhension du fonctionnel + Mentoring et partage de connaissances Expériences et formations Bac+3 à Bac+5 en informatique. Un bon niveau d’anglais technique est demandé. Expérience solide de 4/5 ans minimum en tant que Data Engineer dans le domaine recherché. 3 jours de télétravail par semaine Ca vous tente ? Postulez !! TEAM UCASE :)

Freelance
CDI

Offre d'emploi Développeur Scala Spark AWS (h/f)

HR-TEAM
Publiée le
AWS Cloud
Azure
PySpark

12 mois
65k-70k €
Paris, France

Nous recherchons un développeur Scala Spark AWS(h/f) pour un projet à forte valeur ajoutée. Vous travaillerez au quotidien avec deux cloud : Azure et AWS Le projet : Gestion de la détection d’abus de marché au niveau des risques sur le planning Mise aux normes Evolution des fonctionnalités MCO Réglementation Agile Scrum avec des sprint de deux semaines. Localisation : La défense Télétravail : 2 voir 3 jours par semaine Equipe composé de 5 développeurs repartis sur deux stacks : AWS SCALA / SPARK Anglais : C1/C2

Freelance

Mission freelance Développeur Spark Scala AWS

HIGHTEAM
Publiée le
Apache Spark
AWS Cloud
Scala

3 ans
460-600 €
Île-de-France, France

A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering Dans ce cadre la prestation consiste à contribuer à/au(x) :  Garantir l’accès aux données liées à l’activité .  Implémenter et industrialiser des traitements pour collecter, nettoyer et synthétiser des données afin de les rendre accessibles.  Concevoir des moyens pour collecter, transformer et exploiter des gros volumes de données  l’industrialisation des traitements et à leur amélioration continue pour qu’ils soient fiables, robustes, performants et résilients afin de répondre aux exigences des partenaires métiers.  La maintenances et l’évolution des différents pipelines de traitement.  La qualité de la conception technique, de sa mise en place et de sa documentation.  Conduite du changement .  Assurer une veille technologique (data).  A la communauté des tech leads pour s'assurer d'une bonne capitalisation entre entité et de l'harmonisation des pratiques de développement. SCALA et SPARK Certificat AWS  Mise en place des moyens pour collecter, transformer et exploiter des gros volumes de données  Contribuer à l’industrialisation des traitements et à leur amélioration continue pour qu’ils soient fiables, robustes, performants et résilients afin de répondre aux exigences des partenaires métiers.  La maintenances et l’évolution des différents pipelines de traitement.  Garantir la qualité de la conception technique, de sa mise en place et de sa documentation.  Mettre en place des bonnes pratiques de développement et s'assurer qu'elles sont bien mises en œuvre.  Conduite du changement.  Assurer une veille technologique (data).  A la communauté des tech leads pour s'assurer d'une bonne capitalisation entre entité et de l'harmonisation des pratiques de développement.

Freelance

Mission freelance Un Ingenieur Data Spark / Scala junior sur Strasbourg + TT

Smarteo
Publiée le
Scala

6 mois
100-320 €
Strasbourg, Grand Est

Smarteo recherche pour l'un de ses clients, Un Ingénieur Data Spark / Scala junior sur Strasbourg + TT L'enjeu est d'accompagner la migration de données SAS vers Scala/Spark (mise en place d'un Datalake sur la suite Cloudera). Développement de requêtes. Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word Smarteo recherche pour l'un de ses clients, Un Ingénieur Data Spark / Scala junior sur Strasbourg + TT L'enjeu est d'accompagner la migration de données SAS vers Scala/Spark (mise en place d'un Datalake sur la suite Cloudera). Développement de requêtes. Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word

Freelance

Mission freelance Developpeur Scala Spark AWS

Gentis Recruitment SAS
Publiée le

2 ans
Paris, France

L’application MAD est une solution batch développée : - en Scala/Spark. pour les imports/enrichissements/chargements de market data - en Scala/Spark pour les calculs d’indicateurs/scénarios : New - en C# pour les calculs d’indicateurs/sénarios, le scoring et l’alerting : existant MAD présente un Front REACT avec appels API REST Front/Back. La solution est hébergée sur les cloud : - AWS = Imports (traitements ETL) - storage dans S3 - Azure = Calculs - storage des résultats en base SQL Server Au sein de cette équipe, le candidat interviendra sur l’implémentation Scala Spark des imports de données issues de nouvelles plateformes et du calculateur des indicateurs en tirant profit des possibilités offertes par le Cloud AWS et Azure pour répondre aux attendus en terme de scalabilité et performances. La Mission à réaliser se déclinera notamment à travers: La montée en compétence sur l’application La participation aux Rituels Agile et animations ponctuelles La réalisation des user stories déclinées de la Roadmap MAD définie avec le Métier La rédaction/mise à jour de documentations (spécifications techniques, de schémas d’architecture technique/applicative/logicielle, ) L’implémentation des différents besoins d’évolutions fonctionnelles et techniques et de correctifs La mise en production des développements et le suivi post-release des livrables La rédaction/implémentation/exécution de tests unitaires et d’intégration Le monitoring et suivi de Production : création et suivi de Dashboards Splunk L’assistance et le support aux utilisateurs Tableau de bord d’activité

Freelance

Mission freelance Expert KUBERNETES / SPARK

OBJECTWARE MANAGEMENT GROUP
Publiée le
Kubernetes

2 ans
100-650 €
Île-de-France, France

Contexte : L'équipe réalise le développement de l'ensemble des services BIGDATA , et garantit : L’exploitabilité des présentations mises en œuvre L'expertise des ensembles applicatifs Le planning global de production Le support au pilotage Missions : L'implémentation et maintient de solutions de traitement distribué avec le Framework Spark basées sur : Une stack « Spark on AKS » développée en interne (Kubernetes CRD Spark Operator) La solution Synapse d'Azure Déploiement automatisé et intégration de ces solutions en respectant les exigences de sécurité (autorisation, authentification, chiffrement, résilience, Azure policies…). Expertise dans un environnement bigdata (Spark, Hive, Hadoop…) en production (résilience, DR, incident…). Livrables : Documentation technique concernant les développements Technologies : Hadoop (Big Data) Kubernetes Spark Azure DevOps

Freelance

Mission freelance ADMINISTRATEUR AZURE CLOUD Kubernetes - Spark connaissances Hadoop

BEEZEN
Publiée le

1 an
Paris, France

Ingénieur maîtrisant le cloud Azure, AKS (Azure Kubernetes Service) et l’architecture du framework Spark. 7-10 ans d’expérience. Pour la mission suivante : Implémentation et maintien de solutions de traitement distribué avec le Framework Spark Déploiement automatisé et intégration de ces solutions en respectant les exigences de sécurité (autorisation, authentification, chiffrement, résilience, Azure policies ). Le candidat doit idéalement avoir une expérience significative dans un environnement bigdata (Spark, Hive, Hadoop ) en production (résilience, DR, incident ). Expertise Docker/K8S/AKS : Docker . Helm Charts Déploiement d’application sur Kubernetes . Spécificités Azure Kubernetes Service (Azure Identity, CSI, nodepool, auto-scaling, VM spot ) CI/CD & GitOps : Jenkins ArgoCD Github/Git Nexus Harbor Maîtrise des protocoles de sécurité : OAuth . SSL (certificats ) Partie RUN : Gestion des incidents de production Gestion des changements (Préparation change, Tests, Coordination des intervenants ) Environnement technique : Azure : ADLS, AKS, Synapse, Azure Policies, Service Endpoint Policy, Vnet/Subnet . Big Data : Spark, Hive Metastore, Hadoop . BDD : PostgresSQL & SQL Server . Monitoring : ELK

Freelance

Mission freelance Data Ingénieur Spark scala Databricks

DATSUP
Publiée le

1 an
440-590 €
Paris, France

Nous recherchons un Data Engineer Sénior avec une forte expertise sur Azure, Databricks, Spark, Scala.  Développement et l’implémentation de solutions Big Data Analytics  Analyse du besoin, étude d'impacts et conception de la solution technique  Conception et modélisation des données au niveau d'un Data Lake (format Parquet, Delta table, )  Construction des pipelines de données pour collecter, transformer et traiter des données dans le Data Lake  Développements de notebooks (ex : Databricks) de traitements avancés des données  Cloud Datawarehousing (tuning, optimisation de traitements et requêtes SQL)  Rédaction de documentation technique (Dossier d'Analyse Technique, release delivery note, .)  Revue de code  Réalisation de tests unitaires  Maintenance corrective et évolutive  Livraison dans un environnement Devops, CI/CD et outils associés 3 - Compétences techniques requises  Expérience Data minimum 5 ans  Azure minimum 3 ans  Expérience architecture Lakehouse minimum 2 ans  Databricks minimum 5 ans  Spark minimum 5 ans  Scala minimum 5 ans  Maitrise de CI/CD, Azure DevOps minimum 3 ans  Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an

Freelance

Mission freelance Data Engineer (H/F)

CTG
Publiée le
Apache Spark
Finance
Kubernetes

3 ans
100-600 €
Paris, France

En tant que Data Engineer, vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model. Les projets à adresser visent le développement et maintenance de modules de gestion des données de consommation (intégration, transformation et exposition), de contrats, et leur représentation à travers différentes interfaces. Vous interviendrez aussi bien sur de l'analyse de besoin, design, développement, support, maintenance corrective et évolutive. Vous travaillerez dans une équipe auto-organisée en mode agile avec un Product Owner et 3 BA (Business analystes). Les activités de cette équipe couvrent l'analyse, le développement, les tests, le déploiement et le support. Vos activités principales seront : · La montée en compétence sur les process, produits et applications existantes · La compréhension du business et la réalisation de développements en pair avec un responsable fonctionnel · L’analyse et spécifications des besoins et algorithmes · Implémenter les corrections et évolutions en couvrant tous les aspect conception, codage, sécurité, gestion des erreurs, évolutivité, scalabilité, revues de code, testing, intégration continue, ...- · Fournir des services aux utilisateurs avec le plus haut niveau de satisfaction. · Fournir des estimations de charge et délais · Soutenir l'amélioration continue des services. Identifier les goulots d'étranglement et les bugs et définir des solutions à ces problèmes · Rédiger et mettre à jour les documentations · Proposer des solutions innovantes répondant aux problématiques fonctionnelles et techniques. · Travailler en étroite collaboration avec les BA, les utilisateurs, architectes et autres équipes de développement. · Fournir une communication efficace et opportune aux différentes équipes concernées

Freelance
CDI

Offre d'emploi Développeur Spark/Scala

Opstim
Publiée le
Apache Spark
Scala

1 an
35k-65k €
Schiltigheim, Grand Est

Développeur SPARK/SCALA (H/F) A PROPOS : Notre client est la filiale d’une banque, née d’un rapprochement d’activités de développement et de supervision des systèmes d’information monétique de deux entités. Fort de ce rapprochement réussi, l’entreprise a élargi son périmètre d’activité et assure désormais le traitement de l’ensemble des virements et prélèvements européens et internationaux des deux entités. Leur domaine d’années se concentre également sur le domaine des paiements. DESCRIPTION DU POSTE : Contexte Vous serez rattaché à la Direction de la Fabrication, au sein du département « Fraude/Litiges/Data ». L’objectif serait de renforcer l’équipe projet Datalake pour contribuer à la conversion de tableaux de bords écrits en SAS, vers du langage SPARK/SCALA. Environnement : • Système : Solution Big Data (solution LUCID) basée sur Cloudera • Langage : SAS, SQL, SPARK/SCALA VOS MISSIONS : Conversion de tableaux de bords (reportings statistiques, tableaux, listes, agrégats) écrits en SAS, pour les traduire en SPARK/SCALA : · Interprétation du code source en SAS : prise en compte des étapes du programme, identification des sources de données, des transformations et restitution mises en place · Réécriture en SPARK/SCALA · Tests de non régression par comparaison des résultats Si possible, proposition de démarche à appliquer pour optimiser et industrialiser la démarche de conversion PARTICULARITE : Le candidat retenu sera intégré à l’équipe projet, et disposera de l’encadrement nécessaire pour connaître le contexte, la nature des données manipulées et des traitements effectués. Mais une grande autonomie est exigée pour la rédaction du code SCALA à partir du code SAS, afin de rendre la mission compatible avec les fortes exigences de délai du projet. RÉSULTATS ATTENDUS : Livrables attendus : · Code SPARK/SCALA basé sur la conversion SAS · Documentation associée · Résultats des tests Indicateurs de qualité : · Respects des jalons · Pertinence des propositions · Production des livrables dans les délais convenus

Freelance

Mission freelance DevOps (H/F)

CTG
Publiée le
Apache Spark
DevOps
Jenkins

3 ans
100-690 €
Paris, France

En tant que DevOps vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model. Les projets à adresser visent le développement et maintenance de modules de gestion des données de consommation (intégration, transformation et exposition), de contrats, et leur représentation à travers différentes interfaces. Vos activités principales seront : Conception, mise en place (scripts versionnés dans GIT, paramétrage, TDD et tests d'intégration) et livraison en production des applications dans les règles de l'art - Contribution aux Agile de l'entité dans le respect du framework Scrum (Daily meeting, Review, Rétrospective, Sprint Planning), - Maintien de la documentation technique et fonctionnelle - L'amélioration continue des processus et bonnes pratiques de développement (au sein de l'entité, mais aussi des entités du Socle BigData) - Support de production

Freelance
CDI

Offre d'emploi Développeur Big Data informatica – confirmé – Lyon (LB)

ARDEMIS PARTNERS
Publiée le
Java
Spark Streaming
SQL

12 mois
40k-55k €
Lyon, Auvergne-Rhône-Alpes

Description du profil : Ses missions tournent autour de 4 axes : o Apporter une expertise en Big Data pour faciliter la manipulation des données o Définir les solutions techniques permettant le traitement massif de données o Mettre en place des solutions de stockage de données (SQL, NoSQL, etc.) o Veiller la sécurisation et la clarté des pipelines de données pour faciliter l’analyse et la transformation Il s’appuie si nécessaire sur les référents techniques des diverses briques si ces dernières sortent du cadre de sa mission. Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d’analyse et de synthèse. o Esprit d’équipe 4 à 5 années d’expérience sont attendues sur le rôle au minimum.

CDI

Offre d'emploi DATA Engineer (H/F)

AGIL-IT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

10k-55k €
Issy-les-Moulineaux, Île-de-France

Responsabilités : Concevoir, développer et maintenir des pipelines de données robustes et évolutifs pour l'ingestion, le traitement et la transformation des données. Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins en matière de données et fournir des solutions techniques efficaces. Optimiser les performances et la qualité des données tout au long du cycle de vie du projet. Participer à la conception et à l'implémentation de l'architecture des données, en assurant la scalabilité, la sécurité et la fiabilité. Effectuer une veille technologique constante pour rester à jour avec les meilleures pratiques et les outils émergents dans le domaine du traitement des données.

Freelance

Mission freelance MONITORING ML ET REPORTING ETUDES (F/H)

SMARTPOINT
Publiée le
Apache Spark
HTML
Python

12 mois
500-550 €
Île-de-France, France

L'objectif général est d'accélérer le monitoring de la valeur des produits data, construire des webb app et/ou des reportings associés. Ainsi que de refondre le reporting des études clients au moyen de solutions automatiques innovantes. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Analysis et Data Science. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Expertise du l'environnement python / Git / pyspark - Expertise de l'environnement Dataiku - Expertise en maitrise des bénéficiaires du domaine bancaire - Expertise en Modélisation et ML - Expertise en reporting et data visualisation Les livrables attendus sont : - Evolution d'une webapp Dash de monitoring des scores d'appétences - Refonte des personne bénéficiaires automatiques et mise en place d'une solution de reporting innovante pour la datascience (dash + reporting html, python + Office etc.) - Veille en data Visualisation - Comitologie avec nos Marchés sur le monitoring des modèles - Gestion pour nos produits data en générale et contribution aux modélisations ML et études bénéficiaires - Gestion du projet de bout en bout (planning, comptes rendus, propositions de valeur) Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après : HTML, Python, Spark

Suivant

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !