Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Spark

Votre recherche renvoie 172 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Consultant/Chef de projet Cloud

GROUPE ALLIANCE
Publiée le
Apache Kafka
Kali Linux
Prometheus

12 mois
410-750 €
Paris, France

Pour le compte de l' un de nos clients dans le domaine assuranciel, nous recherchons un Consultant/Chef de projet Cloud L’objectif de la mission est de définir et de mettre en place les principes de l’architecture des applications Cloud Native. - Définir les principes de conception d’une application dite Cloud Native en positionnant le rôle des API et du maillage de service - Définir les principes de mises en place des architectures de type microservices dont la granularité associée - Définir et accompagner la mise en œuvre du maillage de services via l’approche ServiceMesh o Recueillir les besoins et les critères permettant de faire le choix de la plateforme de ServiceMesh o Cadrer les principes et accompagner la mise en œuvre au sein de notre solution de gestion de conteneurs o Définir et accompagner la mise en œuvre des principes de développements de l’approche ServiceMesh - Définir les patterns de conception cible des applications comme Circuit Breaker, Canary Deployement, Blue/Green Deployement, A/B Testing, …. - Définir les patterns de conception d’architecture EDA et EventMesh ainsi que leurs déclinaisons opérationnelles o Recueillir les besoins et les critères permettant de faire le choix de la plateforme de gestion des évènements o Cadrer les principes et accompagner la mise en œuvre de la plateforme de gestion d’évènements - Cadrer les principes de recette et de validation de la nouvelle approche de développement qui sera choisie o Définir les principes de migration des anciens patterns de conception /développements vers la nouvelle approche - Former et accompagner le changement chez les parties prenantes - Conception de support de communication La prestation aura lieu principalement à Paris avec des déplacements réguliers sur le site du Mans et d’autres à prévoir de manière moins fréquente sur les sites de Niort, Levallois et Saran

Freelance

Mission freelance
Developpeur Full Stack

Enterprise Digital Resources Ltd
Publiée le
Apache Kafka
CI/CD
Docker

7 mois
100-490 €
Hauts-de-France, France

Au sein du Domaine Customer Delivery de la plateforme Supply Chain, nous cherchons un développeur fullstack expérimenté pour notre Transport Management System TMS B2C. Ce produit permet de choisir le transporteur adapté à la commande client et de gérer sa livraison et son tracking. Le contexte est international (déploiement dans différents pays), l'anglais courant est un plus. Le projet pivote et nous devons construire "from scratch" plusieurs composants. Le rôle du développeur dans l'équipe : - dév des features + run de l'existant - capacité / curiosité de comprendre le besoin fonctionnel pour trouver la solution tech qui répond au besoin - connaissances devOps - force de proposition / d'amélioration sur le code / l'architecture applicative / l'organisation de l'équipe - TU + Tests automatisés à systématiser

Freelance
CDI

Offre d'emploi
Ingénieur de Production MCO

Deodis
Publiée le
Apache Kafka
Apache Tomcat
Control-M

6 mois
50k-60k €
Marseille, Provence-Alpes-Côte d'Azur

Sur les environnements de préproduction : Contribution à la stratégie des tests, traçabilité de ces derniers au sein des outils de support de la qualification Dans le cadre de la préparation de la Mise en Production (MEP) et/ou de Mise en Service (MES) à venir : Contribution au plan de MEP/MES, Répétition des gestes de MEP/MES en respectant les modes opératoires prévus et le cadencement du plan de MEP/MES Rédaction des tâches de changements Exploitabilité de la solution et Validation d'Aptitude au Bon Fonctionnement (VABF) : Procédures standards : Arrêt / Marche des composants, fourniture des logs, etc... Continuité / Disponibilité des composants applicatifs définissant le service concerné Supervision de la plate-forme et des composants applicatifs Stratégie de Sauvegarde et de Restauration Journalisation / Archivage / RGPD Sur l'environnement de production : Réalisation de la MEP/MES et support à la Validation de Service Régulier (VSR) des projets Assurer le Maintien en Conditions Opérationnelles (MCO) dans un contexte des engagements de services définis avec les directions métiers : Gestion des incidents de production remontés par le service client, les directions métiers, nos filiales et les clients pro, le domaine Loterie ou la Direction des Opérations, Analyse et escalade en anomalie, voir problème lorsque nécessaire, Suivi des incidents pris en charge et anomalies créées Assurer de traitement de Demandes de Travaux (DMT) spécifiques

Freelance
CDI

Offre d'emploi
Développeur java API/ Tests POSTMAN / Connaissances des paiements/ Anglais / +9ans d'XP

HIGHTEAM
Publiée le
Apache Tomcat
API
Java

24 mois
10k-61k €
Charenton-le-Pont, Île-de-France

POSTE ET MISSIONS Nous recherchons un développeur Java senior pour rejoindre notre équipe technique. La mission nécessite une solide expérience dans le développement Java, une connaissance approfondie de Spring Boot, Tomcat et des API. Il faut avoir de l’expérience dans l’automatisation des tests avec les collections Postman. Les développements devront être réalisés dans le respect des bonnes pratiques de développement et des règles de sécurité. La maîtrise de l'initiation de paiement serait un atout. Description : • Réaliser les API donnant accès aux services internes en respectant les exigences de performance et de sécurité • Définir les nouvelles APIs en collaboration avec les équipes métiers et d’architecture • Développer et maintenir les APIs (basé sur les techno type Java, Maven, RAML, Anypoint) • Créer les tests unitaires / intégrations associés à chaque API • Déployer les APIs sur les différents environnements

Freelance
CDI

Offre d'emploi
Tech Lead MLOPS (H/F)

SCALIAN
Publiée le
Apache Kafka
AWS Cloud
Data science

12 mois
70k-80k €
Paris, France

• Mettre en place l’outillage Datascience et MLOPS et identifier les patterns et normes pour un usage par 40 caisses régionales • Évaluer et adopter de nouvelles technologies et méthodologies pour améliorer les processus MLOps et l'efficacité de l'équipe • Diriger l'élaboration et la mise en œuvre des pipelines / solutions MLOps pour l'entraînement, le déploiement et la surveillance des modèles ML • Superviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes internes • Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) • Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives • Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution • Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin • Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints • Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise • Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).

Freelance

Mission freelance
INGENIEUR DE PRODUCTION / CHARGE D’INTEGRATION– AIX EN PROVENCE H/F

Acpqualife
Publiée le
Apache Tomcat
Control-M
DAT

1 an
450-470 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Quel poste proposons-nous ? Dans le cadre de notre développement en région PACA, nous recherchons un Ingénieur Chargé d’Applications / Intégrations (H/F) pour intervenir chez un client grand compte basé à 15 min d’Aix-en-Provence. Le collaborateur intégrera le service « Intégration et Exploitation des Applications » dans la Direction de l’Exploitation. Vos missions consisteront notamment à : Conception d’architecture technique en prenant en compte la résilience et redondance pour répondre à la disponibilité des services en production, Clusterisation Architecture technique orientée middleware et rédaction des DAT Déployer des applications en PREPRODUCTION et PRODUCTION au sein d’un périmètre sensible à haut niveau de sécurité. Concevoir et réaliser les changements complexes afin d'assurer la disponibilité et de la continuité de service du SI. Gérer des incidents N2 et ou N3. Assurer le maintien en conditions opérationnelles des applications. Veiller au maintien de la sécurité opérationnelle. Alimenter et faire respecter le référentiel de connaissance et de bonnes pratiques, MAJ du référentiel documentaire. Accessible : 2 jours de télétravail et 3 jours de présentiel – 1er moins intégration en présentiel

CDI

Offre d'emploi
Data Scientist orienté Engineering - Partenaire Tech pour les Assureurs – Full remote (H/F)

EASY PARTNER
Publiée le
Apache Spark
AWS Cloud
CI/CD

65k-75k €
Paris, France

Contexte du poste : Nous sommes une entreprise innovante dans le secteur des technologies appliquées à l'assurance, basée dans la région parisienne. Notre mission est d'accompagner les assureurs dans la gestion et l'analyse de leurs risques, en utilisant des solutions SaaS avancées. Nous travaillons sur des projets variés visant à optimiser la souscription d'assurances et la gestion de portefeuille grâce à l'intelligence artificielle. Afin de soutenir notre croissance rapide et nos projets d'expansion internationale, nous recherchons un(e)Data Scientist orienté Engineering pour renforcer notre département Insights. Missions : - Concevoir et implémenter des modèles de Machine Learning pour répondre aux besoins business complexes. - Gérer le cycle de vie complet des modèles, de la conceptualisation à la mise en production. - Être le garant de la qualité du code au sein du département Insights, mettre en place des bonnes pratiques de développement. - Conduire des analyses ad hoc pour éclairer les décisions stratégiques. - Participer à des projets d'innovation et d'expérimentation de nouvelles technologies.

Freelance

Mission freelance
Développeur SOLR Montpellier ou TT /ri

WorldWide People
Publiée le
Apache Solr

6 mois
320-370 €
Montpellier, Occitanie

Développeur SOLR Montpellier ou TT ASAP Pour un client du secteur public, nous recherchons un développeur expérimenté en SOLR pour rejoindre notre équipe de développement dans le cadre d’une TMA Java/PHP. Le candidat retenu sera chargé de concevoir, développer et maintenir des solutions basées sur Apache SOLR, en collaboration avec d'autres membres de l'équipe technique qui développent sur Java Spring Boot, Vue.js et PHP. Responsabilités - Concevoir, développer et mettre en œuvre des solutions de recherche basées sur Apache SOLR. - Optimiser les performances des applications en utilisant les fonctionnalités avancées de SOLR. - Collaborer avec les équipes de développement pour garantir l'intégration optimale de SOLR dans les applications existantes. - Assurer la surveillance, la maintenance et le dépannage des déploiements SOLR. Exigences - Expérience avérée dans le développement avec Apache SOLR, y compris la configuration, l'optimisation des performances et la mise en œuvre de fonctionnalités avancées. - Connaissance approfondie des systèmes de recherche, des index et des moteurs de recherche. - Compétences en programmation dans des langages tels que Java, Python… - Capacité à travailler en équipe, à communiquer efficacement et à résoudre les problèmes de manière autonome. Avantages - Rejoindre une équipe dynamique et collaborative. - Possibilité de contribuer à des projets innovants et stimulants

Freelance

Mission freelance
Dataiku

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Spark
Dataiku
Hadoop

3 ans
100-500 €
Paris, France

Nous recherchons pour un de nos clients un Data engineer avec deux ans d’éxpériences à minima sur daitaiku , Ce collaborateur doit maitriser les technos comme Python stack technique du besoin : Python hadoop spark 2 ans a fond de dataiku Localisation : IDF, metro , Télétravail : 2 jours de télétravail Démarrage : asap Tjm : dépend de l’expérience, entre 500 et 600max Quelqu’un qui connait depuis 5 ans la solution NB : Ce besoin n'est pas encore exprimé chez notre client, c'est assez urgent nous pouvons faire passer les entretiens asap ainsi que le démarrage

Freelance

Mission freelance
Développeur full stack java/vue (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Docker
Java

2 ans
100-440 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur full stack java/vue (H/F) à Lille, Hauts-de-France, France. Contexte : Supply Les missions attendues par le Développeur full stack java/vue (H/F) : Le rôle du dév dans l'équipe : - dév des features + run de l'existant - capacité / curiosité de comprendre le besoin fonctionnel pour trouver la solution tech qui répond au besoin - connaissances devOps - force de proposition / d'amélioration sur le code / l'architecture applicative / l'organisation de l'équipe - TU + Tests automatisés à systématiser Technos : Java 21, Spring boot 3, MongoDB, Postgresql, CI/CD Github actions, Kubernetes, Docker (modifié), Datadog A noter, même si elles ne sont pas encore en place dans l'équipe, des astreintes seront certainement mises en places au cours de l'année.

CDI

Offre d'emploi
Consultant BI (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
AWS Cloud
BigQuery

40k-50k €
Lille, Hauts-de-France

💼 Missions pour le Consultant BI : Développement et optimisation : Concevoir et déployer des solutions BI en utilisant Tableau, Power BI, SQL , Python, et plus, pour répondre aux besoins des clients. Analyse de données : Utiliser AWS, DBT, Databricks, GCP ( BigQuery ), pour l'analyse et la transformation des données. Automatisation des processus : Mettre en place des pipelines de données automatisés avec Docker, Airflow, et Git. Surveillance et optimisation : Utiliser Datadog, Looker, SAP BO, Cognos , pour surveiller les performances et optimiser les systèmes. Expertise technique : Fournir des conseils d'expert sur SQL Server, Cubes , SSIS, SSRS, SSAS , pour améliorer les processus et les performances.

CDI

Offre d'emploi
Développeur Back End Senior

Aepsilon
Publiée le
Apache Kafka
Apache Tomcat
J2EE / Java EE

45k-47k €
Valbonne, Provence-Alpes-Côte d'Azur

Vous offririez bien un peu de challenge à votre vie professionnelle, mais vous n’avez pas encore trouvé LE rôle qui va vous donner cette envie de changement ? Il se peut que l’on ait quelque chose à vous proposer :) En effet, nous vous proposons de rejoindre une entreprise à taille humaine, dynamique et bienveillante. Son domaine d’activité : le voyage. Son objectif : simplifier la réservation des billets d’avion grâce à des solutions innovantes. Venons-en au poste : nous recherchons un Développeur back-end senior . Challenger l’architecture de la solution Prendre part aux décisions concernant les évolutions techniques Gérer la migration du back-end historique vers un nouveau back-end (architecture micro services) Définir les bonnes pratiques de développement pour le back-end Définir, développer et maintenir les composants transverses qui constituent le socle technique back-end Participer à l'élaboration de la documentation nécessaire à l’exploitation et au maintien des applications Assurer une veille sur les technologies back Choisir les technologies les plus judicieuses en fonction de son contexte Liste évidemment non exhaustive ! Suivant la méthodologie Scrum, vous travaillerez en étroite collaboration avec deux développeurs back-end et un développeur front-end, un Product Owner et un CTO.

Freelance

Mission freelance
Responsable opérationnel d'applications

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Hive
Apache Kafka
Apache Spark

4 mois
100-1 500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

CDI

Offre d'emploi
Big data engineer

Datapy Group
Publiée le
Apache Kafka
Apache Spark
PySpark

32k-80k €
Île-de-France, France

Nous sommes à la recherche d'un Ingénieur Big Data pour palier au besoins de nos clients. Le candidat retenu sera chargé de concevoir, développer et maintenir l'infrastructure Big Data, ainsi que de travailler sur des projets d'analyse de données complexes. Responsabilités : Concevoir, développer et déployer des solutions Big Data évolutives et robustes. Mettre en place des pipelines de données pour l'acquisition, le stockage et le traitement de grands volumes de données. Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins en matière d'analyse de données. Optimiser les performances des systèmes et des applications Big Data. Assurer la sécurité et la confidentialité des données tout au long du processus.

Freelance

Mission freelance
Architecte Cloud Native (H/F)

LeHibou
Publiée le
Apache Kafka
Cloud
Kali Linux

12 mois
470-550 €
Paris, France

Notre client dans le secteur Assurance recherche un Architecte cloud native H/F Descriptif de la mission : Nous recherchons pour notre client un architecte cloud, afin de l'accompagner dans une transformation visant à devenir un "cloud service provider" pour les métiers et les marques. Lors de cette mission, les 2 capacités essentielles sont : - Celle de maitriser les principes de conception/développement logiciel et des liens avec les composants middleware L’objectif de la mission est de définir et mettre en place les principes de l’architecture des applications Cloud Native. - Définir les principes de conception d’une application dite Cloud Native en positionnant le rôle des API et du maillage de service - Définir les principes de mises en place des architectures de type microservices dont la granularité associée - Définir et accompagner la mise en œuvre du maillage de services via l’approche ServiceMesh

Freelance
CDI

Offre d'emploi
Data Engineer AWS

4 Impact
Publiée le
Apache Spark
AWS Cloud
Scala

12 mois
39k-50k €
Hauts-de-Seine, France

Nous recherchons pour l’un de nos clients un Data Engineer AWS. Contexte de la mission : Au sein de l'équipe chargée de développer des outils internes d’une entité, constituée de 10 personnes : Développeurs back/frond end et Ingénieurs Data, le Data Engineer AWS est en charge de mener à bien un besoin clé du Groupe autour du sujet Zéro Carbone. Affecté à l'équipe métier, nous travaillons en mode Scrum en collaboration avec un autre Data Engineer et un PO pour réaliser les tâches et mener à bien le projet à terme. Missions : - Créer des fonctions AWS Lambda et pour consommer des APIs provenant de l'extérieur (données Gas/Power) et alimenter nos buckets S3 dédiés. - Développer des jobs AWS Batch pour alimenter nos buckets S3 avec des données pré-calculées de l'intensité Carbon du Groupe et de ses clients. - Mettre en place des dashboards sur Quicksight pour visualiser les résultats. - Développer une API Flask et exposer les calculs via Swagger. - Exploration des données via AWS Athena. - Mise en place de Jupyter Notebooks pour exposer et valider nos premiers résultats de calculs aux métiers. - Scheduler des jobs via CloudWatch et StepFunctions. - Archiver l'ensemble du code dans Git et mettre en place un déploiement automatique via Azure Devops - Mise en place de WebApps sur Azure pour héberger nos API Flask. - Collaborer avec nos clients pour présenter nos calculs et les accompagner. Environnement technique : Spark, Python, Jupyter/ Pytest, Flask, Swagger, AWS Lambda/ Athena/ CloudWatch/ QuickSight/ Batch / S3/ Partionning/ Bucketing, Azure Devops/ Functions/ AppService/ Web Apps.

172 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous