Trouvez votre prochaine offre d’emploi ou de mission freelance PySpark
Votre recherche renvoie 40 résultats.
Mission freelance
Développeur / Lead IA Générative
Publiée le
IA
IA Générative
LangChain
1 an
Lille, Hauts-de-France
Télétravail partiel
Contexte : Dans le cadre d’un projet stratégique visant à améliorer l’expérience client, notre client souhaite mettre en place un chatbot SAV basé sur des technologies d’IA générative . Ce chatbot sera intégré aux canaux digitaux (site web, application mobile) et devra fournir des réponses précises, contextualisées et instantanées aux demandes fréquentes (statut de commande, assistance, retour produit, garantie, etc.). Objectif : autonomie client, réactivité et fiabilité , tout en réduisant la charge des équipes support. Vos missions : Audit et conseil sur la mise en œuvre d’un agent IA génératif. Développement et intégration via des frameworks tels que LangChain , LangGraph , et gestion de base vectorielle. Accompagnement technique pour la mise en production d’un projet agentique. Mise en place d’agents de tests (type Ragas ) et modélisation (type MCP ). Livrables : Audit, recommandations, développement Data Science.
Offre d'emploi
Data engineer - Vannes - 5-10 ans d'éxpérience Vannes (56)
Publiée le
Agile Scrum
Apache
Apache Kafka
1 an
40k-45k €
400-550 €
Vannes, Bretagne
Télétravail partiel
Merci de bien lire l'annonce ci dessous et vérifier que vous correspondez au besoin. Nous recherchons exclusivement des candidats basés à Vannes ou en Bretagne . Merci de ne pas envoyer de candidature si vous êtes situés hors de cette zone géographique. En tant que Data Engineer , votre mission principale sera de produire des solutions techniques robustes et performantes pour exploiter au mieux les données du client. Cependant, votre rôle ne se limitera pas à l’aspect technique : vous serez également un partenaire stratégique des métiers , capable d’identifier leurs besoins, de comprendre leurs enjeux et de proposer des solutions techniques adaptées. Vos responsabilités : Concevoir, développer et maintenir des pipelines de données performants et évolutifs Participer à la définition de l'architecture Data Développer les solutions de collecte et de stockage des données Mettre en place les tests unitaires et automatisés Garantir la qualité, la sécurité et l’intégrité des données tout au long de leur cycle de vie. Implémenter des solutions qui optimisent la gestion des données pour les équipes métier. Collaborer étroitement avec les équipes métier pour comprendre leurs objectifs stratégiques. Faciliter la communication entre les équipes techniques et les non-techniciens Vous serez à la croisée des chemins entre technique et métier , jouant un rôle clé pour transformer les données en un véritable levier de décision. Votre capacité à allier expertise technique et vision stratégique fera de vous un acteur indispensable pour relever les défis de l’entreprise.
Offre d'emploi
Data Engineer – Data Analyste spécialiste DATAIKU
Publiée le
CI/CD
Cloudera
Git
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
La mission proposée sera d’accompagner les métiers dans la cadre du projet de sortie du progiciel SAS vers le progiciel DATAIKU. Dans ce cadre, les activités principales sont : • Accompagner les utilisateurs dans la prise en main de Dataiku et le déploiement des solutions pour leurs cas d’usage. Cela passe par la compréhension de leurs besoins et contraintes opérationnelles, l’étude des solutions potentielles basées sur le progiciel, et l’aide et support à la réalisation. • Appliquer et diffuser les bonnes pratiques Dataiku ainsi que du processus MLOPS. • Assurer le Support et RUN post déploiement : surveillance, maintenance et optimisation des traitements DATAIKU. Dans le cadre de cette mission, il y a de fortes exigences sur : • Le sens de service. • La pédagogie pour accompagner efficacement les utilisateurs SAS. • L’échange et la communication avec le reste de l’équipe SOD/IA Factory ainsi que les différents interlocuteurs sur ce sujet. A savoir, l’architecte SOD/SAS, l’architecte technique SOD, les architectes DATA ainsi que les interlocuteurs CAGIP. Le critère d’expérience doit s’appliquer à tous ces éléments pour garantir l’adéquation du profil à la demande. Expertise DATAIKU DSS avec certifications : • Core Designer • Advanced Designer • ML Practitioner • MLOps Practitioner • Developer • Generative AI Practitioner
Mission freelance
Développeur / Lead IA Générative
Publiée le
IA
IA Générative
LangChain
1 an
Lille, Hauts-de-France
Télétravail partiel
Contexte : Dans le cadre d’un projet stratégique visant à améliorer l’expérience client, notre client souhaite mettre en place un chatbot SAV basé sur des technologies d’IA générative . Ce chatbot sera intégré aux canaux digitaux (site web, application mobile) et devra fournir des réponses précises, contextualisées et instantanées aux demandes fréquentes (statut de commande, assistance, retour produit, garantie, etc.). Objectif : autonomie client, réactivité et fiabilité , tout en réduisant la charge des équipes support. Vos missions : Audit et conseil sur la mise en œuvre d’un agent IA génératif. Développement et intégration via des frameworks tels que LangChain , LangGraph , et gestion de base vectorielle. Accompagnement technique pour la mise en production d’un projet agentique. Mise en place d’agents de tests (type Ragas ) et modélisation (type MCP ). Livrables : Audit, recommandations, développement Data Science.
Mission freelance
Data Engineer Azure Synapse / (Intégration Data - Référentiel )
Publiée le
12 mois
500 €
France
Data Engineer Azure Synapse / PySpark (Intégration Data - Référentiel Corporate) Secteur : Financial Services / Asset Management Contrat : Mission freelance - 6 mois renouvelables Localisation : France / Hybride 🔍 Contexte Un groupe international de gestion d'actifs recherche un Data Engineer confirmé pour participer à la modernisation et à la consolidation de son référentiel data interne , dans un programme stratégique d'intégration multi‑sources. 🎯 Votre rôle Développer de nouveaux flux d'intégration via Azure Synapse / PySpark Assurer la qualité, la cohérence et la traçabilité des données Contribuer à la mise en place du monitoring Data sur l'ensemble des pipelines Collaborer étroitement avec les Business Analysts et l'équipe Data Analytics Participer aux évolutions continues de la plateforme Data Azure 🧱 Compétences techniques clés Azure Synapse PySpark Azure DevOps SonarCloud Micro‑services API Management Microsoft Playwright Azure Data Factory SQL Server (RDBMS) 👤 Profil recherché Bac+5 (ingénieur ou équivalent) Min. 3 ans d'expérience en développement Data sur Azure Bonne maîtrise des pratiques DevOps & automatisation des tests Connaissance du secteur financier / Asset Management appréciée Excellent niveau FR & EN 📅 Démarrage : 2 février 2026
Mission freelance
Data Engineer AWS / GenAI
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
450-550 €
Paris, France
Télétravail partiel
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort
Publiée le
Apache Kafka
AWS Glue
Data analysis
3 mois
Maisons-Alfort, Île-de-France
Télétravail partiel
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Mission freelance
Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour
Publiée le
AWS Cloud
Python
3 ans
400-500 €
Île-de-France, France
Télétravail partiel
Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour Évolution des infrastructures cloud via l’Infrastructure as Code Gestion d’un cluster kubernetes Développement de micro-services en Python Conception et maintenance de chaînes de déploiement automatisé Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform Enrichissement de la documentation à l’attention des utilisateurs Expérience significative sur le cloud AWS et/ou Azure, notamment sur les services de données (Gen2 et ou S3). Développement d’application web. Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Familiarité avec les mécanismes de traitement et de valorisation des données. Python, Terraform GitHub, GitHub Action Azure : AKS, Data Lake Gen2, Data Factory AWS : EKS, S3, ECS, VPC, NSG, Lambda, … Databricks : Unity Catalog, Policy, Cluster, PySpark Pratiques : Scrum Notions : DevSecOps, Data Engineering, Data Management Langues : Anglais et Français 500 e par jour
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
40 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois