L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 448 résultats.
Mission freelance
Data Engineer Python – Data Platform & Data Governance
Deodis
Publiée le
BI
Data Engineering
Data quality
1 an
340-500 €
Île-de-France, France
Dans le cadre de l’évolution de sa Data Platform, le client recherche un Data Engineer Python pour intervenir au sein de l’équipe DataHub Core Platform. La mission consiste à contribuer aux projets de migration vers une nouvelle plateforme, au développement de nouveaux cas d’usage BI ainsi qu’à la mise en place de workflows en Python. Le consultant participera également à des projets stratégiques tels que le Transaction Profiling, le Data Quality Framework (DQF) et le Data Lineage, avec pour objectif d’améliorer la qualité, la fiabilité et la traçabilité des données. Il sera aussi en charge du développement de modules Python mutualisés, réutilisables sur l’ensemble des projets data, dans un environnement dynamique et orienté gouvernance des données.
Offre d'emploi
Data Engineer Python
Signe +
Publiée le
Python
24 mois
45k-50k €
322-500 €
Lyon, Auvergne-Rhône-Alpes
Missions : Développer et maintenir des produits data avec des contrats clairement définis. Concevoir et maintenir des pipelines de données batch et event‑based. Construire des pipelines Polars hautement performants. Supporter et optimiser des workflows à grande échelle sur Databricks. Mettre en place des processus robustes d'ingestion, de transformation et de validation des données, en visant performance, scalabilité et résilience. Garantir une haute qualité de données grâce à des validations et des tests automatisés. Gérer les composants de stockage et data lake de Azure Cloud conformément aux standards internes. Contribuer à l'automatisation CI/CD GitLab et assurer une haute qualité du code Python produit. Compétences : Forte expertise en Python (clean architecture, performance, tests). Expérience dans la création de data pipelines en Python. Expérience avec des bibliothèques de traitement de données : Polars, Pandas, Databricks, DBT, etc. Maîtrise d'outils d'orchestration de workflows : Prefect, Airflow, Dagster… Solide compréhension du data modeling et du design de schémas. Connaissance des bonnes pratiques d'ingénierie logicielle : CI/CD, code review, tests automatisés… Soft skills : Excellentes compétences en résolution de problèmes, autonomie, envie d'apprendre. Forte attention portée à la qualité et à la fiabilité des données. Aisance dans des environnements d'ingénierie collaboratifs. Capacité à documenter et communiquer clairement des concepts techniques. Les compétences techniques priment sur le nombre d'années d'expérience. 2J TT/semaine Compétences techniques requises : Python Azure Databricks CICD Pandas GitLab
Offre d'emploi
DATA ENGINEER PYTHON
UCASE CONSULTING
Publiée le
Azure
Azure Kubernetes Service (AKS)
Jenkins
3 ans
40k-60k €
500-580 €
Paris, France
2 DESCRIPTION DE LA MISSION 2.1 Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein pour 1 Data Engineers Python. Vous interviendrez d’un nouveau lot sur un projet déjà initié il y a un an. Vous intégrerez une équipe existante composée de 3 Data Engineers et d’un Chef de Projet. Au sein de l’équipe, vous aurez à charge la réalisation de ce lot projet. Le projet est piloté en agilité, par conséquent le delivery sera détaillé sous formes d’US. Chaque US comprend du développement, des tests, de la documentation. Les technologies associées sont Python, Pandas/Polars, Kubernetes et Azure. 2.2 Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; 2.3 Dates souhaitées de début et de fin de mission Date de début : 13/04/2026 Compétences sur les méthodes et les outils Requises • maîtrise du langage Python et de son écosystème (packaging, gestion de versions…) • maîtrise des librairies Data, en particulier Pandas et/ou Polars • maîtrise de la CI/CD sous Jenkins • maîtrise du cloud, en particulier Azure • expérience dans le développement de job batch sur Kubernetes (AKS) • bonnes pratiques de développement
Offre d'emploi
Data Scientist Senior — Expert IA Générative
Craftman data
Publiée le
AWS Cloud
IA Générative
Large Language Model (LLM)
12 mois
Seine-Saint-Denis, France
Data Scientist Senior — Expert IA Générative Minimum 5 ans en Data Science, dont 2+ ans en IA Générative AWS (GCP accepté si expertise confirmée) Mon client recherche un expert Data Scientist avec une forte orientation IA Générative, capable d'agir à la fois comme référent technique et comme ambassadeur de l'IA auprès des parties prenantes métiers et IT. Ce profil doit être un véritable catalyseur du changement, prêt à faire bouger les lignes et à ancrer une culture de l'IA au sein du groupe. 1. Expertise IA Générative & Data Science ▸ Définir et appliquer les méthodologies, bonnes pratiques et standards liés à l'IA Générative (LLM, RAG, fine-tuning, prompt engineering, agents autonomes…) ▸ Concevoir, développer et déployer des modèles et solutions d'IA Gen adaptés aux enjeux d'EDF ▸ Assurer une veille technologique active et identifier les opportunités d'innovation ▸ Garantir la qualité, la robustesse et l'éthique des approches IA mises en œuvre 2. Identification & Portage des Cas d'Usage ▸ Explorer et qualifier de nouveaux cas d'usage IA Générative, tant pour les métiers qu'en interne à la DSIN ▸ Challengeur les approches IA existantes et proposer des alternatives plus performantes ou innovantes ▸ Construire des preuves de concept (PoC) et accompagner le passage à l'échelle ▸ Prioriser les cas d'usage selon leur faisabilité technique et leur valeur business 3. Animation & Communication ▸ Interagir avec les acteurs clés (Directions métiers, DSI, Comité de Direction) pour présenter les travaux et défendre les orientations IA ▸ Animer des ateliers de co-construction et des sessions de sensibilisation à l'IA Générative ▸ Vulgariser des concepts techniques complexes pour des audiences non spécialistes ▸ Participer activement aux instances de gouvernance IA du groupe 4. Transformation & Acculturation ▸ Impulser une dynamique de transformation autour de l'IA au sein de la DSIN et de ses partenaires ▸ Contribuer à la construction d'une feuille de route IA ambitieuse et réaliste ▸ Mentorer et monter en compétences les équipes internes sur les sujets IA Gen ▸ Être force de proposition pour faire évoluer les pratiques et les organisations PROFIL RECHERCHÉ Compétences techniques indispensables ▸ Maîtrise avancée des techniques de Data Science : machine learning, deep learning, NLP, statistiques ▸ Expertise confirmée en IA Générative : LLM (GPT, Llama, Mistral…), RAG, agents, orchestration (LangChain, LlamaIndex…) ▸ Expérience sur AWS (SageMaker, Bedrock, Lambda…) — GCP (Vertex AI, BigQuery ML) accepté ▸ Maîtrise des langages Python et des frameworks IA/ML (PyTorch, HuggingFace, scikit-learn…) ▸ Connaissance des pratiques MLOps et de déploiement en production (CI/CD, monitoring de modèles) Savoir-être & posture attendus ▸ Excellentes qualités de communication orale et écrite, capacité à vulgariser et convaincre ▸ Leadership d'influence : capacité à embarquer sans autorité hiérarchique ▸ Curiosité intellectuelle, esprit d'initiative et goût pour l'innovation ▸ Appétence forte pour le changement et volonté de faire évoluer les pratiques dans un grand groupe ▸ Rigueur, autonomie et capacité à gérer plusieurs sujets en parallèle Expériences valorisées ▸ Expériences dans des secteurs régulés ou à forte contrainte (énergie, industrie, finance, santé…) ▸ Participation à des projets IA d'envergure avec mise en production effective ▸ Contribution à des communautés IA (publications, conférences, open source…)
Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)
WorldWide People
Publiée le
Data science
9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Mission freelance
Senior Data Engineer Palantir
Orcan Intelligence
Publiée le
Big Data
Databricks
9 mois
600-800 €
Paris, France
Orcan Intelligence recherche pour l'un de ses clients dans le secteur de la Finance un consultant Data Engineer senior sur les sujets Palantir . Voici les livrables attendus : Développer des pipelines de données pour nos fondations dans Palantir Foundry Construire, maintenir et documenter des pipelines, notamment pour l'intégration de données dans notre modèle analytique (architecture medallion). Etablir des Contrôles de qualité, tests,........ etc
Offre d'emploi
Data Engineer Big Data / BI
adbi
Publiée le
Apache Hive
Apache Spark
Cloudera
12 mois
38k-46k €
Paris, France
Data Engineer Big Data / BI – Scala, Spark, SQL, Hive, Cloudera (H/F) 💼 Contrat : CDI 🏢 Entreprise : ADBI – Expert en Data Management et transformation digitaleContexte du poste Dans le cadre de l’évolution de ses plateformes Big Data et décisionnelles, ADBI recherche un(e) Data Engineer pour intervenir sur des projets d’intégration, de transformation et d’industrialisation de données. Vous participerez à la migration et à l’optimisation d’environnements Big Data (Cloudera, Spark, Hive, Scala) et contribuerez à la mise en place de solutions BI performantes et scalables.
Offre d'emploi
Data Engineer senior
Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue
1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
Offre premium
Offre d'emploi
Responsable MOA DATA URBANISATION SI
infotem
Publiée le
AMOA
Data management
SQL
6 mois
55k-60k €
550-600 €
Île-de-France, France
Au sein de la Direction des Systèmes d’Information Interne, vous pilotez l’équipe « AMOA et gouvernance SI/DATA», dont la mission est : - d’accompagner en transverse les directions métiers dans la définition et la mise en œuvre de leurs projets SI, - d’assurer la cohérence et la pertinence de l’architecture fonctionnelle du SI Interne (Finance, RH, Commerce, Service client, DSI, BUs…), - de garantir la qualité, la sécurité et la valorisation des données traitées dans les environnements Data et BI de l’entreprise. - d’animer et de déployer la gouvernance de la donnée, et de favoriser l’acculturation des métiers à son usage, afin de renforcer la valeur créée par la donnée dans les activités de l’entreprise. À ce titre, vous êtes l’interlocuteur privilégié des directions métiers, garant(e) de l’alignement des solutions SI avec les orientations stratégiques du groupe. Les fonctions principales du poste sont les suivantes : Management d’équipe - Encadrer, animer et développer les compétences de l’équipe AMOA et gouvernance SI/DATA. - Organiser la charge et prioriser les sujets en lien avec la feuille de route SI interne. - Favoriser la collaboration transverse avec les autres équipes de la DSI et les métiers. Conduite de projets et transformation AMOA SI/DATA - Accompagner les directions métiers dans l’expression de besoin, le cadrage et la mise en œuvre de solutions SI adaptées. - Piloter certains projets de bout en bout : cadrage, gouvernance, planification, suivi, reporting, tests, recettes, mise en production. - Rédiger les spécifications fonctionnelles, la documentation projet et coordonner les validations. - Organiser et animer les ateliers de travail et de conduite du changement. - Garantir le respect des coûts, délais, qualité et sécurité des projets confiés - Veiller à l’harmonisation et à la bonne traduction des processus dans les différentes briques du SI Interne Urbanisation SI et gouvernance des données - Animer et déployer la gouvernance de la donnée au sein de l’entreprise, et accompagner l’acculturation des métiers à ses enjeux. - Définir et mettre en œuvre la gestion des référentiels internes (clients, produits, projets…). - Maintenir et enrichir la documentation fonctionnelle, les dictionnaires de données et les KPIs. - Assurer la qualité et la conformité des données dans les projets SI. - Établir et maintenir la cartographie des SI métiers. - Réaliser des études d’opportunité et de faisabilité pour orienter les choix SI sur les périmètres prioritaires - Piloter la feuille de route des projets SI transverses et leurs instances de gouvernance dédiées
Mission freelance
Data Engineer industriel
MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel
6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
Offre d'emploi
Senior Data Engineer F/H
Atecna
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)
Lille, Hauts-de-France
Des missions data à fort impact, une communauté en pleine expansion. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Data, animée par Steve et une équipe d'experts passionné·es en pleine structuration. Une équipe qui capitalise sur ses expériences projets et partage activement ses bonnes pratiques et sa veille sur l'écosystème data. Tu es en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Data d'Atecna de l'intérieur. ⚡ Ton impact au quotidien Grâce à toi, nos clients cessent de subir leurs données et commencent à en faire un vrai levier de décision. Tu conçois et industrialises des pipelines data robustes (ETL/ELT, batch, streaming) Tu orchestres les flux avec les bons outils (Airflow, dbt…) dans des environnements cloud (GCP en priorité) Tu modélises et optimises des bases de données pour des usages métiers concrets Tu contribues à la structuration de la communauté Data Atecna : pratiques, standards, montée en compétences Bonus : tu as déjà monté une plateforme data from scratch ou tu as une appétence pour le mentorat ? Ce serait un vrai atout pour nous.
Offre d'emploi
Data engineer Python
UCASE CONSULTING
Publiée le
Azure
CI/CD
Flask
1 an
40k-45k €
400-550 €
Île-de-France, France
Bonjour à tous, Notre client recherche un Data Engineer Python afin de renforcer ses équipes data intervenant sur plusieurs projets de traitement et d’industrialisation de données dans un environnement cloud . L’objectif de la mission est de participer au développement et à l’évolution de solutions data utilisées par différentes applications métiers. Vous interviendrez au sein d’une équipe de Data Engineers travaillant en méthodologie agile , sur des projets mêlant développement de pipelines de données, services data et maintenance évolutive dans un environnement Python / Cloud . Vos missions Concevoir et développer des pipelines de traitement de données en Python Participer au développement de services ou APIs data Implémenter les User Stories et contribuer aux sprints agiles Réaliser les tests techniques et produire la documentation associée Participer à l’ industrialisation des développements (CI/CD, monitoring) Contribuer aux évolutions et à la maintenance des applications data existantes
Offre premium
Mission freelance
Responsable Data Marketing & Connaissance Client Senior (F/H)
Actual Talent
Publiée le
Microsoft Power BI
Python
Salesforce
6 mois
600-880 €
Loiret, France
Nous recherchons pour l’un de nos clients, acteur reconnu du secteur de l’assurance, un(e) Responsable Data Marketing & Connaissance Client Senior dans le cadre d’une mission freelance à fort enjeu. La mission s’inscrit dans un contexte de transformation data et digitale, avec un besoin de sécuriser l’activité existante, piloter les sujets prioritaires et renforcer la connaissance client au service de la performance marketing. Vos missions : Sécuriser et piloter les dispositifs de suivi de la performance marketing Accompagner le chiffrage et le pilotage du plan marketing 2026-2027 Développer la connaissance client : segmentation, scoring, personnalisation Produire des analyses et recommandations business à partir des données Concevoir et faire évoluer les reportings et tableaux de bord Encadrer une petite équipe composée de profils études/statistiques Présenter les résultats et recommandations à des interlocuteurs métiers et direction Environnement technique CRM : Salesforce Data : Snowflake Reporting : Power BI Analyse : SAS Autres : SQL, R ou Python appréciés Les plus de la mission Mission stratégique au croisement de la data , du marketing et de la connaissance client Visibilité forte auprès des équipes métiers et de la direction Contexte stimulant de structuration et d’évolution des usages data Mots-clés : Data marketing, connaissance client, CRM, Salesforce, Snowflake, Power BI, SAS, SQL, segmentation, scoring, reporting, assurance, freelance.
Mission freelance
Data Engineer Expert (Python & Databricks)
Nicholson SAS
Publiée le
CI/CD
Databricks
Gitlab
8 mois
400 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Industrie / Mobilité Localisation : Lyon (Rythme : 3 jours/semaine sur site) Démarrage : ASAP Clôture prévisionnelle : 31/12/2026 Le Challenge Intégré(e) à un environnement technologique de pointe, vous aurez pour mission de concevoir et d'industrialiser des produits data robustes. Votre objectif : garantir la fluidité, la scalabilité et la résilience de pipelines de données complexes, tout en imposant une culture de "Data Contract" et de qualité logicielle. Vos Responsabilités Ingénierie de données : Concevoir, développer et maintenir des pipelines batch et event-based haute performance. Optimisation & Scalabilité : Construire des flux Polars optimisés et supporter des workflows à grande échelle sous Databricks . Qualité & Fiabilité : Mettre en œuvre des processus de validation et de tests automatisés pour garantir l'intégrité absolue des données. Cloud & Industrialisation : Gérer les composants de stockage Azure et piloter l’automatisation via des pipelines CI/CD GitLab . Standards Software : Garantir la production d'un code Python exemplaire (Clean Architecture, revues de code, performance). Stack Technique Cible Langage : Python (Expertise Clean Architecture & Performance). Traitement : Polars, Pandas, Databricks, dbt. Orchestration : Prefect, Airflow ou Dagster. Cloud & Ops : Azure Cloud, GitLab CI/CD. Méthodologie : Data Modeling, design de schémas, tests automatisés. Profil Recherché Plus qu'un nombre d'années d'expérience (+4 ans suggérés), nous recherchons une véritable culture de l'ingénierie logicielle . Mindset : Esprit analytique, autonomie et forte capacité de résolution de problèmes techniques. Soft Skills : Excellente communication technique, goût pour le travail collaboratif et rigueur documentaire. Exigence : Une attention particulière portée à la "Product Value" et à la durabilité des solutions livrées. Conditions de la prestation TJM : 400 € Langue : Français / Documentation technique en Anglais Atout : Capacité à monter rapidement en compétence sur de nouveaux outils d’orchestration et de traitement. Note : Cette mission s'adresse à un profil passionné par l'efficience du code et la robustesse des architectures de données modernes.
Mission freelance
Data Scientist – GenAI & RAG - Paris
Net technologie
Publiée le
AWS Cloud
Data science
GenAI
3 mois
Paris, France
Nous recherchons un Data Scientist pour renforcer un centre d’expertise IA dédié à des cas d’usage liés à la vente d’énergie , avec un fort focus sur l’ IA générative . 🎯 Objectif : concevoir, déployer et industrialiser des solutions data & IA à forte valeur métier. 🚀 Missions Cadrage des projets et proposition de solutions data-driven Traitement et exploitation de données structurées & non structurées Conception de modèles ML / Deep Learning / GenAI Développement de solutions basées sur LLM & architectures RAG Mise en place de pipelines (parsing, extraction, normalisation de données) Déploiement sur AWS (SageMaker, Bedrock, S3…) Évaluation des modèles (NLP, RAG, robustesse, hallucinations) Industrialisation (MLOps, monitoring, optimisation des coûts) Communication des résultats & accompagnement métier Mentoring de profils plus juniors
Mission freelance
Data Science Sénior - Expert Search Ecommerce (550€ MAX)
BEEZEN
Publiée le
Data science
6 mois
400-550 €
Île-de-France, France
vous rejoignez une team dédiée à l'un des piliers stratégiques :le moteur de recherche de produit. Votre mission est de transformer l'intention d'achat de clients en une expérience fluide, pertinente et performante. Vous serez le référent technique sur l'évolution de notre moteur de recherche, en passant d'une approche textuelle classique à une expérience de recherche sémantique et personnalisée. Stratégie Search : Collaborer avec les Product Managers pour définir la roadmap de pertinence (recherche textuelle, sémantique, hybride). Architecture Vectorielle : Concevoir et déployer des solutions de Vector Search (Embeddings, ANN) pour capturer l'intention client au-delà des mots-clés. Optimisation du Ranking : Implémenter et itérer sur des modèles de Learning to Rank (LTR) et de Reranking pour arbitrer entre pertinence métier, mix marge et préférences utilisateur. Évaluation de la pertinence : Mettre en place des protocoles d'A/B testing rigoureux et des frameworks d'évaluation (nDCG, MRR, Click-through rate). Expertise Elasticsearch : Optimiser les confi gurations, les analyseurs et les requêtes complexes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3448 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois