L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 342 résultats.
Mission freelance
DATA ENGINEER AZURE - SNOWFLAKE
CHOURAK CONSULTING
Publiée le
Apache Airflow
Azure
Azure Data Factory
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Confirmé/Senior pour renforcer une équipe Data dans un environnement cloud moderne, avec un fort niveau d’exigence sur l’ architecture, l’industrialisation et les bonnes pratiques . 🎯 Contexte de la mission : Vous interviendrez sur une plateforme Data reposant sur Azure et Snowflake , avec une architecture Médaillon . Le rôle inclut une forte dimension lead technique : qualité du code, CI/CD, revues de PR et accompagnement des équipes. ⚙️ Missions principales : Concevoir et faire évoluer des pipelines de données sur Azure et Snowflake. Mettre en œuvre et maintenir une architecture Médaillon (Bronze / Silver / Gold). Développer et orchestrer les flux via Azure Data Factory . Automatiser les processus via Azure Automation . Participer activement à l’ industrialisation CI/CD et aux pipelines Azure DevOps . Réaliser des revues de Pull Requests et promouvoir les bonnes pratiques de développement. Garantir la qualité, la performance et la fiabilité des traitements de données.
Offre d'emploi
Data scientist IA générative
CAT-AMANIA
Publiée le
AWS Cloud
IA
Python
1 an
56k-58k €
460-510 €
Paris, France
Nous recherchons un Data Scientist pour renforcer l'équipe de notre client Data Science et Intelligence Artificielle. L'objectif est de poursuivre les travaux sur la "plateforme de services IA Générative" composée de plusieurs services IA destinés à des cas d'usages métiers portés par des projets. L'équipe est actuellement constituée de 3 Data Scientists et 2 DevOPS. Les services existants: - le service OCR Optical Character Recognition en mode synchrone - le service NLU Natural Language Understanding - le service KM Knowlekdge Management pour un chat bot Les sujets à venir: - déployer un service d'OCR asynchrone - utiliser les services OCR synchrones et/ou asynchrones pour les cas d'usages "carte d'identité", "factures", "passeport" - déployer un service lié à la lutte contre la fraude - déployer un service de catégorisation des documents
Offre d'emploi
Consultant·e Customer Technology Advisor – Cloud (GCP), Data & Adoption des Offres
ANAFI CONSULTING
Publiée le
Architecture
Big Data
BigQuery
2 ans
50k-80k €
400-680 €
Île-de-France, France
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil en transformation technologique et organisationnelle, basé à Paris. Nous accompagnons nos clients grands comptes dans leurs projets stratégiques autour du Cloud, de la Data, du DevOps et des plateformes IT , en combinant expertise technique, vision produit et accompagnement au changement. Votre rôle Dans le cadre du renforcement d’une équipe dédiée à l’adoption des offres technologiques, nous recherchons un(e) Customer Technology Advisor (Adopt Owner) . Vous serez au cœur de la relation entre les équipes métiers (clients internes) et les pôles technologiques , avec pour objectif de faciliter l’adoption, la compréhension et l’usage des solutions IT (Cloud, Data, plateformes). Votre rôle combine expertise technique, coordination produit et accompagnement des équipes . Vos missions principales Relation & Pilotage Être le point de contact privilégié entre les entités clientes et les équipes technologiques. Collecter, qualifier et prioriser les besoins et irritants métiers . Piloter les demandes , leur suivi et leur traitement. Assurer la co-construction des offres avec les équipes produit. Adoption & Acculturation Accompagner les équipes dans l’ adoption des nouvelles offres et fonctionnalités . Animer des présentations, ateliers, webinars et sessions d’acculturation. Apporter un premier niveau de support technique et de conseil. Promouvoir les offres et faciliter leur appropriation. Expertise & Innovation Participer à l’ expérimentation de nouvelles technologies (sandbox, POC). Être référent sur les technologies Data, Cloud et bases de données . Contribuer aux roadmaps produits et aux décisions stratégiques (comités, arbitrages). Identifier les impacts techniques, organisationnels et métiers des évolutions. Suivi & Qualité Suivre les indicateurs d’adoption et de performance des offres . Assurer la cohérence entre services délivrés et niveaux de service attendus . Remonter les dysfonctionnements et contribuer à l’amélioration continue. Environnement technique Big Data & NoSQL : Data Lakehouse, Cloudera, Teradata, MongoDB Bases de données : PostgreSQL, Oracle, MySQL, SQL Server, Redis Cloud Public (GCP) : BigQuery, Firestore Environnements Data, streaming et architectures distribuées
Offre d'emploi
Consultant MSBI (Power BI)
adbi
Publiée le
Azure Data Factory
Azure DevOps
CI/CD
4 mois
40k-51k €
500-520 €
Île-de-France, France
Le groupe, leader de la transformation urbaine bas carbone, est un groupe français présent sur l’ensemble des métiers de l’immobilier. Au sein de la Direction des Systèmes d’Information, le Pôle Data recherche un Consultant Microsoft BI confirmé. Sa mission principale sera de prendre en charge les développements liés au projet de reporting pour l’activité ENR. La mission comprendra les tâches suivantes : · Concevoir des modèles de données adaptés. · Créer et optimiser des bases de données et entrepôts de données (SQL Server principalement). · Prendre en charge les développements de rapports Power BI. · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.
Mission freelance
Senior Data Analyst
SILAMIR
Publiée le
Tableau Desktop
Tableau software
1 an
Paris, France
Vous intervenez en tant que référent analytique auprès des équipes Métiers (Produit, Business Development, Sales, Marketing, Fraude, etc.). Votre rôle consiste à assurer le suivi de la performance, produire des analyses à forte valeur ajoutée et accompagner les équipes dans leurs prises de décision. Vos missions : Piloter la performance business à travers le suivi et l’analyse des KPI stratégiques Réaliser des analyses ad hoc afin de répondre aux problématiques métiers Collaborer avec les équipes Métiers pour mesurer l’impact des évolutions et identifier des opportunités d’optimisation Mettre à jour, fiabiliser et améliorer les dashboards existants (Tableau, Metabase…) Définir et suivre les indicateurs de performance pertinents avec les parties prenantes (Business, Sales, Product) Contribuer activement à la diffusion d’une culture data et aux bonnes pratiques analytiques
Offre d'emploi
Développeur géomaticien FME expérimenté F/H
COEXYA
Publiée le
35k-45k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
CONTEXTE La BU SIG (Systèmes d'Information Géographique) de Coexya accompagne depuis plus de 30 ans des grands comptes et des collectivités territoriales dans la conception et l'intégration de solutions SIG sur mesure. Spécialiste de la Location Intelligence, elle intervient sur des projets à forte valeur ajoutée autour de la gestion de patrimoine, des réseaux, de l'urbanisme, de l'environnement ou encore de la gestion de crise, en s'appuyant sur les technologies de référence du marché (ArcGIS, FME, solutions open source). Dans ce cadre, nous recherchons un Développeur géomaticien F/H pour renforcer une équipe projet à fort enjeu. CE QUE L'ON VOUS PROPOSE En collaboration avec nos architectes, chefs de projets et experts techniques, vous serez impliqué(e) sur les différentes phases des projets, de la conception à la mise en oeuvre : - Rédiger les spécifications techniques. - Concevoir et modéliser des bases de données relationnelles (MCD). - Développer des traitements d'alimentation et de transformation de données géographiques (initiales et mises à jour) avec FME Desktop et Python. - Concevoir et développer des géotraitements. - Mettre en oeuvre des infrastructures de données géographiques. - Rédiger et exécuter des requêtes SQL. - Administrer des bases de données relationnelles (Oracle, PostgreSQL). - Développer des outils complémentaires en Python. - Publier des services cartographiques sous ArcGIS Server.
Offre d'emploi
Développeur Java/Data confirmé
VISIAN
Publiée le
Java
Mongodb
1 an
40k-45k €
290-410 €
Paris, France
Descriptif du poste Un groupe bancaire la création d'un service de reporting transverse pour sa division Monétique. Ce service est un asset important de la stratégie de la Monétique du groupe et doit permettre de fédérer et centraliser l'ensemble des reporting de type fichier, actuellement produits par différents systèmes et de les mettre à disposition sous différentes formes, via différents canaux. C'est dans ce contexte que les équipes IT recherchent un développeur Java/Data confirmé, qui saura participer au développement et à l'implémentation de ce service de Reporting, qui devra assurer le traitement de gros volumes de données pour générer des reporting de manière fiable et résiliente. La mission consistera à intégrer l'équipe agile en place pour participer à l'implémentation des reportings clients et des services associés avec le tech lead et ses coéquipiers, en collaboration avec les équipes du Socle Data de la monétique, mais aussi celles du portail client. Environnement technologique Évolution dans un environnement technologique récent : Java, API REST, PostgreSQL, ExaCC, Kafka, Cloud (Docker, Kubernetes), GitLab, etc.
Offre d'emploi
Développeur Python (H/F)
█ █ █ █ █ █ █
Publiée le
Application web
Docker
Java
35k-45k €
Orsay, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Ingénieur d'Affaires Data & IA Secteur Luxe H/F
JEMS
Publiée le
45k-60k €
Levallois-Perret, Île-de-France
En tant qu' Ingénieur d'Affaires Data & IA secteur Luxe H/F vous aurez la charge de : • Créer et développer de nouvelles relations d'affaires avec des clients potentiels et des partenaires stratégiques du Luxe • Identifier et explorer de nouvelles opportunités de marché pour nos produits et services • Travailler en étroite collaboration avec nos équipes internes pour élaborer des solutions sur mesure pour nos clients du secteur du Luxe • Prévoir les tendances du marché du Luxe et anticiper les besoins des clients pour façonner notre stratégie de croissance • Représenter JEMS lors d'événements, de conférences et de réunions pour élargir notre réseau et renforcer notre présence sur le marché • Garder un œil sur la concurrence et élaborer des stratégies pour rester en tête Avantages à travailler chez JEMS : • Un accompagnement personnalisé pour développer votre carrière • L'opportunité de travailler dans un environnement dynamique et stimulant • Une culture d'entreprise qui encourage la créativité, l'innovation et la croissance personnelle • Un package de rémunération compétitif avec des avantages exceptionnels • Un soutien continu pour développer vos compétences et avancer dans votre carrière • Des séminaires d'intégration inoubliables Pour Postuler Si vous êtes prêt(e) à relever le défi et à devenir un acteur clé de notre équipe en tant qu'Ingénieur d'Affaires chez JEMS, envoyez nous votre CV accompagné d'une lettre de motivation convaincante qui montre pourquoi vous êtes la personne idéale pour ce poste. Montrez nous votre passion, votre détermination et votre vision pour l'avenir. Diversité Le Groupe JEMS porte fièrement sa valeur "Diversité" en se mobilisant pour l'inclusion et l'égalité des chances et en luttant contre toutes formes de discrimination. Tous nos postes sont ouverts aux personnes en situation de handicap. Chez JEMS, nous croyons que les meilleurs candidats sont ceux qui partagent notre passion pour l'innovation et notre engagement envers l'excellence. Rejoignez notre équipe et soyez prêt à changer le jeu ! Référence de l'offre : q6cu2z24va
Mission freelance
DÉVELOPPEUR SYMFONY SENIOR (H/F)
Keypeople Consulting
Publiée le
API Platform
CI/CD
Confluence
6 mois
400-460 €
Île-de-France, France
Je recherche un Développeur Symfony Senior pour intervenir sur des projets web à fort enjeu technique, dans un environnement agile et orienté qualité. Vos missions • Développer et faire évoluer des applications web en Symfony 6+ • Concevoir des architectures robustes, évolutives et maintenables • Développer des APIs performantes et sécurisées • Optimiser les performances applicatives et la gestion du cache • Participer aux choix techniques et aux bonnes pratiques de développement • Garantir la qualité du code via une forte culture de tests Compétences recherchées Symfony 6+ (Service Container, routing, events) Doctrine ORM / SQL (MySQL, MariaDB ou PostgreSQL) API Platform ou développement REST natif Tests unitaires et fonctionnels (PHPUnit, Behat ou Pest) Twig / intégration front moderne Performance & cache (Redis, Varnish, cache HTTP) Git Méthodologie Agile (Scrum / Kanban) Les plus Expérience sur des projets à fort trafic / médias / streaming Docker / Docker-compose CI/CD (GitLab CI ou équivalent) Jra / Confluence Sensibilité performance et SEO 👤 Profil attendu Plus de 7 ans d’expérience significative sur Symfony Senior autonome, force de proposition Très bon relationnel et capacité à échanger sur les choix techniques
Offre d'emploi
Data Analyst Lead
SARIEL
Publiée le
Animation
Data analysis
KPI
12 mois
55k-76k €
430-580 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un Data Analyst Expert (>10 ans). Objectif global : Concevoir Renforcer l'expertise ce conception data et de gouvernance des données Compétences techniques Connaissance de la grande distribution - Confirmé - Impératif Modélisation des données - Confirmé - Important Analyse de données - Confirmé - Important Conception de solutions data - Confirmé - Important Description détaillée Fiche mission – Data Analyst Lead (Prestation) Contexte de la mission Nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts.. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertiss-en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Mission freelance
DevOps AI Construire des application
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
Nanterre, Île-de-France
Localisation :92 Démarrage : Mars Jours obligatoires sur site : 1 jours/semaine Expérience : Confirmé TJM: Selon profil Contrainte forte du projet: Agile, GenAI, RGPD, AI Act Les livrables sont: -Composants applicatifs et intégrations -Pipelines d'automatisation et de déploiement -Assurance qualité et documentationDescription détaillée **VOTRE MISSION** * Implémenter et maintenir les composants applicatifs nécessaires aux solutions GenAI : APIs, services backend, interfaces frontend et connecteurs vers les briques IA (agents, RAG, vector DB). * Travailler en binôme avec l’AI Engineer pour intégrer proprement les modèles et pipelines GenAI dans des architectures robustes et industrialisées. * Concevoir des APIs sécurisées et scalables (REST/GraphQL) et assurer l’intégration avec OneAPI, Azure services et les API internes. * Développer en Python et en JavaScript selon les besoins du projet ; produire du code propre, testé et documenté. * Participer à l’industrialisation : conteneurisation (Docker), orchestration sur AKS, déploiement via CI/CD (Azure DevOps / GitHub Actions), IaC (Terraform). * Mettre en place l’observabilité et l’alerte (logs, métriques, traces) pour assurer la fiabilité et suivre les coûts en production. * Assurer la qualité logicielle : tests unitaires/intégration, revue de code, performance et sécurité applicative (RBAC, chiffrement, bonnes pratiques secure-by-design). * Contribuer à la création de briques réutilisables, templates et patterns pour accélérer les futures squads (boilerplates, SDKs, connecteurs). * Collaborer avec le PO, l’AI Engineer, la DSI, la cybersécurité et les équipes opérationnelles pour garantir l’exploitabilité et l’adoption. Il /elle développe et exploite les produits / plateformes Cloud dans le respect du cadre technique/technologique instauré. Activités et tâches - Développe les nouveaux produits, réalise les tests unitaires et rédige la documentation technique - S'inscrit dans la chaine CI/CD - S'intègre dans les pratiques de développement instaurées (revue de code, tests de vulnérabilité, qualité de code) - Identifie les optimisations à réaliser sur les techniques d'automatisation et de déploiement - Sécurise la production readiness des produits (tests d'intégration, scripts d'exploitation, automatisation des actions de support, documentation technique) - Assure l'exploitation des produits / plateformes Cloud et répond aux incidents d'exploitation associés (selon les niveaux de services définis) - Contribue à l'amélioration continue des produits / plateformes Cloud - Apporte une expertise technique aux utilisateurs / clients / consommateurs sur son périmètre de produits/plateformes Cloud - Anime ou participe à la communauté Cloud DevOps
Mission freelance
Consultant KELIA Actuariat / Data – Validation des calculs et migration SI Épargne / Retraite
CAT-AMANIA
Publiée le
kelia
Python
2 ans
400-700 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation du système d’information Épargne, nous recherchons un Consultant Actuariat / Data pour intervenir sur la validation et la certification des calculs actuariels dans un contexte de migration vers un nouvel outil de gestion. Ce programme vise à moderniser l’écosystème Épargne, notamment à travers le lancement de nouvelles offres et la convergence des systèmes existants vers une plateforme cible. Vous interviendrez au sein du programme de migration, en lien étroit avec les équipes actuariat, data et IT. Vos missions Vous aurez un rôle clé dans la fiabilisation et la validation des calculs actuariels et financiers : Analyser et comparer les résultats calculatoires entre les systèmes existants et la nouvelle plateforme cible Réaliser les recettes calculatoires et valider la cohérence des résultats Identifier, analyser et documenter les écarts observés Proposer des solutions pour corriger ou minimiser les impacts techniques et fonctionnels Participer à la certification des données migrées Produire des rapports d’analyse et des supports de suivi (tableaux de bord, synthèses, indicateurs) Contribuer à la fiabilisation des données et à la sécurisation du processus de migration Vous interviendrez sur des sujets tels que : tables de mortalité provisionnement calculs actuariels validation de modèles et de paramètres Environnement technique et métier Environnement métier : Assurance Épargne et Retraite Migration de systèmes d’information Validation actuarielle et certification des données Environnement technique : Python, R ou SAS Analyse statistique et modélisation Outils analytiques et data Outil de gestion Kelia (un plus)
Mission freelance
Offre d’emploi – Développeur Confirmé Python / React – Bordeaux
Tenth Revolution Group
Publiée le
Python
React
12 mois
350-540 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Développeur Confirmé Python / React pour renforcer l’équipe tech d’une entreprise innovante basée à Bordeaux . Vous interviendrez sur des projets web à forte valeur ajoutée, avec un fort niveau d’autonomie et de responsabilité technique. 🎯 Missions Développer et maintenir des applications web en Python (FastAPI, Django ou Flask) . Concevoir et améliorer des interfaces frontend modernes en React . Participer aux choix techniques et à l’architecture applicative. Écrire du code propre, testé, maintenable (tests unitaires, CI/CD). Optimiser les performances backend et frontend. Collaborer avec les équipes produit, design et data. Contribuer aux bonnes pratiques : revues de code, documentation, veille. 🧰 Compétences requises Python : maîtrise confirmée, API REST, bonnes pratiques. React : composants fonctionnels, hooks, état global (Redux/Zustand). Expérience avec une stack moderne : Docker, Git, CI/CD. Bonne compréhension des architectures cloud (AWS, GCP ou Azure). Capacité à analyser des problèmes complexes et proposer des solutions robustes. Connaissance SQL / NoSQL appréciée. ⭐ Profil recherché 3 à 5 ans d’expérience en développement web. Autonomie, rigueur et sens du produit. Culture de la qualité et de la performance. Capacité à travailler dans un environnement agile (Scrum/Kanban).
Offre d'emploi
Architecte Data AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data AWS pour définir et piloter l’évolution des plateformes de données cloud natives sur Amazon Web Services. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies AWS tels que S3, Glue, Redshift, Athena, EMR, Kinesis ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur AWS.
Mission freelance
POT8952 - Un Data Scientist Sénior sur Massy
Almatek
Publiée le
SQL
6 mois
100-390 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients,Un Data Scientist Sénior sur Massy. DESCRIPTION DE LA MISSION. Au sein du pôle Data Science Customer, vous rejoignez une feature team dédiée à l'un des piliers stratégiques de l’entreprise :le moteur de recherche de produit. Votre mission est de transformer l'intention d'achat de millions de clients en une expérience fluide, pertinente et performante. Vous serez le référent technique sur l'évolution de notre moteur de recherche, en passant d'une approche textuelle classique à une expérience de recherche sémantique et personnalisée. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. - En intervenant à toutes les étapes des projets, vous pourrez : - Stratégie Search : Collaborer avec les Product Managers pour définir la roadmap de pertinence (recherche textuelle, sémantique, hybride). - Architecture Vectorielle : Concevoir et déployer des solutions de Vector Search (Embeddings, ANN) pour capturer l'intention client au-delà des mots-clés. - Optimisation du Ranking : Implémenter et itérer sur des modèles de Learning to Rank (LTR) et de Reranking pour arbitrer entre pertinence métier, mix marge et préférences utilisateur. -Évaluation de la pertinence : Mettre en place des protocoles d'A/B testing rigoureux et des frameworks d'évaluation (nDCG, MRR, Click-through rate). -Expertise Elasticsearch : Optimiser les configurations, les analyseurs et les requêtes complexes pour garantir des performances temps réel à grande échelle. -Mentorat : Guider et élever le niveau technique des data scientists juniors sur les thématiques de NLP et de Search.? Compétences techniques clés : - Moteurs de recherche : Maîtrise avancée d'Elasticsearch, incluant le tuning de pertinence et la gestion des index. - Recherche Vectorielle : Expérience concrète dans l'utilisation de bases de données vectorielles et de modèles d'embedding. - Reranking : Solide expérience dans la conception de modèles de reranking (XGBoost/LightGBM pour le LTR, ou approches Deep Learning). - Stack Data : Maîtrise de Python, SQL et de l'écosystème GCP (BigQuery, Vertex AI). - Les petits plus - Expérience sur des problématiques de Personalized Search (intégration des signaux utilisateurs temps réel). - Contributions à des projets Open Source dans le domaine du Search ou du NLP. - Connaissance des problématiques de recherche multilingue ou de traitement des synonymes par IA. - Notre environnement technique - Python, SQL, Terraform, Docker, Gitlab, Jenkins, GCP (Cloud Composer / Airflow, Cloudrun, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage) Votre séniorité vous permet de naviguer entre la rigueur scientifique et les impératifs business du e-commerce. Vous savez vulgariser des concepts de "Neural Search" auprès d'interlocuteurs non-techniques tout en garantissant une qualité de code (Clean Code, CI/CD) irréprochable.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3342 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois