Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 675 résultats.
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
PROPULSE IT
Publiée le
Azure
BI
DevOps
24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Offre d'emploi
Dev react native / Data Engineer
IT CONSULTANTS
Publiée le
Méthode Agile
6 mois
Châtillon, Île-de-France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail côté front, vous pourrez également intervenir sur la partie back/data du produit afin de contribuer aux traitements et pipelines de données sur Azure/ Databricks. Vos missions Vous interviendrez au cœur d’une squad produit sur les sujets suivants : 1) Développement mobile • Assurer la maintenance évolutive et corrective d’une application mobile en React Native • Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) • Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) 2) Data Engineering • Concevoir, développer et implémenter des solutions Big Data Analytics • Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake • Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) • Rédiger la documentation technique (DAT, release notes, etc.) • Réaliser des tests unitaires et assurer la qualité des livrables • Contribuer à la maintenance évolutive et corrective des traitements • Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés Profil recherché • Expérience confirmée en développement d’applications React Native en production (5 ans min.) • Expérience en Data Engineering sur Azure / Databricks / Spark / SQL (3 ans min.) • Maîtrise des APIs REST • Bonne connaissance de Git et première expérience en CI/CD / DevOps Soft Skills • Proactivité et force de proposition • Capacité à évoluer dans un environnement métier complexe • Forte appétence pour la qualité du code et les bonnes pratiques Stack technique • React Native : ++++ • Databricks : +++ • Spark : +++ • Azure : ++ Un test technique sera réalisé lors de l’entretien.
Offre d'emploi
Tech Lead Data Engineer H/F
JEMS
Publiée le
50k-75k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : 5nko8xh5pb
Offre d'emploi
Consultant SAP Data Migration Senior
Signe +
Publiée le
60k-90k €
Paris, France
En tant que Consultant SAP Data Migration Senior, vous interviendrez au cœur des projets de transformation SAP. À ce titre, vos principales missions seront les suivantes : • Contribuer à la définition et au pilotage du plan de transformation ERP en apportant votre expertise sur les enjeux liés aux données. • Analyser, formaliser et challenger les besoins métier afin de concevoir une stratégie de migration de données adaptée : traitement des données historiques, gouvernance, gestion des référentiels (MDM), et qualité des données. • Animer des ateliers de cadrage et de conception avec les métiers et la DSI pour définir les solutions de migration, en lien avec les processus cibles SAP. • Participer aux choix technologiques liés à SAP et à son écosystème, en évaluant les outils de migration et de gestion de données (ex : Migration Cockpit, etc.). • Piloter ou contribuer activement aux différentes phases du projet de migration (stratégie, extraction, transformation, chargement, tests, validation, go-live, support). • Assurer la coordination entre les différentes parties prenantes : métiers, équipe projet, intégrateur, équipe data, etc. • Accompagner les utilisateurs dans la conduite du changement, via des actions de communication, formation et support à la prise en main des nouvelles solutions. • Contribuer à la mise en œuvre opérationnelle des solutions retenues, en garantissant la qualité, la conformité et la fiabilité des données migrées. • Accompagner vos collaborateurs dans leur montée en compétences. Référence de l'offre : 8w5ydg5u97
Mission freelance
Architecte Data SAP / BW4HANA - Full remote
Signe +
Publiée le
SAP BW
2 mois
550-750 €
Toulouse, Occitanie
Dans un environnement industriel basé sur SAP, la mission s’articule autour de deux axes : Mise en place d’un mécanisme sécurisé et fiable de transfert de données entre une plateforme de stockage analytics industrielle (SAP HANA) et un environnement SAP BW. Intégration des données SAP BW vers une application décisionnelle afin d’optimiser la gestion des concessions et permettre la priorisation horaire des tâches. 🎯 Missions / Livrables : Réalisation de deux Architecture Design Dossiers comprenant notamment : Schémas de flux de données et contrats d’interface Définition des composants techniques Sécurité, conformité et gouvernance des données Gestion des accès et authentification Exigences de planification et de performance Alignement des modèles de données entre les différentes sources Mise à disposition des données en quasi temps réel Démarre : 2 Mars 2023 Durée : 1,5 mois Localisation : Full remote - Déplacements ponctuels à Toulouse
Mission freelance
Membre de jury d’examen Data Scientist – Évaluation asynchrone (Freelance)
█ █ █ █ █ █ █
Publiée le
Douvaine, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
PROPULSE IT
Publiée le
Azure
BI
DevOps
24 mois
325-650 €
La Défense, Île-de-France
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Offre d'emploi
Consultant SAP Data Migration Senior
Signe +
Publiée le
60k-90k €
Bordeaux, Nouvelle-Aquitaine
En tant que Consultant SAP Data Migration Senior, vous interviendrez au cœur des projets de transformation SAP. À ce titre, vos principales missions seront les suivantes : • Contribuer à la définition et au pilotage du plan de transformation ERP en apportant votre expertise sur les enjeux liés aux données. • Analyser, formaliser et challenger les besoins métier afin de concevoir une stratégie de migration de données adaptée : traitement des données historiques, gouvernance, gestion des référentiels (MDM), et qualité des données. • Animer des ateliers de cadrage et de conception avec les métiers et la DSI pour définir les solutions de migration, en lien avec les processus cibles SAP. • Participer aux choix technologiques liés à SAP et à son écosystème, en évaluant les outils de migration et de gestion de données (ex : Migration Cockpit, etc.). • Piloter ou contribuer activement aux différentes phases du projet de migration (stratégie, extraction, transformation, chargement, tests, validation, go-live, support). • Assurer la coordination entre les différentes parties prenantes : métiers, équipe projet, intégrateur, équipe data, etc. • Accompagner les utilisateurs dans la conduite du changement, via des actions de communication, formation et support à la prise en main des nouvelles solutions. • Contribuer à la mise en œuvre opérationnelle des solutions retenues, en garantissant la qualité, la conformité et la fiabilité des données migrées. • Accompagner vos collaborateurs dans leur montée en compétences. Référence de l'offre : wquj9gpvci
Mission freelance
Data Engineer - Vannes
VISIAN
Publiée le
Apache Kafka
Apache Spark
Scala
3 ans
450-500 €
Vannes, Bretagne
Localisation : Bretagne Présence sur site minimum 3 jours par semaine Candidatures locales privilégiées Contexte Au sein d’un Chapitre Data intervenant en transverse dans l’entreprise, vous contribuez à la fabrication des cas d’usage Data portés par différentes Squads métiers. Vous évoluez dans un environnement collaboratif avec des interlocuteurs variés et participez activement aux échanges avec les membres du Chapitre présents sur d’autres sites en France. Missions Participer à la définition de l’architecture Data avec les architectes et les Squads Concevoir et développer des solutions de collecte, transformation et stockage de données issues de multiples sources Développer des pipelines Spark batch et Spark Streaming Mettre en place les tests unitaires et automatisés Déployer les solutions dans les différents environnements Assurer le suivi en production et la gestion des incidents Être force de proposition et contribuer à l’amélioration continue Environnement technique Spark (batch et streaming) indispensable SQL indispensable Scala apprécié Kafka apprécié Java et Shell appréciés Stack Hadoop Cloudera HDFS, Hive, HBase, Phoenix, MongoDB Git, Jenkins, Artifactory, XL Release ELK, Grafana Méthodologie Scrum Connaissances appréciées Outils de data visualisation tels que MicroStrategy, Power BI ou Tableau Profil recherché Expérience confirmée en Data Engineering Big Data Solide maîtrise de Spark dans un environnement Hadoop / Cloudera Capacité à évoluer en contexte transverse Soft skills attendues Autonomie Adaptabilité Bonne communication Capacité à challenger les besoins Prise de lead et force de proposition
Mission freelance
recherche profil CP/Data analyste BI - Ecommerce
Mon Consultant Indépendant
Publiée le
Data analysis
3 mois
500-550 €
Lyon, Auvergne-Rhône-Alpes
Je suis à la recherche de ce profil pour l'un de nos clients en région lyonnaise : Je suis en recherche d’une prestation sur un profil confirmé de Chef de projet/Business Analyst Data BI . Pour rappel, notre équipe Data Consumer Solutions travaille principalement sur des sujets marketing/CRM/e-commerce/services liés à nos données Consommateurs (collectés à travers des touchpoints digitaux : Apps, Site Webs, Produits connectés, Advertising platforms…). Pour cet appel à compétence nous recherchons un profil connaissant le e-commerce. Ce profil rejoindrait une équipe projet mixte composée d'experts data IT et des équipes e-commerce (D2C) collaborant sur la collecte et l’exploitation de données de nos sites web : Ventes & Tracking Analytics Il aurait un focus fort sur la partie collecte de données depuis des sources tierces. Les tâches principales seront : · Analyser les besoins exprimés par le Business Owner pour identifier les champs (API/Autres sources) à récupérer pour y répondre et proposer des solutions en collaboration avec nos experts Data. · Coordonner les tâches de setup d’outil de collecte et de build de nos Data Engineers / Experts Dataviz pour récupérer la donnée dans notre Datalake, la préparer et la transformer afin d’alimenter nos Dashboards Qlik ou des Datasets mis à disposition de Data Analysts. · Faire des analyses/requêtes Data pour tester et valider les solutions mises en place, ou répondre à des questions métiers. · Rédiger la documentation technico-fonctionnelle au fil de l'avancement du projet pour en assurer la continuité et l'évolutivité · Former et accompagner les key users sur les applications. Les compétences clés recherchées sont : · Business Analyse (expertise fonctionnelle) · Gestion de projet en environnement agile · Expérience en projets Data/BI sur des périmètres liés au e-commerce/D2C (ce critère sera clé pour notre choix, afin de permettre une montée en puissance rapide sur ce périmètre métier) · Anglais car les solutions sont déployées à l’international et les sources de données sont worldwide La mission serait de plusieurs mois (avec une fin liée à un retour de congé maternité) et en temps plein, avec chaque semaine 2 jours home office et 3 jours dans nos locaux (accessible en TCL). Notre objectif est d’avoir sélectionné et positionné une personne sur ce poste dès que possible en mars.
Offre d'emploi
ingénieur IA / data scientist expérimenté
SKYLLIT
Publiée le
Agent IA
LangChain
LangGraph
1 an
Yvelines, France
Développeur d'agents GenAI – CCOE Data & AI Foundations Nous recherchons un ingénieur IA / data scientist expérimenté ayant conçu des agents de niveau production,avec sécurité, gestion des identités et observabilité. Ce poste est au cœur d'une initiative mondiale visant à accélérer l'industrialisation et la mise à l'échelle de l'IA générative au sein de l'organisation, et prenant en charge plus de 80 000 utilisateurs dans 65 pays. Au sein du Cloud Center of Excellence (CCOE) Data & AI Foundations, vous participerez au développement du SDK au sein de l'équipe de la plateforme GenAI pour le développement d'agents, afin de garantir la cohérence, la mise à l'échelle et la mise en production de tous les agents développés. Vous travaillerez en collaboration avec différentes équipes pour définir et faire évoluer le SDK, afin de le rendre utile, utilisable et adopté par les ingénieurs IA / data scientists. Le SDK est un produit essentiel pour de multiples environnements, des infrastructures sur site sécurisées aux déploiements cloud mondiaux. Ce poste est idéal pour un ingénieur en IA maîtrisant le fonctionnement des agents, la gestion des identités et la sécurité, et possédant une approche pragmatique du déploiement de produits et services de niveau production. Il/Elle sera désireux(se) de contribuer à façonner la conception, l'exploitation et la maintenance des agents d'IA à l'échelle de l'entreprise.
Mission freelance
Data Engineer
STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Spark
Scala
6 mois
Paris, France
Le rôle du Data Engineer dans ce projet consistera à : • Concevoir et implémenter les composants/pipelines d’ingestion de données en scala spark (glue jobs, sans utilisation de solutions managées type Databricks) • Traiter et normaliser les données • Refactoriser des imports existants pour être compliant avec l'architecture medaillon (silver + gold layers) et notre modèle uniformisé/harmonisé à toutes les plateformes (aggrégateurs, market exchanges) • Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud • Distribuer les données aux différents consommateurs/Métiers • Implémenter les règles de Data Quality (DataQuality framework : great expectation) et gérer le data calatog • Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) • Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … • Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données • Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. • Être force de proposition pour améliorer les processus et les performances des systèmes.
Mission freelance
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier
WorldWide People
Publiée le
Microsoft SSIS
6 mois
320-400 €
Montpellier, Occitanie
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS. Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS.
Offre d'emploi
Consultant Confirmé en Data gouvernance Collibra
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Paris, France
Contexte de la mission : Dans le cadre du déploiement et de l’industrialisation de notre démarche de gouvernance des données, nous recherchons un consultant expert technique Collibra. La mission s’inscrit dans un programme structurant visant à renforcer le catalogage des données et la traçabilité (data lineage). Le consultant intégrera l’équipe Data en lien direct avec les architectes de la DSI qui ont une vision sur l’ensemble de la chaîne de valeur de la donnée, de l’acquisition à la restitution. Tâches à réaliser : · L’operating model de Collibra et la capacité à modifier les settings sur sa partie OOTB ou custom (asset type, attributs, relations…) selon un scope puis mesurer les impacts sur l’existant DEV/PROD et le déployer en PROD · L’asset model du Data Product · Les rôles et permissions (globale, ressources, …) · Les fonctionnalités de migration import/export (par ex. pour les vues) · Le paramétrage des vues de diagramme · Savoir lancer et interpréter les résultats des connecteurs EDGE (technologies Datalake Azure/AWS, Databricks unity) et technical lineage (Databricks, Power BI) · Savoir manipuler les assets en masse (modification d’attributs, déplacements, suppressions), si besoin par import/export · Connaitre les fonctionnalités liées à Edge pour le sampling, profiling, data notebook · Scripting / APIs / Workflow · Trouver et savoir tester les APIs Collibra du portail développeur · Savoir comprendre et modifier un workflow existant (script : Groovy), le rendre paramétrable, le versionner si besoin et déployer DEV/PROD · Scripter des validations rules sur les assets Livrables attendus · Expressions de besoins et documents de cadrage · Workflows Collibra configurés · Catalogues de données alimentés · Lineage modélisé et documenté · Toute l’implémentation est en langue EN, éventuelle doc. technique succincte à réaliser sur les actions menées Compétences recherchées : Obligatoires : Maîtrise avancée de Collibra (Catalog, Lineage, Workflows) Solide expérience en Data Gouvernance et Data Management Bonnes connaissances des environnements Azure/ AWS / Databricks / Power BI /API/ BDD Expérience nécessaire : 5 années minimum Langues : Anglais et français
Mission freelance
Financial Project Management Data Feeding
STHREE SAS pour HUXLEY
Publiée le
8 mois
700 €
France
Au sein de la Direction Financière , le département Financial Data Integrity (FDI) a pour mission de contrôler les données nécessaires pour produire les comptes ainsi que l'ensemble des indicateurs et reporting réglementaires (sous la responsabilité de la Direction Financière). La mission se déroulera au sein du service "Projects" du département FDI et visera à renforcer l'équipe existante sur les projets en lien avec l'alimentation, le contrôle des données et l'optimisation des processus de production du département. L'équipe "Projects" est en charge d'accompagner la transformation du département qui porte sur la refonte des systèmes d'information de la DF, sur les projets d'alimentation au niveau du groupe et plus globalement sur la transformation de nos processus de contrôles et de sourcing. Les missions consistent à : Accompagner les équipes de production FDI dans leurs transformations et notamment sur les projets d'optimisation de leurs processus : * Rédiger les notes de cadrage et les EdB, en relation avec les Métiers concernés. * Proposer des solutions et suivre les travaux des équipes IT * Organiser et animer les réunions en lien avec le projet (comités, ateliers, ...) * Prendre en charge les recettes et tests utilisateurs (plan et cahier de recette, PV, …) Change management : Accompagner les équipes de production dans la mise en place des nouveaux processus et les proposer les adaptations nécessaires. Pour la mission le consultant devra justifié de formation supérieure orientée finance/risques, avec une expérience dans la gestion et le pilotage de projets dans le domaine bancaire. Compétences requises : A l'aise pour requêter dans des datasets complexes, avoir une véritable appétence pour les Systèmes d'information de l'univers bancaire. Des connaissances sur les produits/instruments financiers seraient un plus. Capacité d'adaptation L'organisation, la rigueur et les capacités d'analyse seront également sollicitées. Aisance rédactionnelle. Compétences techniques : - Familiarisation avec les bases de données : requêtage SQL - PowerBI / easyMorph.
Mission freelance
POT8952 - Un Data Scientist Sénior sur Massy
Almatek
Publiée le
SQL
6 mois
100-390 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients,Un Data Scientist Sénior sur Massy. DESCRIPTION DE LA MISSION. Au sein du pôle Data Science Customer, vous rejoignez une feature team dédiée à l'un des piliers stratégiques de l’entreprise :le moteur de recherche de produit. Votre mission est de transformer l'intention d'achat de millions de clients en une expérience fluide, pertinente et performante. Vous serez le référent technique sur l'évolution de notre moteur de recherche, en passant d'une approche textuelle classique à une expérience de recherche sémantique et personnalisée. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. - En intervenant à toutes les étapes des projets, vous pourrez : - Stratégie Search : Collaborer avec les Product Managers pour définir la roadmap de pertinence (recherche textuelle, sémantique, hybride). - Architecture Vectorielle : Concevoir et déployer des solutions de Vector Search (Embeddings, ANN) pour capturer l'intention client au-delà des mots-clés. - Optimisation du Ranking : Implémenter et itérer sur des modèles de Learning to Rank (LTR) et de Reranking pour arbitrer entre pertinence métier, mix marge et préférences utilisateur. -Évaluation de la pertinence : Mettre en place des protocoles d'A/B testing rigoureux et des frameworks d'évaluation (nDCG, MRR, Click-through rate). -Expertise Elasticsearch : Optimiser les configurations, les analyseurs et les requêtes complexes pour garantir des performances temps réel à grande échelle. -Mentorat : Guider et élever le niveau technique des data scientists juniors sur les thématiques de NLP et de Search.? Compétences techniques clés : - Moteurs de recherche : Maîtrise avancée d'Elasticsearch, incluant le tuning de pertinence et la gestion des index. - Recherche Vectorielle : Expérience concrète dans l'utilisation de bases de données vectorielles et de modèles d'embedding. - Reranking : Solide expérience dans la conception de modèles de reranking (XGBoost/LightGBM pour le LTR, ou approches Deep Learning). - Stack Data : Maîtrise de Python, SQL et de l'écosystème GCP (BigQuery, Vertex AI). - Les petits plus - Expérience sur des problématiques de Personalized Search (intégration des signaux utilisateurs temps réel). - Contributions à des projets Open Source dans le domaine du Search ou du NLP. - Connaissance des problématiques de recherche multilingue ou de traitement des synonymes par IA. - Notre environnement technique - Python, SQL, Terraform, Docker, Gitlab, Jenkins, GCP (Cloud Composer / Airflow, Cloudrun, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage) Votre séniorité vous permet de naviguer entre la rigueur scientifique et les impératifs business du e-commerce. Vous savez vulgariser des concepts de "Neural Search" auprès d'interlocuteurs non-techniques tout en garantissant une qualité de code (Clean Code, CI/CD) irréprochable.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1675 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois