Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 403 résultats.
Freelance

Mission freelance
Architecte Data SAP / BW4HANA - Full remote

Signe +
Publiée le
SAP BW

2 mois
550-750 €
Toulouse, Occitanie
Dans un environnement industriel basé sur SAP, la mission s’articule autour de deux axes : Mise en place d’un mécanisme sécurisé et fiable de transfert de données entre une plateforme de stockage analytics industrielle (SAP HANA) et un environnement SAP BW. Intégration des données SAP BW vers une application décisionnelle afin d’optimiser la gestion des concessions et permettre la priorisation horaire des tâches. 🎯 Missions / Livrables : Réalisation de deux Architecture Design Dossiers comprenant notamment : Schémas de flux de données et contrats d’interface Définition des composants techniques Sécurité, conformité et gouvernance des données Gestion des accès et authentification Exigences de planification et de performance Alignement des modèles de données entre les différentes sources Mise à disposition des données en quasi temps réel Démarre : 2 Mars 2023 Durée : 1,5 mois Localisation : Full remote - Déplacements ponctuels à Toulouse
Freelance

Mission freelance
Tech Lead Full-Stack (TypeScript / Node.js / React)

Tenth Revolution Group
Publiée le
Full stack
Node.js
React

1 an
600-680 €
Paris, France
Contexte de la mission Dans le cadre de la croissance d’une plateforme SaaS internationale spécialisée dans l’analyse et l’optimisation de l’expérience digitale, une équipe engineering renforce ses capacités techniques afin d’accompagner la montée en charge de ses produits à forte volumétrie. Vous interviendrez comme Tech Lead Freelance au sein d’une squad produit stratégique travaillant sur des problématiques de performance applicative, scalabilité backend et expérience utilisateur dans un environnement fortement orienté data. Vos missions Piloter techniquement une équipe de développeurs full-stack Définir et faire évoluer l’architecture applicative (frontend & backend) Participer activement au développement sur les sujets critiques Garantir la qualité du code (reviews, standards, stratégie de tests) Collaborer étroitement avec les équipes Product et Data Optimiser la performance des applications à forte audience Accompagner la montée en compétence technique des développeur Stack technique TypeScript (full-stack) Node.js / NestJS React / Next.js APIs REST & architecture microservices Cloud public (AWS ou GCP) Docker / Kubernetes CI/CD & observabilité moderne Environnements data-intensifs
Freelance

Mission freelance
Tech Lead Java Angular Nantes ( 3 jours de télétravail)/du

WorldWide People
Publiée le
Java

12 mois
400 €
Nantes, Pays de la Loire
Tech Lead Java Angular Nantes ( 3 jours de télétravail) Java, Spring, Angular, Kafka,Git, Jenkins, Jira 13/04/2026 1 an Ce poste est ouvert à la pre-embauche Nantes ( 3 jours de télétravail) Java, Spring, Angular, Kafka,Git, Jenkins, Jira Au sein d'une équipe de 6 à 8 développeurs, les principales tâches seront: Participer aux cadrages et aux chiffrages des fonctionnalités à mettre en oeuvre Prendre en charge les développements des fonctionnalités complexes le cas échéant Accompagner, apporter du support et faire grandir l’équipe de développements Être le garant de la qualité du code délivré (relecture de codes, suivi Sonar, …) Gestion des branches de développements et de la CICD Gestion des topics Kafka La mission est autant orientée back que front
Freelance

Mission freelance
Tech Lead SAS Indemnisation

STHREE SAS pour HUXLEY
Publiée le

18 mois
Levallois-Perret, Île-de-France
- Recueil et formalisation des besoins métiers - Conception / développement SAS - N2/N3 pour les incidents en production - Contribution au pilotage de l'activité Profil / compétences : - Expérimenté - Connaissances du domaine Indemnisation IARD - Capacité à faire exprimer et formaliser un besoin métier - Capacité à piloter un portefeuille de demandes et suivre leur réalisation - Capacité à comprendre la logique applicative et l'articulation avec le métier - Capacité à rédiger des spécifications - Capacité à prendre ou charge ou piloter les développements - Capacité à comprendre l'architecture du SID et le faire évoluer en fonction des besoins métiers - Expérience avérée dans la réalisation d'application décisionnelle SAS en environnement « industriel » de l'intégration des données à la restitution. La qualité industrielle couvre les aspects supervision des traitements, reprise des traitements, sauvegarde des données, instructions de travail … nécessaires à une exploitation « industrielle ». - Capacité à prendre en charge des incidents et/ou coordonner leur résolution - Expertise SAS (SAS Base, SAS Macro, SAS SQL, SAS DB2, …. ), maitrise des outils SVN, Confluence, JIRA et ServiceNow Définition des missions : - Recueil et formalisation des besoins métiers o Compréhension des enjeux métier o Proposition de solutions en maximisant la réutilisation du patrimoine applicatif o Validation et conception fonctionnelle détaillée de la solution o Devis / planning - Conception / développement SAS o Conception technique o Réalisation, suivi et validation des développements o Mise en production o En direct ou après délégation - N2/N3 pour les incidents en production o Traitement des incidents en production et rattrapage de données o Correction des développements et re-livraison en production si nécessaire o Communication de l'avancement et de la résolution o En direct ou après délégation - Contribution au pilotage de l'activité o Reporting opérationnel o Contribution aux points métiers o Contribution au plan de charge de la structure
Freelance

Mission freelance
Tech Lead SAP / Architecte Technique SAP - Full remote

Signe +
Publiée le
SAP ABAP

2 mois
600-700 €
Toulouse, Occitanie
Dans le cadre d’un projet stratégique de décommissionnement de Microsoft (MS Decommissioning), notre client souhaite mettre en place une nouvelle architecture documentaire intégrée à son environnement SAP. Un Proof of Concept (POC) est en cours afin d’intégrer la solution AOdocs au module SAP DMS, avec pour objectif d’établir une liaison robuste avec les API Google et de moderniser la gestion documentaire. En tant que Tech Lead SAP / Architecte Technique SAP, vous interviendrez sur les activités suivantes : Pilotage technique de l’intégration du POC AOdocs dans le module SAP DMS Définition de l’architecture technique cible (SAP ↔ AOdocs ↔ API Google) Conception et mise en œuvre des interfaces avec les API Google Encadrement technique des équipes de développement Participation aux phases de tests : Performance tests Load tests Rédaction des livrables : Architecture Requirement Document (ARD) Dossier de conception technique (Design Document) Dossier de configuration Accompagnement post-POC pour sécuriser le passage vers une solution industrialisée Contribution aux choix techniques et aux bonnes pratiques d’intégration Démarrage : 30 Mars Durée : 1,5 mois (possible renouvellement selon profil, notamment si connaissances architecture) Localisation : Full remote
Freelance

Mission freelance
SAP Finance Data Governance Expert

Signe +
Publiée le
SAP S/4HANA

1 an
600-800 €
Paris, France
Dans le cadre d’un programme international de transformation digitale, un groupe déploie un ERP unique basé sur SAP S/4HANA Public Cloud afin d’harmoniser ses processus Finance. Ce programme vise à mettre en place un modèle de données global, standardisé et gouverné , garantissant qualité, fiabilité et conformité des données financières dans un environnement multi-pays. Rattaché(e) au programme Finance Transformation, vous êtes le/la référent(e) Data Governance sur le périmètre Finance. À ce titre, vous : Définissez et structurez le framework de Finance Data Governance Formalisez les rôles et responsabilités (Data Owners, Data Stewards) Définissez et maintenez le Finance Data Model cible Mettez en place les règles et indicateurs de Data Quality Supervisez les activités de nettoyage et de remédiation des données Encadrez les règles de mapping et de transformation dans le cadre des migrations SAP S/4 HANA Assurez la cohérence des données entre systèmes et flux inter-applicatifs Garantissez l’alignement avec les exigences réglementaires et de contrôle interne Animez les instances de gouvernance Data et accompagnez l’adoption au niveau global Des interactions fréquentes avec les équipes Finance, IT et Process Owners sont attendues. Des déplacements peuvent être à prévoir en phase de déploiement. Démarrage : Mars 2026 Durée : 1 an renouvelable Localisation : Paris ou Grenoble (2/3 jours de présentiel)
Freelance
CDI

Offre d'emploi
Consultant Data / BI – SQL / ETL / Power BI (H/F)

CITECH
Publiée le
Data analysis

6 mois
40k-50k €
350-390 €
Nancy, Grand Est
CITECH recrute ! 👌 Vous souhaitez mettre vos compétences Data & Business Intelligence au service d’un environnement technique structuré et orienté données ? Nous recherchons un Consultant Data / BI (H/F) pour intervenir au sein d’un environnement décisionnel exigeant, dans le cadre du renforcement d’une équipe Data travaillant sur des sujets de reporting, exploitation de données et data marts . Vous intégrerez une équipe technique existante et collaborerez étroitement avec les équipes métiers et data afin de concevoir et faire évoluer les solutions de reporting décisionnel. Description du poste Au sein d’un environnement data structuré, vos principales responsabilités seront : 🔹 Concevoir, développer et maintenir des reportings décisionnels 🔹 Développer des rapports et indicateurs BI 🔹 Analyser les besoins métiers et proposer des solutions de reporting adaptées 🔹 Développer et optimiser des requêtes SQL / PL-SQL 🔹 Participer à la conception, à l’alimentation et à l’exploitation de data marts 🔹 Contribuer à l’ amélioration de la qualité, de la fiabilité et de la performance des données 🔹 Assurer la documentation des développements et des reportings réalisés
Freelance

Mission freelance
Product Owner / Chef de Projet IAM – SailPoint IdentityIQ

Deodis
Publiée le
IAM

1 an
700 €
Île-de-France, France
Product Owner / Chef de projet IAM expérimenté, vous pilotez la refonte et l’évolution fonctionnelle d’une solution SailPoint IdentityIQ au sein d’un environnement complexe multi-entités. Vous définissez la vision produit, priorisez le backlog et assurez la cohérence de la roadmap tout en coordonnant les projets de raccordement applicatif. En lien étroit avec les équipes métiers, techniques et sécurité, vous recueillez les besoins, pilotez les ateliers, suivez les dépendances et garantissez la qualité des livrables (spécifications, documentation, planning). Vous animez les cérémonies Agile, contribuez aux phases de recette et de mise en production, et veillez à l’alignement avec les enjeux de conformité et de gouvernance des identités.
CDI
Freelance

Offre d'emploi
Consultant Data Gouvernance sur Paris 12

EterniTech
Publiée le
Cloudera
Microsoft Power BI
SAS

2 ans
75560 CEDEX 12, Paris, Île-de-France
Je recherche pour un de mes clients un Consultant Data Gouvernance sur Paris 12 CONTEXTE DE LA MISSION Dans le cadre de ses missions de définition des politiques de gestion des données et du suivi de leur mise en œuvre, l'activité Gouvernance de la Donnée du client (3 salariés à ce jour) souhaite renforcer son équipe d'un profil confirmé en la matière. Le client recherche donc à apporter à l'équipe Gouvernance de la donnée un accompagnement assorti d'un regard éclairé dans l'exécution des différents pans de ses missions : définition des politiques de gestion des données (rôles et responsabilités; mise en place/alimentation d'un Glossaire métier et d'un Dictionnaire des données; modalités de suivi de la qualité des données; modalités permettant d'assurer la sécurité et la conformité réglementaire de l'accès aux données; articulation avec les capacités de la plate-forme Data choisie par l'entreprise); mise en oeuvre et suivi de ces politiques, en lien avec les contributeurs nécessaires; acculturation des différentes populations de l'entreprise aux exigences et apports en lien avec la gouvernance des données; etc..... DESCRIPTION DE LA MISSION Les missions principales au sein de l'activité Gouvernance de la donnée seront les suivantes : - Participation le cas échéant au choix des outils de gouvernance des données (rencontres fournisseurs initiées ; échanges en cours) - Catalogage / connaissance des données : Définir les standards et bonnes pratiques et en vérifier la bonne application en mobilisant les acteurs requis (SI, métier), assurer l’acculturation nécessaire ; - Cartographie des Données : Approfondir la cartographie des données qui aura été initiée (avec les acteurs métier, SI, urbanistes) et être capable de la présenter, la faire adopter et de l’utiliser à des fins de gouvernance des données… - Conformité règlementaire : Garantir que toutes les données respectent les normes internes et externes, en particulier en matière de RGPD et de conformité légale. - Gestion des rôles et animation de la communauté Data : Identifier les relais de la gouvernance dans un contexte de responsabilités fédérées. Mobiliser les acteurs (animation de séminaires, communication…). - Gestion des habilitations : Définir la granularité des habilitations des rôles et utilisateurs identifiés. - Accompagnement de la montée en compétence des autres membres de l'équipe sur des sujets structurants devant être maîtrisés pour mener à bien les missions de l'activité LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Exemples de livrables attendus : Chapitres thématiques de la politique de Gouvernance des données : - rôles et responsabilités ; - gestion Glossaire/Dictionnaire ; - gestion du Data Lineage ; - sécurité et droits d'accès, dont conformité juridique ; - Suivi de la qualité des données ; - process permettant l'évolution de la plate-forme Data Environnement technique : Sélection en cours du fournisseur pour une plateforme Data d’entreprise cible Couche stockage : - Teradata - Hadoopa Cloudera - Postgre Transformation : - Data stage - Spark BI : - Power BI - SAS Expériences attendues : - Expérience au sein d'un Data Office en charge de la Gouvernance des données (au moins 2 expériences significatives) - Utilisation des outils de Gouvernance des données (gestion des méta données, dont Glossaire / Dictionnaire, Catalogage, Création/Exposition de Data Product, Data Quality, Lineage) - Compréhension des grands modèles d'Architecture Data (Extraction/Chargement, Transformation/Nettoyage, Mise à disposition, Suivi des usages) - Pratique d'une solution Plate-Forme Data
Freelance
CDI

Offre d'emploi
Expert Google Workspace Data & IA

Management Square
Publiée le
BigQuery
Google Workspace
IA Générative

1 an
47k-55k €
450-530 €
Nouvelle-Aquitaine, France
Expert Senior Google Workspace, Data & IA 1. Contexte de la mission Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. 2. Description des missions Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
Freelance

Mission freelance
Tech Lead Java/Xano

infotem
Publiée le
Java
React
Xano

3 mois
450-480 €
Nantes, Pays de la Loire
Le Lead Technique est en charge d’assurer l’implémentation technique et garantir une cohérence dans les développements réalisés sur les différents projets et contexte dans lequel il est amené à intervenir. Garantir l’application des cadres techniques (technologies, outils) sur son périmètre Challenger les besoins fonctionnels / techniques imaginés par les product owners / products managers / business analyst Accompagner les équipes de développements dans la réalisation des développements Coordonne les travaux de développement et d’infrastructure Les différentes missions, seront réalisées en autonomie, dans le cadre de la cellule d’architecture et leadership technique : Participer à la modélisation et la conception de l'architecture du portail client, Développer des composants/logiciels/applications dans les technologies utilisées dans le cadre du portail client, notamment Xano, Java et React Gérer les risques : anticipation, identification, mise en œuvre d'actions correctrices, Analyser et réaliser un diagnostic de la situation rencontrée puis le synthétiser et le formuler de manière adaptée, Contribuer aux chiffrages et aux choix techniques, Valider/vérifier la conception logicielle et les plans de tests du système, Effectuer un support aux équipes de développements, Vérifier la bonne implémentation de solutions conformité/sécurité, Réaliser des revues de code, Veiller au respect des règles de développement, Veiller à la cohérence des technologies utilisées sur les différents projets. Compétences Compétences techniques indispensables : XANO Java / JEE / Spring, API REST, React, Docker Kubernetes Qualimétrie et tests unitaires (JUnit, Checkstyle, SonarQube), Technologies Front (JavaScript, HTML5, CSS3, React), BDD : PostgreSQL DataViz : Grafana Usine logicielle : Jenkins, Git, Sonar, SVN, Nexus, Maven
Freelance
CDI

Offre d'emploi
Consultant Confirmé en Data gouvernance Collibra

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Paris, France
Contexte de la mission : Dans le cadre du déploiement et de l’industrialisation de notre démarche de gouvernance des données, nous recherchons un consultant expert technique Collibra. La mission s’inscrit dans un programme structurant visant à renforcer le catalogage des données et la traçabilité (data lineage). Le consultant intégrera l’équipe Data en lien direct avec les architectes de la DSI qui ont une vision sur l’ensemble de la chaîne de valeur de la donnée, de l’acquisition à la restitution. Tâches à réaliser : · L’operating model de Collibra et la capacité à modifier les settings sur sa partie OOTB ou custom (asset type, attributs, relations…) selon un scope puis mesurer les impacts sur l’existant DEV/PROD et le déployer en PROD · L’asset model du Data Product · Les rôles et permissions (globale, ressources, …) · Les fonctionnalités de migration import/export (par ex. pour les vues) · Le paramétrage des vues de diagramme · Savoir lancer et interpréter les résultats des connecteurs EDGE (technologies Datalake Azure/AWS, Databricks unity) et technical lineage (Databricks, Power BI) · Savoir manipuler les assets en masse (modification d’attributs, déplacements, suppressions), si besoin par import/export · Connaitre les fonctionnalités liées à Edge pour le sampling, profiling, data notebook · Scripting / APIs / Workflow · Trouver et savoir tester les APIs Collibra du portail développeur · Savoir comprendre et modifier un workflow existant (script : Groovy), le rendre paramétrable, le versionner si besoin et déployer DEV/PROD · Scripter des validations rules sur les assets Livrables attendus · Expressions de besoins et documents de cadrage · Workflows Collibra configurés · Catalogues de données alimentés · Lineage modélisé et documenté · Toute l’implémentation est en langue EN, éventuelle doc. technique succincte à réaliser sur les actions menées Compétences recherchées : Obligatoires : Maîtrise avancée de Collibra (Catalog, Lineage, Workflows) Solide expérience en Data Gouvernance et Data Management Bonnes connaissances des environnements Azure/ AWS / Databricks / Power BI /API/ BDD Expérience nécessaire : 5 années minimum Langues : Anglais et français
Freelance

Mission freelance
Backend developer

Codezys
Publiée le
API
Azure
Azure Data Factory

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Vous intégrerez une équipe IT internationale composée d’architectes, de développeurs backend et frontend, d’ingénieurs QA, ainsi que de spécialistes en run et monitoring. Ensemble, nous concevons, développons et exploitons notre plateforme IoT cloud, déployée sur nos sites en France et en Europe. En tant que Backend Developer, vous rejoindrez l’équipe backend située dans la région lyonnaise. Cette équipe allie une solide expérience, une forte culture du partage des connaissances et une curiosité technologique. Vous contribuerez au développement de nouvelles fonctionnalités, à l’évolution continue de la plateforme, ainsi qu’à la fiabilité à long terme de nos services IoT. Objectifs et livrables Développement de services backend et d’API en C# / .NET, en respectant les bonnes pratiques et les standards de qualité. Participation aux rituels d’équipe tels que les estimations, les revues de sprint, les tests transverses et les rétrospectives. Amélioration continue de notre plateforme cloud Azure : mise à jour des frameworks, gestion des composants en fin de vie, conformité sécurité. Soutien aux méthodes de travail DevOps, Cloud et Agile. Exploration technologique pour identifier et intégrer les innovations pertinentes en collaboration avec les architectes, dans notre plateforme IoT. Autonomie dans l'exécution des tâches, tout en collaborant étroitement avec l’équipe pour affiner les besoins et proposer des solutions adaptées.
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake

12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
Freelance

Mission freelance
POT8952 - Un Data Scientist Sénior sur Massy

Almatek
Publiée le
SQL

6 mois
100-390 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients,Un Data Scientist Sénior sur Massy. DESCRIPTION DE LA MISSION. Au sein du pôle Data Science Customer, vous rejoignez une feature team dédiée à l'un des piliers stratégiques de l’entreprise :le moteur de recherche de produit. Votre mission est de transformer l'intention d'achat de millions de clients en une expérience fluide, pertinente et performante. Vous serez le référent technique sur l'évolution de notre moteur de recherche, en passant d'une approche textuelle classique à une expérience de recherche sémantique et personnalisée. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. - En intervenant à toutes les étapes des projets, vous pourrez : - Stratégie Search : Collaborer avec les Product Managers pour définir la roadmap de pertinence (recherche textuelle, sémantique, hybride). - Architecture Vectorielle : Concevoir et déployer des solutions de Vector Search (Embeddings, ANN) pour capturer l'intention client au-delà des mots-clés. - Optimisation du Ranking : Implémenter et itérer sur des modèles de Learning to Rank (LTR) et de Reranking pour arbitrer entre pertinence métier, mix marge et préférences utilisateur. -Évaluation de la pertinence : Mettre en place des protocoles d'A/B testing rigoureux et des frameworks d'évaluation (nDCG, MRR, Click-through rate). -Expertise Elasticsearch : Optimiser les configurations, les analyseurs et les requêtes complexes pour garantir des performances temps réel à grande échelle. -Mentorat : Guider et élever le niveau technique des data scientists juniors sur les thématiques de NLP et de Search.? Compétences techniques clés : - Moteurs de recherche : Maîtrise avancée d'Elasticsearch, incluant le tuning de pertinence et la gestion des index. - Recherche Vectorielle : Expérience concrète dans l'utilisation de bases de données vectorielles et de modèles d'embedding. - Reranking : Solide expérience dans la conception de modèles de reranking (XGBoost/LightGBM pour le LTR, ou approches Deep Learning). - Stack Data : Maîtrise de Python, SQL et de l'écosystème GCP (BigQuery, Vertex AI). - Les petits plus - Expérience sur des problématiques de Personalized Search (intégration des signaux utilisateurs temps réel). - Contributions à des projets Open Source dans le domaine du Search ou du NLP. - Connaissance des problématiques de recherche multilingue ou de traitement des synonymes par IA. - Notre environnement technique - Python, SQL, Terraform, Docker, Gitlab, Jenkins, GCP (Cloud Composer / Airflow, Cloudrun, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage) Votre séniorité vous permet de naviguer entre la rigueur scientifique et les impératifs business du e-commerce. Vous savez vulgariser des concepts de "Neural Search" auprès d'interlocuteurs non-techniques tout en garantissant une qualité de code (Clean Code, CI/CD) irréprochable.
Freelance

Mission freelance
Data Engineer - Vannes

VISIAN
Publiée le
Apache Kafka
Apache Spark
Scala

3 ans
450-500 €
Vannes, Bretagne
Localisation : Bretagne Présence sur site minimum 3 jours par semaine Candidatures locales privilégiées Contexte Au sein d’un Chapitre Data intervenant en transverse dans l’entreprise, vous contribuez à la fabrication des cas d’usage Data portés par différentes Squads métiers. Vous évoluez dans un environnement collaboratif avec des interlocuteurs variés et participez activement aux échanges avec les membres du Chapitre présents sur d’autres sites en France. Missions Participer à la définition de l’architecture Data avec les architectes et les Squads Concevoir et développer des solutions de collecte, transformation et stockage de données issues de multiples sources Développer des pipelines Spark batch et Spark Streaming Mettre en place les tests unitaires et automatisés Déployer les solutions dans les différents environnements Assurer le suivi en production et la gestion des incidents Être force de proposition et contribuer à l’amélioration continue Environnement technique Spark (batch et streaming) indispensable SQL indispensable Scala apprécié Kafka apprécié Java et Shell appréciés Stack Hadoop Cloudera HDFS, Hive, HBase, Phoenix, MongoDB Git, Jenkins, Artifactory, XL Release ELK, Grafana Méthodologie Scrum Connaissances appréciées Outils de data visualisation tels que MicroStrategy, Power BI ou Tableau Profil recherché Expérience confirmée en Data Engineering Big Data Solide maîtrise de Spark dans un environnement Hadoop / Cloudera Capacité à évoluer en contexte transverse Soft skills attendues Autonomie Adaptabilité Bonne communication Capacité à challenger les besoins Prise de lead et force de proposition
2403 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous