Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 364 résultats.
Freelance

Mission freelance
POT8952 - Un Data Scientist Sénior sur Massy

Almatek
Publiée le
SQL

6 mois
100-390 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients,Un Data Scientist Sénior sur Massy. DESCRIPTION DE LA MISSION. Au sein du pôle Data Science Customer, vous rejoignez une feature team dédiée à l'un des piliers stratégiques de l’entreprise :le moteur de recherche de produit. Votre mission est de transformer l'intention d'achat de millions de clients en une expérience fluide, pertinente et performante. Vous serez le référent technique sur l'évolution de notre moteur de recherche, en passant d'une approche textuelle classique à une expérience de recherche sémantique et personnalisée. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. - En intervenant à toutes les étapes des projets, vous pourrez : - Stratégie Search : Collaborer avec les Product Managers pour définir la roadmap de pertinence (recherche textuelle, sémantique, hybride). - Architecture Vectorielle : Concevoir et déployer des solutions de Vector Search (Embeddings, ANN) pour capturer l'intention client au-delà des mots-clés. - Optimisation du Ranking : Implémenter et itérer sur des modèles de Learning to Rank (LTR) et de Reranking pour arbitrer entre pertinence métier, mix marge et préférences utilisateur. -Évaluation de la pertinence : Mettre en place des protocoles d'A/B testing rigoureux et des frameworks d'évaluation (nDCG, MRR, Click-through rate). -Expertise Elasticsearch : Optimiser les configurations, les analyseurs et les requêtes complexes pour garantir des performances temps réel à grande échelle. -Mentorat : Guider et élever le niveau technique des data scientists juniors sur les thématiques de NLP et de Search.? Compétences techniques clés : - Moteurs de recherche : Maîtrise avancée d'Elasticsearch, incluant le tuning de pertinence et la gestion des index. - Recherche Vectorielle : Expérience concrète dans l'utilisation de bases de données vectorielles et de modèles d'embedding. - Reranking : Solide expérience dans la conception de modèles de reranking (XGBoost/LightGBM pour le LTR, ou approches Deep Learning). - Stack Data : Maîtrise de Python, SQL et de l'écosystème GCP (BigQuery, Vertex AI). - Les petits plus - Expérience sur des problématiques de Personalized Search (intégration des signaux utilisateurs temps réel). - Contributions à des projets Open Source dans le domaine du Search ou du NLP. - Connaissance des problématiques de recherche multilingue ou de traitement des synonymes par IA. - Notre environnement technique - Python, SQL, Terraform, Docker, Gitlab, Jenkins, GCP (Cloud Composer / Airflow, Cloudrun, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage) Votre séniorité vous permet de naviguer entre la rigueur scientifique et les impératifs business du e-commerce. Vous savez vulgariser des concepts de "Neural Search" auprès d'interlocuteurs non-techniques tout en garantissant une qualité de code (Clean Code, CI/CD) irréprochable.
CDI

Offre d'emploi
Data architect / Administrateur SAP BO BI H/F

VIVERIS
Publiée le

40k-55k €
Dijon, Bourgogne-Franche-Comté
Contexte de la mission : Viveris accompagne les grands acteurs du secteur bancaire dans leurs programmes de transformation métier et IT, avec une forte dimension data et décisionnelle. Dans ce contexte, nous recherchons un Administrateur / Data Architect SAP BusinessObjects (SAP BO BI) pour intervenir sur un chantier stratégique de la Data Factory. Vous intégrerez l'équipe Solutions BI et participerez à l'administration, l'optimisation et l'évolution des plateformes décisionnelles basées sur SAP BO, au coeur des usages data des métiers. Votre rôle consistera notamment à garantir la performance, la disponibilité et la gouvernance des environnements BI, tout en accompagnant les équipes dans l'architecture et l'évolution des solutions décisionnelles. Ce poste vous permettra d'évoluer dans un écosystème data exigeant, sur des sujets à fort impact métier, aux côtés d'équipes expertes engagées dans la valorisation de la donnée. Responsabilités : * Assurer le suivi opérationnel des plateformes SAP BO BI 4.3 ;Prendre en charge l'assistance de niveau 2 et 3 des multiples plateformes SAP BO BI 4.3 ; * Proposer des solutions d'optimisation des rapports ; * Participer aux différents projets à venir de conversion des univers, de pointage des WebI vers ces univers, de migration à terme vers SAP BO BI 2025 ; * Faire évoluer l'outillage pour industrialiser la gestion des plateformes (Scripting, Datamart de supervision/audit).
Freelance

Mission freelance
DATA INGENIEUR STAMBIA DBT SNOWFLAKE

HAYS France
Publiée le
DBT
Semarchy
Snowflake

3 ans
100-400 £GB
Lille, Hauts-de-France
Missions principales Le/la Data Engineer interviendra sur un périmètre large comprenant notamment : 🔹 Ingénierie de données Conception, développement et optimisation de pipelines de données. Intégration et transformation de données via Stambia et DBT . Modélisation et alimentation d’entrepôts de données dans Snowflake . Mise en place de bonnes pratiques de développement (versioning, tests, CI/CD). 🔹 Industrialisation & performance Maintenance, optimisation et monitoring des jobs ETL/ELT. Amélioration continue des performances Snowflake et des modèles DBT. Renforcement de la qualité, de la fiabilité et de la documentation des flux. 🔹 Collaboration & expertise Travail en étroite collaboration avec les équipes Data, Finance et Supply. Analyse des besoins métiers et traduction en solutions techniques. Participation à la roadmap Data (évolutions, migrations, outils). 💼 Compétences techniques recherchéesCompétences indispensables Stambia (développement de mappings, process, intégration). DBT (modèles, tests, documentation, sources, exposures). Snowflake (modélisation, optimisation, SQL avancé). Maîtrise des concepts ETL/ELT, data modelling, gestion de la qualité. Compétences appréciées (nice-to-have) Tableau Software (lecture + compréhension des besoins côté viz). Streamlit (petites apps internes pour exposer des données). Connaissance de la Data Vault ou d’architectures modernes DataOps. Sensibilité aux environnements agiles. 👤 Profil recherché 3 à 5 ans d’expérience minimum en tant que Data Engineer. Capacité à être rapidement opérationnel·le sur des sujets variés. Bonne communication et autonomie. Volonté d’intervenir sur des problématiques Finance & Supply.
CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : qojvej3era
Freelance

Mission freelance
Data architect H/F

HAYS France
Publiée le

6 mois
450-500 €
Luxembourg
Responsabilités clés : Le département Risk a décidé de refondre ses outils de reporting réglementaire et interne pour l'ensemble du Groupe. La solution cible reposera sur la collecte des sources de données via notre Microsoft Data Platform, ainsi que sur la transformation des données et la production d'une grande partie du reporting Risques du Groupe à l'aide de l'outil WKFS RiskPro, et, pour une liste limitée de rapports, via Risk EUC et des rapports / tableaux de bord Power BI. Reporting Risques : IRRBB, Liquidité, Trading, Contrepartie. Sources de données à intégrer : rapports Cognos, Standard & Poor's, Bloomberg, Fonds de pension, Liquidité intrajournalière. Compétences techniques : Azure Synapse Analytics, Azure Data Factory, SQL/ELT, Power BI, Purview, CI/CD. Tâches principales Définir, détailler et documenter l'architecture cible Risk Définir la liste et les caractéristiques des dataflows à mettre en œuvre Concevoir le modèle de données requis pour le reporting risques (IRRBB, Liquidité, etc.) afin de faciliter l'intégration dans WKFS RiskPro Définir les règles de transformation (haut niveau) Garantir l'application des standards Groupe (sécurité, gestion des données, etc.)
CDI

Offre d'emploi
Data Scientist (F/H) (H/F)

█ █ █ █ █ █ █
Publiée le
Python

Puteaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data scientist (F/H) (H/F)

█ █ █ █ █ █ █
Publiée le
Python
Pytorch
Scikit-learn

38k-45k €
Rennes, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Azure Data Architect (Maroc)

AVALIANCE
Publiée le
Azure
Azure AI
Azure Data Factory

3 ans
Maroc
Contexte : Définition des besoins assistance au design / rédaction TAD (functional/Non Functional) Accompagner les squads projets dans la mise en place d’architectures data sécurisées et scalables sur Azure Collaborer avec les architectes data, sécurité, entreprise et les DevOps dans chaque squad. Garantir la bonne intégration et l’usage des composants Azure liés à la data. Assurer l’isolation, la sécurisation et le bon routage des accès aux données. Compétences attendues : Expertise Cloud Azure (Infrastructure), notamment : Azure Data Factory Azure Databricks Azure Data Lake Storage Azure Synapse Analytics Connaissances approfondies des problématiques d’architecture sécurisée, d’accès aux données, et de segmentation des environnements. Expérience dans l’intégration Power BI avec des ressources Azure (via Data Gateway, par exemple). Capacité à travailler en environnement agile multi-squad Périmètre technique : Ingestion de données depuis différentes sources (bases relationnelles, fichiers, APIs). Stockage des données dans un Data Lake et modélisation dans un Data Warehouse. Orchestration et transformation via Azure Data Factory et Databricks, intégration potentielle de modèles Machine Learning. Mise en place de pipelines ELT : structuration des données pour les rendre exploitables par les métiers. Restitution des données via Power BI (connexion entre Power BI SaaS et bases PaaS via Data Gateway)
Freelance
CDI

Offre d'emploi
Data Engineer Cloud & BI (Finance)

Amontech
Publiée le
Azure
Git
Google Cloud Platform (GCP)

1 an
40k-45k €
400-450 €
Île-de-France, France
Contexte Nous recherchons un(e) Data Engineer pour rejoindre un projet stratégique dans le secteur bancaire. La mission vise à améliorer l’exploitation des données métiers à travers la création et la refonte de dashboards et le développement de solutions analytiques sur le cloud. Missions Comprendre l’environnement et les besoins métiers pour proposer des solutions adaptées S’approprier et optimiser les dashboards existants Collecter, transformer et gérer les données en garantissant leur qualité, intégrité et sécurité Participer à la définition et au suivi des KPI métiers Animer des ateliers et groupes de travail avec les utilisateurs pour collecter les besoins Développer et automatiser les traitements de données Former et accompagner les utilisateurs sur les outils et dashboards Contribuer à l’amélioration de l’expérience utilisateur (UX) et du design des tableaux de bord
Freelance

Mission freelance
POT9006- Un Data Analyst Power BI confirmé sur Chécy.

Almatek
Publiée le
Microsoft Excel
PowerBI
SAS

6 mois
330-380 €
Chécy, Centre-Val de Loire
Almatek recherche pour l'un de ses clients, un Data Analyst Power BI confirmé sur Chécy. Descriptif: Contexte de la mission Dans le cadre de la mise en place et de l’industrialisation de tableaux de bord décisionnels Power BI, le client recherche un Data Analyst Power BI confirmé pour accompagner les directions métiers dans la construction et le pilotage de leurs indicateurs stratégiques. La mission s’inscrit dans un contexte assurance , avec des enjeux forts de compréhension métier, de structuration de la donnée et d’aide à la décision au niveau Direction Générale. Objectifs de la mission: Concevoir, développer et maintenir des tableaux de bord Power BI à destination de la Direction Générale Accompagner les métiers dans la transformation de leurs usages historiques (Excel, SAS) vers une logique Power BI plus industrialisée Structurer la démarche décisionnelle et garantir la cohérence des indicateurs Périmètre fonctionnel: Les tableaux de bord concernent notamment : Direction Générale Direction des Offres Direction Commerciale Direction Marketing Activités principales: Capacité à s’asseoir avec les métiers, comprendre leurs besoins et leurs usages actuels Accompagnement au changement : expliquer pourquoi une logique Excel / SAS ne peut pas être transposée telle quelle dans Power BI Définition de la logique de données et des indicateurs Rédaction de notes de cadrage, validation avec les métiers Conception et développement des rapports Power BI Mise en production et assurance du RUN (maintien, évolutions, fiabilité des dashboards) Profil recherché: Data Analyst Power BI confirmé Minimum 5/7 ans d’expérience sur des projets décisionnels Très bonne connaissance des environnements assurance, c'est obligatoire. Forte capacité de communication et de pédagogie auprès des métiers (forte compétences métier assurance obligatoire) Autonomie, structuration et sens du résultat Organisation
CDI

Offre d'emploi
Manager opérationnel Data / Data science F/H - Administration des ventes et SAV (H/F)

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
Expert Data Gouvernance

KEONI CONSULTING
Publiée le
Hadoop
IBM DataStage
PostgreSQL

18 mois
20k-60k €
100-550 €
Paris, France
"Contexte du besoin Dans le cadre de ses missions de définition des politiques de gestion des données et du suivi de leur mise en œuvre, l'activité Gouvernance de la Donnée souhaite renforcer son équipe d'un profil confirmé en la matière. Un accompagnement assorti d'un regard éclairé dans l'exécution des différents pans des missions est demandé MISSIONS · définition des politiques de gestion des données (rôles et responsabilités; · mise en place/alimentation d'un Glossaire métier et d'un Dictionnaire des données; · modalités de suivi de la qualité des données; · modalités permettant d'assurer la sécurité et la conformité réglementaire de l'accès aux données; · articulation avec les capacités de la plate-forme Data choisie par l'entreprise); · mise en oeuvre et suivi de ces politiques, en lien avec les contributeurs nécessaires; acculturation des différentes populations de l'entreprise aux exigences et apports en lien avec la gouvernance des données; · etc.... • Participation le cas échéant au choix des outils de gouvernance des données (rencontres fournisseurs initiées; échanges en cours) • Catalogage / connaissance des données : Définir les standards et bonnes pratiques et en vérifier la bonne application en mobilisant les acteurs requis (SI, métier), assurer l’acculturation nécessaire; • Cartographie des Données : Approfondir la cartographie des données qui aura été initiée (avec les acteurs métier, SI, urbanistes) et être capable de la présenter, la faire adopter et de l’utiliser à des fins de gouvernance des données… • Conformité règlementaire : Garantir que toutes les données respectent les normes internes et externes, en particulier en matière de RGPD et de conformité légale. • Gestion des rôles et animation de la communauté Data : Identifier les relais de la gouvernance dans un contexte de responsabilités fédérées. Mobiliser les acteurs (animation de séminaires, communication…). • Gestion des habilitations : Définir la granularité des habilitations des rôles et utilisateurs identifiés. • Accompagnement de la montée en compétence des autres membres de l'équipe sur des sujets structurants devant être maîtrisés pour mener à bien les missions de l'activité" Livrables attendus "Chapitres thématiques de la politique de Gouvernance des données (rôles et responsabilités; gestion Glossaire/Dictionnaire ; gestion du Data Lineage; sécurité et droits d'accès, dont conformité juridique; Suivi de la qualité des données; process permettant l'évolution de la plate-forme Data" Environnement technique - technologique • couche stockage : TERADATA; HADOOP Cloudera; Postgre • Transformation : DataStage / Spark • BI : Power BI; SAS"
Freelance

Mission freelance
Expert Data Privacy (RGPD)

Codezys
Publiée le
Audit
Data privacy
RGPD

12 mois
Lyon, Auvergne-Rhône-Alpes
Objet de la recherche Recrutement d’un expert (+15 ans d’expérience) pour un audit interne sur la gestion des données dans le traitement des réclamations techniques (niveaux 2 & 3). Contextes et enjeux Problème identifié : Perte de contrôle sur les données entre les applications, due à l’absence d’un processus cohérent de suppression et gestion des données personnelles (VILINK, SAP, CRM 360, Coltshare, etc.). Objectifs : Améliorer la gouvernance Data Privacy, la sécurité, la traçabilité, et assurer la conformité réglementaire (ex. HDS, C5). Rôle et responsabilités du prestataire Diagnostic & consolidation des flux de données : cartographie, identification des zones de superflu, stockage et réplication non souhaités. Définition et déploiement des mesures correctives : création d’un SOP pour la suppression cohérente, nettoyage des données existantes, définition des rétentions conformes. Coordination interéquipes : liaison avec IT, Data Privacy, opérations commerciales, BDR, GCS, suivi du plan de remédiation, cohérence dans les contributions. Contribution transversale : supervision du DPIA, déploiement de mesures de sécurité, gestion des risques, support méthodologique en Data Privacy. Livrables attendus Procédure de “Data Deletion Consistent Process Across Applications”. Cartographie validée des flux de données patient. Plan de remédiation consolidé, mis à jour et exécuté. Reporting hebdomadaire et suivi pour les managers GCS. Documents pour révision DPIA et gouvernance post-projet. Tous les livrables mentionnés dans le rapport d’audit partagé au démarrage.
CDI

Offre d'emploi
Consultant·e Data Scientist & AI Engineer - Senior

█ █ █ █ █ █ █
Publiée le
CI/CD
Deep Learning
Gitlab

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Scientist

Lùkla
Publiée le
Azure DevOps
CI/CD
Databricks

3 ans
47k-64k €
100-520 €
Paris, France
Dans le cadre de sa stratégie Data & IA, notre client dans le secteur bancaire renforce ses équipes pour concevoir, entraîner, déployer et monitorer des modèles de Machine Learning, et intégrer les solutions d’IA Générative dans ses parcours clients et processus métiers. Vous rejoignez une équipe Data innovante, à la croisée des enjeux opérationnels, réglementaires et technologiques. Environnement technique : Modélisation & IA : Logistic Regression, XGBoost / LightGBM, SHAP, LIME, LLM (OpenAI, HuggingFace), LangChain, LangGraph ML Engineering : Python, Scikit-learn, MLflow, FastAPI, Pytest, GitHub Actions, Docker, Kubernetes Cloud & Big Data : Azure ML, Databricks, pySpark, Azure DevOps, Snowflake (atout) MLOps : CI/CD, Feature Store, API ML, Monitoring Drift, Backtesting, RAGAS, LLM as a Judge
Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API

3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
4364 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous