Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 107 résultats.
Freelance

Mission freelance
Data Scientist

Cherry Pick
Publiée le
BigQuery
Python
Streamlit

3 mois
650-700 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur de de la publicité Description 🎯 Contexte du projet Le groupe développe une plateforme web innovante de gestion de coupons personnalisés. Ce projet allie IoT et gestion de campagnes retail, avec un besoin fort de mesure et pilotage des performances. L’équipe interne gère déjà le front en Streamlit, mais souhaite renforcer son expertise pour : Créer et industrialiser des dashboards performants, Automatiser la création d’échantillons et le calcul des indicateurs, Pré-calculer et visualiser des agrégats statistiques, Améliorer la mise en production et l’UX des produits data. 🛠️ Missions principales Concevoir et développer des interfaces analytiques avancées avec Streamlit (dashboards, data apps). Définir les KPI de performance et implémenter leur suivi. Industrialiser le calcul d’indicateurs et d’agrégats statistiques. Automatiser la création et le suivi des campagnes data marketing. Participer aux tests, à la mise en production et à l’optimisation continue. Travailler en étroite collaboration avec les équipes Data / IoT / Produit.

CDI

Offre d'emploi
Data Scientist Assurance

REDLAB
Publiée le
Apache Airflow
Docker
Pandas

40k-45k €
Paris, France

Dans le cadre d’un projet stratégique pour un grand acteur de l’assurance, nous renforçons notre équipe Data au sein du DataLab Groupe . Vous interviendrez sur des projets innovants de Data Science, de la R&D jusqu’à l’ industrialisation de modèles ML , avec un fort impact métier sur la lutte anti-fraude, la maîtrise des risques climatiques et la prévention des sinistres graves. Profil recherché 5+ ans d’expérience en Data Science , avec projets menés jusqu’à l’industrialisation. Forte capacité à encadrer, challenger et vulgariser auprès des équipes. Expérience en conduite du changement et interaction avec des utilisateurs métiers. Une curiosité et une veille active sur les nouvelles approches ML/IA.

CDI
Freelance

Offre d'emploi
Data Scientist senior

Signe +
Publiée le

24 mois
45k-50k €
322-500 €
Roissy-en-France, Île-de-France

Site : Ile de France (Roissy-en-France) ; Date de démarrage : 22/09/2025 Durée mission : 8 mois (15/05/2026) Profil : Data Scientist senior, expert en modélisation statistique, capable de concevoir des modèles robustes et interprétables pour améliorer la prévision de la demande. Nombre d'années d'expérience : 8+ années d'expérience dans le domaine Compétences techniques : - Maîtrise de Python (NumPy, SciPy, PyMC, scikit-learn, statsmodels), - Maîtrise de SQL, - Connaissance des outils de visualisation (Power BI, Looker, Streamlit), - Machine Learning appliquée, - Modèles supervisés, boosting, régularisation, validation croisée

Freelance

Mission freelance
LEAD DATA SCIENTIST AI

PARTECK INGENIERIE
Publiée le
AI

12 mois
400-550 €
Paris, France

Nous recherchons un expert de haut niveau en Data Science et NLP/GenAI pour piloter un programme stratégique autour de l’ automatisation intelligente de la gestion d’emails (13M+/an) . L’objectif : concevoir un système agentique innovant intégrant priorisation, génération de réponses, résumé automatique et conformité réglementaire , tout en réduisant de plus de 60% les tâches manuelles. 🎯 Vos missions principales Leadership technique (40%) : concevoir l’architecture agentique, définir la roadmap, les métriques d’évaluation, assurer la scalabilité et l’intégration (MCP, A2A/ACP). Développement (30%) : prototypage d’agents, ingénierie de contexte LLM, pipelines de données synthétiques, déploiement en production. Business alignment (20%) : traduire les besoins opérationnels, élaborer des règles de priorisation, travailler avec les équipes conformité, définir les KPIs. Recherche & veille (10%) : explorer les nouvelles avancées en agentic AI, expérimenter et accompagner l’équipe. 🛠️ Tech Stack & environnement CrewAI , Python, SQL, APIs MCP / A2A / ACP integration GenAI, NLP avancé, MLOps Objectif : réduction >60% des tâches manuelles ✅ Profil recherché PhD ou équivalent 10+ ans en Data Science, dont 5+ en NLP/GenAI Expérience CrewAI & déploiement IA en production Solides compétences Python, SQL, APIs Expérience secteur financier & publications/patents appréciés Anglais courant (français apprécié) 💡 Pourquoi nous rejoindre ? Programme IA à fort impact stratégique Stack technologique de pointe Opportunités de recherche et publications Forte visibilité auprès du management Package attractif & télétravail hybride ANGLAIS OBLIGATOIRE

CDI

Offre d'emploi
Data Scientist Senior

REDLAB
Publiée le
Docker
Git
Modèle Logique des Données (MLD)

40k-45k €
Paris, France

Contexte Nous recherchons un(e) Data Scientist expérimenté(e) pour rejoindre un DataLab et contribuer à des projets innovants allant de la R&D jusqu’à l’industrialisation de modèles de Machine Learning. Les problématiques traitées sont à fort impact : maîtrise de la charge de sinistres, lutte contre la fraude, anticipation et gestion des risques climatiques. Profil recherché Data Scientist senior avec 5 ans minimum d’expérience , dont des projets menés jusqu’à l’industrialisation. Idéalement : connaissance du secteur Assurance / IARD , conduite du changement et accompagnement utilisateurs. Bonus : maîtrise de R, SAS, QlikSense. Modalités Démarrage : Janvier 2026 Durée : 12 mois (renouvelable)

CDI
Freelance

Offre d'emploi
DATA SCIENTIST à Nantes

Accetal
Publiée le
Data science

6 mois
40k-45k €
400-550 €
Nantes, Pays de la Loire

Prestation à Nantes. Le bénéficiaire souhaite une prestation d'accompagnement sur Nantes, dans le cadre de son programme d’accélération de l’IA. Contexte : Dans le cadre du chantier Knowledge Management (KM), une base de connaissance doit être constituée à partir de documents non structurés (PDF, Word, HTML). Cette base servira à formaliser la connaissance sous une forme agnostique des usages, en vue d'une réutilisation large et durable. Objectif de la mission : Concevoir un pipeline d'extraction, nettoyage et structuration de la connaissance textuelle issue de documents variés, en l'organisant dans un format pivot enrichi et exploitable. Activités principales : Extraction du texte depuis des fichiers PDF, Word, HTML via des librairies adaptées Nettoyage et normalisation des contenus (suppression de bruit, OCR si nécessaire) Segmentation des textes en unités de connaissance structurées (sections, blocs) Enrichissement des unités avec des métadonnées (source, date, thème, typologie) Conception du format pivot (Markdown enrichi ou JSON) standardisé Documentation le format et les choix de structuration Collaboration avec l’équipe KM pour affiner la structuration Mise en place un script ou pipeline réutilisable pour de nouveaux documents Bonne connaissance de Domino Data Lab (optionnel)

Freelance

Mission freelance
Data Scientist Dataiku (H/F)

LeHibou
Publiée le
Dataiku
DAX
Microsoft Power BI

9 mois
400-500 €
Toulouse, Occitanie

Notre client dans le secteur Aérospatial et défense recherche un/une Data scientist H/F Description de la mission : Dans un contexte de croissance et de transformation digitale et afin d'optimiser ses performances, notre client du secteur aérospatial et défense recherche un Data Analyst /Scientist en freelance pour renforcer son équipe ! Dans le cadre du développement d’une webapp composée de plusieurs widgets, vous serez responsable d’une dizaine de widgets, de la préparation des données jusqu’à leur exploitation finale. Vous interviendrez sur l’ensemble de la chaîne : récupération des données dans le datalake, préparation, création des tables et accompagnement du développeur en charge de la webapp. Les missions et les tâches des Data Scientist seront assignées en fonction des besoins sur les différents projets menées au sein de la Transformation Digitale. Le périmètre concerné comportera notamment de la programmation (python, SQL...), le Data Treatment, le Machine Learning etc dans différents projets de la Direction Transformation Digitale. Thématiques principales : Supply Chain / Manufacturing Extension possible vers : Vente, Finance et autres domaines Missions : Préparation et transformation des données de bout en bout (Data Prep, Dataiku) Gestion et alimentation des widgets dans la webapp Participation aux projets de la Direction Transformation Digitale Programmation et automatisation des traitements (Python, SQL) Mise en place de tableaux de bord et de reporting (PowerBI, Quicksight)

Freelance
CDI

Offre d'emploi
Data scientist

Management Square
Publiée le
Docker
Google Cloud Platform (GCP)

1 an
45k-50k €
400-450 €
Lille, Hauts-de-France

Nous sommes à la recherche d'un(e) : Data Scientist - Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. - Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). - Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). - Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. - Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. - Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. - Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.

Freelance

Mission freelance
Data Engineer / Data Scientist

Comet
Publiée le
Python

220 jours
600-800 €
Pau, Nouvelle-Aquitaine

📝 Fiche de Mission – Data Engineer / Data Scientist 📍 Lieu : Pau (64) – Déplacements ponctuels sur Paris (≈ 5 / an) 📅 Démarrage : 13/10/2025 ⏳ Durée : 12 mois – renouvelable 💶 TJM : Jusqu’à 800 € HT / jour 🕐 Rythme : Plein temps (présentiel majoritaire, possibilité part remote) Contexte de la mission Dans le cadre d’un programme de transformation digitale d’un grand groupe industriel, la mission s’inscrit au sein de l’équipe et vise à renforcer les capacités d’ingénierie de données afin d’améliorer la qualité, l’accessibilité et l’exploitation des données opérationnelles.

Freelance
CDI

Offre d'emploi
Data scientist

VISIAN
Publiée le
AWS Cloud
CPLEX
Natural Language Processing (NLP)

3 ans
40k-80k €
400-650 €
La Défense, Île-de-France

🎯 Missions principales : Concevoir des modèles statistiques et mathématiques robustes Implémenter ces modèles en Python dans le cadre de la plateforme du client Utiliser des techniques d’optimisation avancées : linéaire, entière, non linéaire Manipuler les solveurs ( CPLEX ) et le langage GAMS pour modéliser les problèmes Traduire des problématiques métier en modèles mathématiques opérationnels Prototyper, itérer et simplifier des solutions d’optimisation Présenter les résultats aux PO / métiers et accompagner la mise en production Collaborer avec les équipes Data, SI et projets

Freelance

Mission freelance
Data Scientist - Dataiku - Modélisation des Risques

NEXORIS
Publiée le
Dataiku

6 mois
590-600 €
Île-de-France, France

Notre client, recherche un Data Scientist - Dataiku (H/F) dans le cadre d'une longue mission. Contribuer à des projets liés à la gestion et l'analyse des données dans le cadre de la Finance et de la Responsabilité Sociétale des Entreprises (RSE), ainsi qu'à la modélisation prédictive des risques financiers. Projet Data Finance / RSE : - Alimenter et organiser les données dans un Data Lake. - Créer des datamarts Finance. - Écrire des scripts et requêtes pour identifier les données Finance RSE, ainsi que les données liées à l'Affacturage, CBM et CBI. - Créer des rapports avec des outils de data visualisation. - Automatiser les processus existants. - Déployer et documenter les travaux réalisés. Modélisation des Prédictions de Risque : - Analyser et interpréter les données complexes issues du Data Lake. - Mettre en place des algorithmes statistiques pour l'analyse et la surveillance du portefeuille d'Affacturage. - Développer des modèles de prédiction des risques. - Créer des modèles de scoring. - Documenter les travaux effectués.

CDI
Freelance

Offre d'emploi
Data Scientists IA

5COM Consulting
Publiée le
Large Language Model (LLM)
Python
RAG

2 ans
La Défense, Île-de-France

Nous recherchons deux Data Scientists IA (Junior & Senior) passionnés par l’intelligence artificielle et les grands modèles de langage pour rejoindre notre équipe sur une mission longue. Missions Concevoir, entraîner et déployer des modèles IA/ML avancés. Travailler sur des cas d’usage innovants autour du RAG (Retrieval Augmented Generation) et des LLM (Large Language Models). Développer en Python des solutions performantes et scalables. Exploiter la puissance du cloud Azure pour industrialiser et mettre en production les modèles. Collaborer avec les équipes Data, Produit et Tech pour maximiser l’impact métier.

Freelance

Mission freelance
POT8602-Un Data scientiste sur Grenoble

Almatek
Publiée le
Python

6 mois
270-360 €
Grenoble, Auvergne-Rhône-Alpes

Almatek recherche pour l'un de ses clients, un Data scientiste sur Grenoble. Missions: Concevoir, entrainer, déployer des modèles de ML, En environnement: Python, scikit Pytorch, SQL Databricks Expérience en feature engineering et ML Ops 3 ans d'expé en Data science Vont aller sur du DBT Cloud (hébergé sur leur cloud azure), pas le DBT core Aujourd’hui en Databricks Almatek recherche pour l'un de ses clients, un Data scientiste sur Grenoble. Missions: Concevoir, entrainer, déployer des modèles de ML, En environnement: Python, scikit Pytorch, SQL Databricks Expérience en feature engineering et ML Ops 3 ans d'expé en Data science Vont aller sur du DBT Cloud (hébergé sur leur cloud azure), pas le DBT core Aujourd’hui en Databricks

Freelance
CDI

Offre d'emploi
Data Scientist - IA Générative

VISIAN
Publiée le
Dash
Deep Learning
Large Language Model (LLM)

1 an
50k-68k €
460-680 €
Île-de-France, France

Le Groupe voit dans l'arrivée des technologies d'IA Générative une opportunité majeure pour améliorer la productivité et la créativité de ses collaborateurs. Le Groupe a atteint un niveau de maturité sur le sujet qui l'amène à renforcer son dispositif intervenant sur les IA Génératives. Ce renfort doit permettre d'étendre le périmètre du projet à tous les métiers du groupe (maitrise de l'ingéniérie et de la performance) et de lancer les prochaines incubations (agents, graphrag, etc.) Nature de prestation : Le renfort interviendra en tant que Data Scientist pour accompagner les explorations et mise en service de pilote de nouveaux services pour nos directions métier. Le terrain de jeux sera les IA génératives et l'écosystème de technologies autour. Il sera en responsabilité de la conception (en collaboration avec les interlocuteurs métiers, Data et DSI) et le développement de solutions répondant aux besoins métier. Il réalisera les études de faisabilité, de risque et de performance nécessaire pour la maturation du Use Case à travers le cycle de vie (exploration, incubation, industrialisation, run) Livrables : Pipeline d'acquisition, préparation et traitement de données (structurées et non structurées) Pipeline d'entrainement, test et validation, Composants d'inférence Automatisation de pipeline et workflow Prototypes et démonstrateurs Plan d'experiences et de tests Documentation technique et fonctionnelle Rapport de veille technologique et technique

Freelance

Mission freelance
Data Scientist GCP adtech

Cherry Pick
Publiée le
Data science
Google Cloud Platform (GCP)

3 mois
520-540 €
75000, Paris, Île-de-France

En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur des medias Description 🎯 Contexte du projet L’équipe BI, Analytics & Data Science (10 personnes : Data Analysts, Data Scientists, ML Engineers) travaille en transverse pour l’ensemble des marques et métiers du groupe (abonnement, vente au numéro, régie publicitaire…). L’activité couvre un spectre large : analyses ad hoc, dashboards, projets data science et IA. La stack technologique est entièrement sur Google Cloud Platform (BigQuery, Airflow, Vertex AI). Face à la montée en charge et à des besoins spécifiques en AdTech (audience, publicité digitale, personnalisation), l’équipe recherche un Data Scientist confirmé pour renforcer ses capacités sur la fin d’année. 🛠️ Missions principales Intervenir sur des projets AdTech : audience, ciblage publicitaire, recommandations de contenu, personnalisation, pricing. Gérer des projets end-to-end : Collecte et préparation des données, Feature engineering et modélisation, Déploiement et mise en production des modèles (Vertex AI, Airflow). Développer et industrialiser des modèles de machine learning prédictif (pas de focus sur l’IA générative). Collaborer avec les équipes Data, BI, régie publicitaire et métiers internes. Produire des analyses et recommandations pour soutenir la stratégie publicitaire et marketing.

Freelance

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP

Freelance.com
Publiée le
Apache Airflow
CI/CD
Data analysis

12 mois
480 €
Paris, France

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

107 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous