Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 217 résultats.
Freelance

Mission freelance
[SCH] Développeur COBOL / Data Mainframe - 1105

Publiée le

10 mois
350-400 €
Courbevoie
Dans le cadre du renforcement des équipes Mainframe, nous recherchons 2 Développeurs COBOL orientés Data pour intervenir sur des évolutions applicatives et la maintenance du patrimoine en production. Mission longue sur site client (banque). Missions : -Analyse d’impacts suite aux demandes projets -Rédaction des spécifications techniques (accès aux données, mappings…) -Suivi ou réalisation des développements Mainframe COBOL -Tests unitaires & tests d’intégration -Livraisons en environnement de recette -Respect des normes qualité, documentation et méthodes internes
Freelance

Mission freelance
Consultant SAP Data Migration

Publiée le
SAP

6 mois
700-750 €
Île-de-France, France
Télétravail partiel
RED Global est à la recherche d’un consultant SAP Data migration pour venir rejoindre les équipes de l’un de nos clients à Paris dans le cadre de leur projet S/4HANA en cours. Compétences requises : Expérience de 6 ans minimum sur SAP Expertise sur les sujets de reprise de données/migration de données Expérience avec le cockpit de migration Expérience sur un projet S/4HANA Détails du projet : Démarrage: Janvier 2026 Durée : Mission longue – 6 mois renouvelable Charge de travail : 5 jours par semaine Lieu : Hybride – Ile-de-France - 3 jours sur site par semaine 2 jours de télétravail Langues : Français – Anglais est appréciable
Freelance

Mission freelance
Manager AMOA & Gouvernance SI / DATA – DSI Interne

Publiée le
Data management
Gouvernance
Pilotage

6 mois
Île-de-France, France
Télétravail partiel
Vous interviendrez au sein de la Direction des Systèmes d’Information Interne , pour piloter l’équipe AMOA & Gouvernance SI/DATA dans un environnement multi-BUs, multi-outils et multi-process . Votre rôle : garantir la cohérence du SI Corporate et valoriser la donnée au cœur des activités métiers. ✅ Vos missions principales : 👥 Management d’équipe • Encadrer, animer et développer les compétences de l’équipe AMOA & Data • Prioriser la charge et assurer la cohérence avec la feuille de route SI interne • Favoriser la collaboration transverse entre IT et métiers 🚀 Conduite de projets & Transformation SI / Data • Accompagner les métiers dans le cadrage et la mise en œuvre des solutions SI • Piloter les projets de bout en bout (gouvernance, planification, recette, mise en prod) • Garantir la qualité, la sécurité et la conformité des projets Data 🧭 Urbanisation & Gouvernance de la donnée • Déployer la gouvernance des données et animer la culture Data • Gérer les référentiels internes (clients, produits, projets…) • Maintenir la cartographie du SI et la documentation fonctionnelle
Freelance

Mission freelance
Data Engineer/ Expert GCP

Publiée le
BigQuery
Cloud
Data science

12 mois
530 €
Toulouse, Occitanie
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Freelance

Mission freelance
Data Architecte (Secteur Energie / Industrie)

Publiée le
Apache Airflow
Apache Spark
Architecture

12 mois
690-780 €
Rennes, Bretagne
Télétravail partiel
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Freelance

Mission freelance
Data engineer senior H/F

Publiée le
Google Cloud Platform (GCP)
HFSQL
Python

2 ans
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
Freelance
CDI

Offre d'emploi
Data Analyst orienté Cybersécurité & Reporting (H/F)

Publiée le
Cybersécurité
Data analysis
IAM

3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Nous recrutons : Data Analyst orienté Cybersécurité & Reporting Nous recherchons un profil DATA et REPORTING spécialisé dans l’univers Cyber et IAM pour renforcer nos équipes. Missions principales : Production, suivi et automatisation des KPI/KRI Cyber & IAM Industrialisation de dashboards (Power BI / SQL / Python) Contrôles de qualité de données et fiabilisation des référentiels Définition des indicateurs et challenge des besoins métiers Collaboration transverse entre les équipes Data, Cyber et Risques Analyse de données : habilitations, logs, référentiels IAM Profil recherché : Un Data Analyst spécialisé en cybersécurité, capable de comprendre les enjeux Cyber & IAM sans être un expert applicatif IAM. Rigueur, sens de l’analyse et capacité à manipuler la donnée à grande échelle sont essentiels.
Freelance
CDI

Offre d'emploi
Platform Engineer Kubernetes – Data & GitOps (Environnement bancaire critique)

Publiée le
API Platform
Kubernetes

1 an
Paris, France
Télétravail partiel
Nous recherchons un Platform Engineer Kubernetes senior , orienté Data , pour concevoir, industrialiser et opérer une plateforme Kubernetes from scratch dans un contexte bancaire critique . Le rôle est plateforme & RUN , avec une approche GitOps stricte : Git est l’unique source de vérité, aucune intervention manuelle en production . Vos missions principales : Conception et déploiement de clusters Kubernetes from scratch (cloud et/ou on-prem) Mise en œuvre et exploitation en GitOps (ArgoCD / FluxCD) Industrialisation de plateformes data sur Kubernetes (batch, ML, analytique) Sécurisation de la plateforme (SSO, gestion des secrets, RBAC, Vault) Mise en place du monitoring, de la résilience et du scaling Exploitation et RUN en environnement bancaire (SLA, ITIL, MCO)
Freelance
CDI

Offre d'emploi
Data Analyste (24)

Publiée le
Piano Analytics
PowerBI

1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'une grande entreprise de médias. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. La Direction Data recherche une prestation en Data Analyse pour accompagner la direction de la croissance des offres (CRM, Acquisition, Social, Partenariat – Chaîne et FAI). Prestations attendues La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes internes, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du dashboard, itérations mode projet). Le maintien du bon fonctionnement des dashboards existants sur Power BI. L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (Piano Analytics, Nielsen, marqueur interne). La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études. L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul. Le partage de son expertise afin de déployer notre marqueur interne sur d'autres produits. L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes.
Freelance
CDI

Offre d'emploi
Développeur QlikSense / Data analyst

Publiée le
Qlik Sense

1 an
40k-45k €
320-560 €
Paris, France
Télétravail partiel
Descriptif du poste La mission se déroulera au sein de l'équipe Analytics End to End de la Direction Data d'une institution financière. Cette équipe a pour responsabilité de construire et maintenir des outils de pilotage à disposition des équipes métiers. Nous accompagnons également l'ensemble des équipes analytics dans leurs pratiques data et BI sur les plateformes data mis à dispositions par l'équipes Analytics Platforms avec laquelle nous travaillons en étroite collaboration. La mission nécessite des compétences fonctionnelles et techniques avancées sur QlikSense pour développer pour le métier des dashboards mais aussi pour gérer les montées de version QlikSense et accompagner l'équipe Analytics Platforms.
Freelance

Mission freelance
Data Engineer Finance et Risque (H/F)

Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)

6 mois
400-650 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Localisation : Maisons-Alfort (94) Rythme : 2 jours sur site (lundi & jeudi) / 3 jours télétravail Expérience : +8 ans Démarrage : ASAP Mission longue Expérience en banque obligatoire. Python / Spark / Entrepôts de données / Data Warehouse 1. Description du poste Dans un contexte de transformation globale du SI et d'accélération autour des technologies Data & Cloud, nous recherchons un Data Engineer senior expert en Python , PySpark , traitement de données Spark et parfaitement à l’aise avec l’écosystème AWS . Le rôle implique une forte dimension d’ingénierie logicielle : développement Python , tests unitaires (pytest), participation aux tests fonctionnels automatisés, mise en place de code modulaire , robuste et industrialisé. Au quotidien, le Data Engineer devra concevoir et développer des jobs de traitement de données (notamment via AWS Glue), maîtriser l’ensemble de la stack AWS Data (S3, Athena, Secret Manager…), intervenir ponctuellement sur des instances EC2, et collaborer étroitement avec le Tech Lead afin de respecter les design patterns applicatifs et les standards d'architecture. L’objectif majeur de la mission est de modulariser et architecturer les process Data pour construire des solutions évolutives, intégrées et orientées métier. Le poste nécessite une posture proactive, autonome, dynamique, ainsi qu’un excellent relationnel avec les PM et les équipes métiers, dans un environnement Agile SAFe .
Freelance
CDI

Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
47k-97k €
330-500 €
Paris, France
Télétravail partiel
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
Freelance
CDI

Offre d'emploi
Pixie – Mission Freelance Data Analyst / Business Analyst E‑Commerce – Lille – Portage possible

Publiée le
BigQuery
Microsoft Power BI
SQL

3 ans
Nord, France
Télétravail partiel
Bonjour Pour un de mes clients, je recherche un(e) : Data Analyst / Business Analyst E-Commerce Rattaché(e) à l’équipe métier Pro Analyse du business des clients professionnels Réalisation d’analyses ad hoc et de dashboards pour accompagner les équipes métier Mission Couvrir tout le cycle data Requêtes SQL Analyse des données Création de KPIs Construction et mise à jour de dashboards Power BI Restitution claire des résultats avec une dimension data storytelling Échanges réguliers avec les équipes métier Pro et la direction Data Tâches principales Suivi des mises à jour des dashboards Analyses de performance des opérations commerciales Analyses de performance des conseillers de vente Pro Analyses de performance de l’offre Outils Power BI SQL GCP BigQuery Environnement marketing Python apprécié Git/Github niveau basique Profil recherché Minimum 5 ans d’expérience Capacité à challenger des équipes métier expérimentées Français courant Infos mission Début janvier Durée longue 3 ans Localisation Lille 3 jours sur site Résumé du profil idéal Data Analyst confirmé orienté business Pro À l’aise avec Power BI, SQL et BigQuery Capable de dialoguer avec le métier et de faire parler la donnée Si ce poste vous intéresse et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger
Freelance
CDD
CDI

Offre d'emploi
Consultant Data Databricks (F/H)

Publiée le
Apache Spark
Databricks
DevOps

3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
CDI
Freelance

Offre d'emploi
DATA SCIENTIST SENIOR – BRUXELLES

Publiée le
Data science
Python

3 ans
Bruxelles, Bruxelles-Capitale, Belgique
Pour une mission longue sur Bruxelles (3 jours site ) , nous recherchons un data scientist expérimenté (minimum 3 ans d’expérience) ayant OBLIGATOIREMENT une expérience dans le secteur bancaire. · Poste en CDI (idéalement pour une relocalisation en Belgique), ouvert aux Freelances, · Anglais obligatoire · Salaire ou tarif à discuter En tant que Data Scientist, vous devez maîtriser différents aspects du Machine Learning. Ce poste offre l’opportunité d’appliquer et de renforcer tes compétences dans plusieurs domaines : • Relever divers défis métiers en créant des applications d’IA (assistant virtuel, etc.) destinées à améliorer l’expérience client, fournir de meilleurs outils aux collaborateurs, et automatiser ou optimiser les processus internes. • Utiliser un large éventail de méthodologies analytiques (IA générative et IA prédictive), incluant les techniques et approches de GenAI : Prompt Engineering, RAG, fine-tuning, speech-to-text, applications agentiques, génération et interprétation d’images, NLP, ainsi que les méthodes statistiques et de machine learning classiques. Bien que vous ne soyez pas expert dans tous ces domaines, vous devez posséder une solide expertise dans les technologies clés et la capacité d’apprendre rapidement de nouvelles approches selon les besoins. • Disposer d’une grande expérience en programmation Python et contribuer au déploiement d’applications d’IA en production en utilisant une pile technologique complète. • Présenter directement les résultats de tes travaux au top management. • Accéder à l’un des volumes de données les plus riches et variés du marché et y appliquer tes compétences. • Évoluer dans un environnement qui valorise l’innovation, les processus agiles et efficaces, la communication directe, et un esprit d’équipe fort. • Travailler au sein d’une équipe agile et collaborative, composée de collègues prêts à partager leurs expériences et à coopérer au quotidien.
Freelance

Mission freelance
Data Engineer Python / AWS (h/f)

Publiée le

1 mois
550-580 €
1000, Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Contexte : Le Data Engineer Python / AWS est chargé de concevoir et maintenir des pipelines de données efficaces au sein de l'équipe Power Data. Ce rôle exige une expertise approfondie en Python et AWS, ainsi que des compétences en ingénierie des données pour transformer les besoins commerciaux en solutions fonctionnelles basées sur les données. Livrables : Collecte de données Préparation et nettoyage des données à l'aide de Dataiku Création et maintenance de pipelines de données Ingestion de données dans un data lake Traitement et transformation des données selon des cas d'utilisation Intégration de Dataiku, services AWS et PowerBI Développement et maintenance de dashboards et rapports PowerBI Visualisation efficace des données Formation et mentorat sur les meilleures pratiques Compétences : Expérience en ingénierie des données (Data Engineering) Maîtrise de Python Expérience avec AWS Compétences en analyse de données et en création de modèles de données Connaissance de Dataiku et PowerBI Compétences en gestion de la qualité et sécurité des données Expérience en visualisation de données Anglais courant / Français est un plus Autres Détails : Télétravail 3 jours par semaine, intégration à une équipe à Bruxelles avec des déplacements occasionnels à Paris. Durée du contrat : 3 ans.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1217 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous