Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 677 résultats.
Freelance

Mission freelance
246242/Data Scientist/IA Gen/Machine Learning / Deep Learning - Nantes

WorldWide People
Publiée le
IA Générative

3 mois
Nantes, Pays de la Loire
Data Scientist/IA Gen/Machine Learning / Deep Learning - Nantes Compétences et expériences demandées : Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. Connaissance de SQL Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Pratiquer une veille active sur vos domaines de compétence. Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe Objectifs et livrables Activité principales attendues : Machine Learning / Deep Learning Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. Création et production de modèles d'apprentissage automatique industrialisables Traitement de données à grande échelle pour la création de jeux de données d'entraînement Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen Prompt engineering Bench via des solutions d'évaluation des modèles d'IA Gen Optimisation des solutions (paramétrage des modèles) Compétences demandées Compétences Niveau de compétence machine learning Confirmé python Confirmé IA générative Confirmé
Freelance

Mission freelance
SAP Finance Data Governance Expert

Signe +
Publiée le
SAP S/4HANA

1 an
600-800 €
Paris, France
Dans le cadre d’un programme international de transformation digitale, un groupe déploie un ERP unique basé sur SAP S/4HANA Public Cloud afin d’harmoniser ses processus Finance. Ce programme vise à mettre en place un modèle de données global, standardisé et gouverné , garantissant qualité, fiabilité et conformité des données financières dans un environnement multi-pays. Rattaché(e) au programme Finance Transformation, vous êtes le/la référent(e) Data Governance sur le périmètre Finance. À ce titre, vous : Définissez et structurez le framework de Finance Data Governance Formalisez les rôles et responsabilités (Data Owners, Data Stewards) Définissez et maintenez le Finance Data Model cible Mettez en place les règles et indicateurs de Data Quality Supervisez les activités de nettoyage et de remédiation des données Encadrez les règles de mapping et de transformation dans le cadre des migrations SAP S/4 HANA Assurez la cohérence des données entre systèmes et flux inter-applicatifs Garantissez l’alignement avec les exigences réglementaires et de contrôle interne Animez les instances de gouvernance Data et accompagnez l’adoption au niveau global Des interactions fréquentes avec les équipes Finance, IT et Process Owners sont attendues. Des déplacements peuvent être à prévoir en phase de déploiement. Démarrage : Mars 2026 Durée : 1 an renouvelable Localisation : Paris ou Grenoble (2/3 jours de présentiel)
Freelance

Mission freelance
Architecte Cloud AWS / Azure (Data Platform) - Paris

Net technologie
Publiée le
Architecture
AWS Cloud
Azure

3 mois
Paris, France
Nous recherchons un Architecte Cloud expérimenté pour accompagner la mise en place d’une nouvelle Data Platform au sein d’un programme de transformation data. 🎯 Enjeux : concevoir et piloter l’architecture SI cloud, garantir la cohérence avec la stratégie IT, et accompagner l’innovation autour des architectures Data Lakehouse . 🚀 Missions Définir et piloter l’ architecture cloud (AWS / Azure) Contribuer aux choix technologiques et à la stratégie SI Accompagner les projets dans la conception et l’intégration des solutions Définir les standards d’architecture et bonnes pratiques Garantir la sécurité, la résilience et la performance du SI Participer à l’amélioration continue et au partage des connaissances
Freelance

Mission freelance
Développeur(euse) Big Data

CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Python

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Description du poste : Dans le cadre de l'activité Big Data de notre client, nous recherchons un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans nos actions sur notre plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs.
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake

12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
Freelance

Mission freelance
Chef de projet - Data Management / Framework

STHREE SAS pour HUXLEY
Publiée le

12 mois
500 €
France
🚀 Mission Freelance - Business Analyst Data (H/F) - Paris - Longue mission Nous recherchons un Business Analyst Data confirmé pour Construire une approche et planning afin de se mettre en conformité vis a vis du framework Data Management Control Standard (DM CS) et End User Computing Control standard (EUC CS) Contrainte forte du projet : Connaissance et experience dans l'implementation des disciplines DAMA : Data Governance, Data Quality, Data Traceability, Risk Reporting. Connaissance experience de la Directive BCBS 239 est une atout majeur. Connaissance de la gestion des applications EUC d'un point vu Data Management. Les livrables sont Frameworks DM CS et EUC CSderivés pour la France Approche, Roadmap, status de l'implementation, Reporting local global. 🎯 Votre rôle Activités principales attendues de la mission : - Gap analysis as-is versus nouvelle version des policies DM CS et EUC CS incluant les issues ouvertes relatives à ces deux standards - Definition des policies en application au scope et au contexte local - Accompagnement des métiers (Communication / Training) - Identification des gaps et plan d'action de remediation inscrit dans une roadmap - Execution des roadmaps, suivi et reporting de la mise en conformité à ces deux policies - Execution et coordinations des cycles de tests des controls definis dans les policies (Test of Design/ Test of Effectiveness) 🛠️ Compétences requises SQL (confirmé) Data modelling Data Governance, Data Quality, Data Traceability, Risk Reporting Connaissance BCBS 239 EUC Management Anglais professionnel & français courant 📅 Modalités Démarrage : 9 mars 2026 Fin : 31 décembre 2026 Rythme : 2 jours / semaine sur site Lieu : Paris Type : Assistance technique - Freelance 👉 Si vous êtes un expert Data avec une forte orientation conformité & gouvernance, cette mission est faite pour vous !
Freelance
CDI
CDD

Offre d'emploi
Data Scientiste GPS/SIG

Freelance.com
Publiée le
GPS
Python

1 an
40k-80k €
400-600 €
Issy-les-Moulineaux, Île-de-France
Profil : Data scientiste GPS/SIG Séniorité : + 7 ans Lieu de mission : Paris 15 Date démarrage souhaitée : 16/03 Durée mission : 1 an Objet et description de la mission : Expertise Data scientiste Modélisation compétence SIG Le projet vise à construire un découpage territorial en secteurs géographiques équilibrés en termes de durée de distribution et de taille. Un modèle prédictif est développé pour estimer la durée de distribution de chaque secteur à partir d’indicateurs routiers, géospatiaux et fonctionnels. Des données GPS historiques permettent de reconstruire la durée réelle de couverture des secteurs. Ces données ne seront cependant pas disponibles à l’inférence. L’enjeu est donc d’extraire, à partir des traces GPS, des indicateurs structurels et stables caractérisant chaque secteur, utilisables en production. Objectif : Extraire et formaliser des features géospatiales robustes à partir de traces GPS. - Concevoir et entraîner un modèle prédictif de durée de distribution par secteur. - Garantir la stabilité temporelle et spatiale des indicateurs. - Structurer une méthodologie réplicable et documentée Compétences recherchées (non exhaustive) : Connaissance des systèmes d’information géographique (SIG). - Analyse de réseaux routiers (graphes, accessibilité, centralité, etc...). - Manipulation avancée de données spatiales (points, lignes, polygones, multi-géométries). - Expérience en analyse territoriale et optimisation de découpages géographiques. - Bonne compréhension des enjeux logistiques et de mobilité. - Expertise en modélisation statistique et machine learning supervisé. - Feature engineering avancé sur données spatio-temporelles. - Évaluation de la robustesse, de la stabilité et de l’importance des variables. - Maîtrise des problématiques de généralisation, de biais et de data leakage
Freelance
CDI

Offre d'emploi
Data Product Manager – CRM & Customer Knowledge

KP2i
Publiée le
BI
Confluence
CRM

1 an
40k-45k €
400-720 €
Île-de-France, France
Transformation Data & Marketing – Environnement internationalContexte Grand groupe international en forte transformation digitale recherche un(e) Data Product Manager pour piloter des initiatives stratégiques liées à la connaissance client et à la performance CRM. Rattaché(e) à une organisation Data en mode Tribe / Feature Teams, le poste est au croisement des équipes Marketing, CRM, Produit et Data Engineering. L’objectif est de structurer et industrialiser des produits data à fort impact business, tout en sécurisant des chantiers de transformation majeurs. Finalité du poste Piloter des produits data orientés connaissance client et activation CRM afin de : Améliorer la performance e-commerce Optimiser la valeur client Renforcer la qualité et l’exploitabilité des données marketing Sécuriser des programmes de transformation Martech Missions principales1. Pilotage d’initiatives stratégiques Contribuer au cadrage de programmes structurants liés à la connaissance client Industrialiser les audiences prioritaires et structurer les signaux comportementaux Améliorer la couverture et la qualité de la base contactable Mettre en place des mécanismes de mesure de valeur incrémentale Piloter une migration de plateforme marketing automation (refonte des flux, modèles de données, segments, gouvernance) 2. Coordination transverse Animer les instances de pilotage (comités, ateliers de priorisation, steering committees) Aligner les visions business, produit et technique Assurer la fluidité des échanges entre CRM, Marketing, Data et Engineering Clarifier les rôles et responsabilités (RACI) 3. Pilotage produit & delivery Co-construire les roadmaps en collaboration avec les Product Owners Prioriser selon l’impact business et la création de valeur Suivre les jalons, dépendances et risques Garantir la qualité et le respect des délais Participer aux rituels agiles (PI Planning, Sprint Reviews) 4. Reporting & communication Assurer un reporting régulier auprès des sponsors et du management Préparer les supports de pilotage (roadmap, bilans, comités stratégiques) Communiquer de manière claire et pédagogique sur les enjeux data
CDI

Offre d'emploi
Consultant SAP Data Migration Senior

Signe +
Publiée le

60k-90k €
Paris, France
En tant que Consultant SAP Data Migration Senior, vous interviendrez au cœur des projets de transformation SAP. À ce titre, vos principales missions seront les suivantes : • Contribuer à la définition et au pilotage du plan de transformation ERP en apportant votre expertise sur les enjeux liés aux données. • Analyser, formaliser et challenger les besoins métier afin de concevoir une stratégie de migration de données adaptée : traitement des données historiques, gouvernance, gestion des référentiels (MDM), et qualité des données. • Animer des ateliers de cadrage et de conception avec les métiers et la DSI pour définir les solutions de migration, en lien avec les processus cibles SAP. • Participer aux choix technologiques liés à SAP et à son écosystème, en évaluant les outils de migration et de gestion de données (ex : Migration Cockpit, etc.). • Piloter ou contribuer activement aux différentes phases du projet de migration (stratégie, extraction, transformation, chargement, tests, validation, go-live, support). • Assurer la coordination entre les différentes parties prenantes : métiers, équipe projet, intégrateur, équipe data, etc. • Accompagner les utilisateurs dans la conduite du changement, via des actions de communication, formation et support à la prise en main des nouvelles solutions. • Contribuer à la mise en œuvre opérationnelle des solutions retenues, en garantissant la qualité, la conformité et la fiabilité des données migrées. • Accompagner vos collaborateurs dans leur montée en compétences. Référence de l'offre : 8w5ydg5u97
Freelance

Mission freelance
Data Engineer - Paris

Intuition IT Solutions Ltd.
Publiée le
Apache Spark
SQL

3 ans
400-410 £GB
Paris, France
Description du poste – Data Engineer Senior Dans le cadre de projets numériques transverses, vous interviendrez au sein d’une équipe data intégrée à une plateforme de traitement et de valorisation des données. Vous collaborerez étroitement avec des profils métiers et techniques afin de garantir la collecte, la structuration et l’exploitation optimale des données. Vos missions incluent notamment : Participer aux phases de conception, planification et réalisation des projets data Construire et maintenir des pipelines de données robustes et scalables Centraliser des sources de données hétérogènes Structurer et organiser les stockages de données Mettre en place des infrastructures évolutives capables de gérer des volumes importants Développer et maintenir les workflows CI/CD Assurer la sécurité, la stabilité et la performance des environnements Accompagner les équipes dans l’exploitation et le requêtage des données Contribuer aux initiatives de gouvernance data Documenter les solutions et diffuser les bonnes pratiques Réaliser une veille technologique active
Freelance

Mission freelance
Business Analyst Data & Paiements | SQL Expert | Power BI | Agile

CAT-AMANIA
Publiée le
Azure
Confluence
Google Cloud Platform (GCP)

6 mois
470-530 €
Île-de-France, France
Nous recherchons un Business Analyst Data pour rejoindre une Squad Data au sein d'un grand groupe financier de premier plan. Votre mission principale sera de piloter la chaîne de valeur de la donnée de paiement, de la collecte à la restitution décisionnelle. Vos missions : Recueillir et analyser les besoins des équipes métiers et des autres squads data. Traduire ces besoins en spécifications fonctionnelles et techniques détaillées (User Stories) dans un environnement Agile. Assurer la qualité et l'intégrité des flux de données de paiement via des requêtes SQL avancées. Concevoir, générer et diffuser des reportings et tableaux de bord via Power BI pour le pilotage des activités. Réaliser les tests de recette des traitements d'intégration et de transformation de données. Accompagner et former les utilisateurs finaux dans l'exploitation de leurs données de paiement. Profil recherché : Expertise confirmée en SQL (indispensable pour l'exploration et la validation de données). Solide connaissance du domaine des Moyens de Paiement ou de la Monétique. Maîtrise des outils de Data Viz (Power BI) et de la rédaction de documentation projet (Jira, Confluence). Expérience en environnement Big Data ou Cloud (Azure, GCP). Capacité à travailler en méthodologie Agile (Scrum). Excellente communication et capacité à vulgariser des sujets techniques complexes.
Freelance

Mission freelance
ARCHITECT DATA / URBANISTE

HAYS France
Publiée le
API
BI
Data governance

1 mois
Grand Est, France
Dans le cadre d’un renfort sur ses projets de transformation digitale, notre client recherche un(e) Architecte Data / Urbaniste afin d’intervenir sur un périmètre stratégique lié à l’évolution de son architecture d’entreprise. Vous serez chargé(e) d’évaluer l’architecture data existante, d’identifier les axes d’amélioration et de proposer une vision cible permettant d’optimiser la qualité, la structuration et la valorisation du gisement de données. Votre rôle consistera notamment à analyser les sources actuelles, proposer l’intégration de nouvelles données, améliorer les mécanismes de gouvernance et contribuer à la valorisation des données pour les usages BI, API, reporting et datamesh. Vous interviendrez également sur la mise en place, la gestion et la structuration des métadonnées pour préparer des cas d’usage orientés intelligence artificielle. En lien direct avec les équipes data, techniques et métiers, vous contribuerez aux orientations d’urbanisation du SI et à la cohérence globale de la plateforme data, tout en apportant vos recommandations pour soutenir les enjeux de scalabilité et de performance. Rythme 80% TT possible.
Freelance

Mission freelance
Senior Data Engineer

Signe +
Publiée le
Talend

6 mois
440-550 €
Vélizy Espace, Île-de-France
Contexte Dans le cadre d’un programme de transformation Data, le consultant interviendra sur la conception et l’industrialisation de pipelines de données, la structuration des plateformes Data et la collaboration avec les équipes métiers et techniques. Missions principales Conception et optimisation de pipelines ETL (Talend, SSIS, Azure Data Factory) Ingestion et traitement de données en environnement cloud (BigQuery, Cloud Storage, Dataproc) Conception de Data Warehouses, Data Marts et Data Cubes Intégration de données via API, fichiers et flux batch Participation au cadrage, data discovery et qualification Optimisation SQL, DAX, MDX Mise en place de CI/CD data Contribution à la structuration du Data Lake Compétences techniques Talend / SSIS / Azure Data Factory SQL Server (SSIS, SSAS, Reporting) SQL avancé, DAX, MDX Azure DevOps / GitLab Architectures Data modernes / Data Lake Profil recherché Senior Data Engineer confirmé Forte autonomie et capacité d’analyse Capacité à travailler en environnement international
Freelance

Mission freelance
Business Analyst Senior BI / Data IQ

Byrongroup
Publiée le
Data quality
Database
Finance

1 an
500-600 €
Paris, France
La mission s’inscrit dans le périmètre Risques (défaut, provisionnement, recouvrement) avec une forte composante réglementaire et conformité BCE. L’objectif est de sécuriser l’exécution opérationnelle des projets risques, en garantissant la qualité des processus et la fiabilité de la donnée. Le consultant agit en MOA senior avec une forte orientation delivery : il encadre le besoin métier, assure le relais fonctionnel vers l’IT, et suit les évolutions jusqu’à la validation et la mise en production. Responsabilités principales • Cadrer et analyser les besoins métiers risques (défaut, provisionnement, recouvrement). • Rédiger les spécifications fonctionnelles et suivre la mise en œuvre par la MOE. • Assister les équipes métiers lors des tests, recettes et validations fonctionnelles. • Piloter la correction d’anomalies fonctionnelles et suivre leur résolution. • Réaliser des analyses de données, requêtes et contrôles sur la BI/Data IQ centrale. • Coordonner de multiples interlocuteurs (métiers, IT, Data, conformité).
Freelance
CDI

Offre d'emploi
Expert Spark Data Engineer

R&S TELECOM
Publiée le
Apache Kafka
Apache Spark
Kubernetes

1 an
Rennes, Bretagne
Contexte de la mission : Pour un besoin interne , nous recherchons un Expert Spark Data Engineer La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence construite sur une architecture comprenant Kafka Connect, Spark, Kubernetes et MongoDB, déployée sur l’infrastructure OVH. Volumétrie cible : 350 bases de données 5 000 requêtes par seconde 1 To par an Tâches à réaliser : Analyse et état des lieux technique Préconisations d'amélioration : Amélioration Spark streaming + temps réel + dimensionnement infra Préconisations d'amélioration : Dimensionnement infra pour le streaming temps réel. Préconisations d'amélioration : Dimensionnement MongoDB & structuration de la donnée (standardisation des patterns) Document d'architecture cible & de préconisations
Freelance

Mission freelance
Data Engineer / Développeur Python Cloud

Intuition IT Solutions Ltd.
Publiée le
Python

6 mois
Toulouse, Occitanie
Mission Assurer le maintien en conditions opérationnelles des applications existantes, qu’il s’agisse de prototypes ou de solutions déjà déployées en production, en garantissant leur stabilité, performance et disponibilité. Concevoir, développer et faire évoluer des solutions de traitement de données couvrant l’ensemble de la chaîne : collecte, transformation, stockage, agrégation et restitution. Participer à la définition des besoins techniques, à la rédaction des spécifications et à la conception des architectures applicatives et data. Développer et maintenir des services, APIs et outils internes en Python, dans un environnement cloud AWS industrialisé. Mettre en place, optimiser et superviser des pipelines data fiables et robustes, en veillant à la qualité, l’intégrité et la traçabilité des données. Intervenir en support technique avancé pour analyser, diagnostiquer et résoudre les incidents ou anomalies applicatives et data. Accompagner les équipes lors des déploiements et assurer l’assistance aux utilisateurs internes. Rédiger et maintenir la documentation technique (spécifications, procédures, scripts, guides d’exploitation). Participer aux rituels Agile, au suivi des tickets, au reporting d’avancement et à l’amélioration continue des processus et outils. Garantir le respect des standards techniques, de sécurité, de qualité et de conformité propres à l’environnement industriel du client.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

1677 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous