Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 567 résultats.
Freelance

Mission freelance
Data Engineer

Publiée le
Big Data
IA
Java

3 ans
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tester différents LLM peu importe le provider (aws, gcp, azure) Préparer les jeux de données Définir les conditions de succès et d’échec et paramétre les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendu Faire des développements su les produits de la squaq (Java / Python) L'équipe a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. La squad souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment).
Freelance
CDI

Offre d'emploi
Dataiku Data Engineer

Publiée le
Databricks
Dataiku
ETL (Extract-transform-load)

8 mois
40k-59k €
400-570 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Attention, 2 jours de présence sur site non consécutifs à Bruxelles OBLIGATOIRE. Dans le cadre de son architecture cible, ENGIE M&S Belgium a mis en place les plateformes Databricks et Dataiku sur AWS et a lancé des projets de migration pour différents cas d’usage (SAS, AWS Sagemaker, BW/HANA, etc.). Nous recherchons un(e) Expert(e) Dataiku pour rejoindre une équipe projet chargée de reconstruire les fonctionnalités de programmes SAS, dont les résultats sont utilisés par les équipes Finance et Reporting Réglementaire. L’objectif est de combiner l’utilisation de Databricks (stockage/calcul) et de Dataiku (transformation de données), en privilégiant autant que possible les recettes visuelles de Dataiku.
CDI

Offre d'emploi
Data Engineer Python/DBT

Publiée le
Databricks

45k-50k €
Occitanie, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Développeur CRM Salesforce Marketing Cloud

Publiée le
Data Lake
Salesforce Sales Cloud

1 an
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Recherche – Développeur CRM Salesforce Marketing Cloud (Nantes | 2 à 3 jours/semaine) Dans le cadre d’une consultation sur le contrat-cadre AST & Digital , nous recherchons un Développeur CRM Salesforce Marketing Cloud (expérimenté ou senior). 📅 Démarrage prévu : 4 décembre 2025 ⏱️ Rythme : mi-temps (2 à 3 jours par semaine) 📍 Présence sur site : lundi, mardi et jeudi 🎯 Missions principales Développer, maintenir et intégrer des solutions Salesforce Marketing Cloud : Emails, Push, Journey Builder, Automations, Datorama. Créer et personnaliser des parcours clients et des contenus dynamiques (HTML, AMPscript, responsive design, gestion de Data Extensions, Interactive Email Form). Implémenter des API et SDK SFMC sur applications mobiles natives, gérer la synchronisation CRM/Datalake et les processus automatisés RGPD . Assurer la gestion opérationnelle , les releases , le monitoring et l’ optimisation des performances (tracking, délivrabilité, réputation IP). Apporter support et conseil aux équipes métiers et digitales, dans un environnement agile et collaboratif.
Freelance

Mission freelance
Data Engineering Manager – Data Platform & Transformation H/F

Publiée le
Azure
Snowflake

6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Engineering Manager – Data Platform & Transformation H/F Description de la mission: L’entreprise accélère sa transformation Data & IA et structure son organisation Data autour d’un modèle opérationnel à deux squads : Data Product Squad (orientée métier et création de valeur) Data Engineering Squad (mise à disposition de la plateforme, exploitation et enablement) L’entreprise recherche un(e) Data Engineering Manager expérimenté(e) pour piloter la Data Engineering Squad durant une phase de transition critique. La mission couvre trois objectifs menés en parallèle : Lancer et structurer la future plateforme Data cible , dont le socle technologique est en cours de validation et devrait s’appuyer sur Databricks ou Snowflake sur Microsoft Azure Migrer progressivement les environnements data historiques vers la nouvelle plateforme Assurer la livraison des projets métiers et clients en cours , à la fois sur les stacks existantes et sur la nouvelle plateforme, sans perturber les opérations Ce rôle requiert un fort leadership et une excellente capacité d’exécution . Responsabilités principales Piloter et manager la Data Engineering Squad (équipes internes et partenaires externes) Être responsable de la delivery , de la capacité et de la performance opérationnelle sur les plateformes legacy et cible Garantir la fiabilité , la performance , la scalabilité et l’ optimisation des coûts Structurer et piloter le bootstrap de la plateforme Data cible Planifier et exécuter la migration progressive des stacks legacy vers la plateforme cible Sécuriser la livraison des projets métiers et clients en cours sur les deux environnements Définir et faire respecter les standards Data Engineering et les modes de fonctionnement Agir comme point de contact principal avec les équipes Data Product, Architecture et IT Accompagner et faire monter en compétence les équipes Data locales sur les stacks technologiques Data Compétences & Expérience requises Expérience avérée en tant que Data Engineering Manager / Lead dans des environnements complexes et en transformation Solide expertise en plateformes Data et en Data Engineering Expérience confirmée avec Databricks et/ou Snowflake , idéalement sur Azure Expérience du management d’équipes mixtes (internes, consultants, offshore / AMS) Bonne maîtrise des enjeux de run , de gestion des incidents et de pilotage des coûts Expérience de migration de plateformes legacy vers une plateforme cible Excellentes capacités de leadership et de gestion des parties prenantes Profil senior requis (autonome, pragmatique, orienté delivery) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Freelance

Mission freelance
Chef de projet technique - IaaS et Data

Publiée le
IaaS (Infrastructure-as-a-Service)

12 mois
660 €
Yvelines, France
Télétravail partiel
Notre client, un établissement financier majeur, recherche un CP IaaS et Data pour renforcer son équipe Cette mission est au sein du centre d’expertise pour l’infrastructure, le cloud, la donnée, l’IA et le DevOps. Il accompagne les projets de transformation numérique, garantit la performance, la sécurité et l’innovation, et propose des solutions adaptées aux besoins métiers et applicatifs. La mission consiste à piloter des projets dans le cadre de création d’offre produit, de traitement d’obsolescence ou de mise en conformité (réglementaire, sécurité, amélioration de QoS). - Piloter des projets sur le périmètre IaaS et DATA - Définir les solutions cibles, en collaboration avec les experts, et en lien avec les besoins utilisateurs -Coordonner l’ensemble des parties prenantes -Structurer et animer la gouvernance des projets -Etablir les plans d’investissements et le suivi financier des projets, en lien avec le Contrôle de Gestion - Gérer les risques projets Livrables - Rédaction des notes de cadrage ; présentation aux parties prenantes (sponsors, Chief Platform Officer, PM, PO) et aux différents comités - Animation des comités de suivi - Suivi opérationnel de l’avancement des projets (respect des délais, des jalons …) - Suivi des risques et des plans d’actions associés - Suivi rigoureux des budgets alloués - Garant de la livraison de tous les documents conformément à la méthodologie Projets Environnement technique Cloud Infrastructures (VMWare, OpenStack, Openshift), OS Factory (Windows, Linux, Unix), Containers (Docker, Kubernetes), plateformes Data (Cloudera, MAPR, Data Cloud GCP, …), Data Storage (bloc, fichier, objet)
CDI

Offre d'emploi
Data Engineer – Intégration & Cloud (GCP / BigQuery / Talend)

Publiée le
API REST
BigQuery
Microsoft Power BI

40k-45k €
Paris, France
Nous recherchons un Data Engineer pour intervenir sur un projet stratégique d’intégration et de valorisation de données au sein d’un environnement Cloud moderne. Le consultant interviendra sur la création, l’optimisation et la maintenance de pipelines data entre plusieurs plateformes internes, avec un fort niveau d’autonomie technique. Concevoir, développer et maintenir des flux de données entre différentes sources (API REST, Cloud, bases SQL). Mettre en place des traitements d’ingestion, transformation, normalisation et contrôle qualité des données. Développer et optimiser des pipelines dans GCP / BigQuery . Construire et maintenir des jobs Talend pour l’intégration et l’automatisation des traitements. Automatiser et industrialiser les workflows via des scripts Shell / Bash . Contribuer à la création et à l’optimisation de dashboards Power BI (KPI, dataviz). Garantir la qualité, la performance et la conformité des données. Documenter les flux, rédiger les spécifications et collaborer avec les équipes métiers et techniques. Versionner les développements via GitLab et respecter les bonnes pratiques CI/CD.
Freelance

Mission freelance
Urbaniste Data & IA

Publiée le
Databricks
Large Language Model (LLM)
Python

1 an
500-600 €
Île-de-France, France
Télétravail partiel
Pour un client dans le secteur d’activité bancaire qui accélère sa transformation data et IA pour renforcer son offre client, optimiser ses processus et innover dans un secteur en pleine mutation. Au sein du Data Office, nous recherchons un·e Urbaniste Data & IA confirmé·e pour concevoir et piloter l’architecture cible de nos plateformes data, en alignement avec notre stratégie groupe et les enjeux réglementaires (RGPD, IA Act, BCBS 239). Votre rôle sera clé : garantir la cohérence technique et fonctionnelle de nos schémas directeurs data, tout en intégrant les dernières innovations technologiques (cloud, Snowflake, IA générative) et en assurant la confidentialité et la sécurité des données clients. Vous contribuerez directement à la modernisation de notre SI, en lien étroit avec les métiers et les équipes IT. Missions principales 1 - Architecture et urbanisation data - Piloter la roadmap technique des plateformes data (on-premise, cloud, hybride) en collaboration avec les équipes IT et métiers. - Concevoir et déployer des schémas directeurs data pour la transformation de la banque, en intégrant les contraintes de scalabilité, sécurité et conformité (chiffrement, anonymisation, traçabilité). - Optimiser l’utilisation de Snowflake et des solutions cloud (AWS/GCP/Azure) pour des cas d’usage bancaires critiques (personnalisation client, lutte contre la fraude, reporting réglementaire). - Assurer l’interopérabilité entre les systèmes legacy et les nouvelles briques technologiques (APIs, microservices, Data Mesh). 2 - Stratégie Data & IA - Contribuer à la feuille de route IA de la banque : identifier les opportunités d’IA générative (chatbots, analyse prédictive, automatisation des processus) et encadrer leur déploiement de manière éthique et -sécurisée. - Accompagner les métiers dans la définition de cas d’usage data/IA prioritaires (ex : scoring crédit, recommandation produit, détection des anomalies). - Veiller au respect des bonnes pratiques en matière de gouvernance des données, qualité, et confidentialité, en conformité avec les réglementations bancaires. 3 - Collaboration et influence - Fédérer les parties prenantes (DSI, risques, conformité, métiers) autour des enjeux d’urbanisation et de modernisation des plateformes. - Former et sensibiliser les équipes aux enjeux de confidentialité des données et d’usage responsable de l’IA. - Assurer une veille active sur les tendances technologiques (FinOps, MLOps, Data Fabric) et proposer des solutions adaptées au secteur bancaire.
Freelance

Mission freelance
POT8816 - Un Data Engineer sur Clermont-ferrand

Publiée le
Google Cloud Platform (GCP)

6 mois
320-410 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif)
Freelance

Mission freelance
DATA ARCHITECT (GCP)

Publiée le
Apache Airflow
BigQuery
CI/CD

6 mois
580-720 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de sa Data Platform , l’un de nos clients grands comptes recherche un Architecte Data confirmé à senior pour accompagner ses équipes Data et garantir la cohérence, la performance et la scalabilité de l’architecture globale. Architecte Data – Environnement Cloud GCP Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists…), vous interviendrez en accompagnement transverse sur l’architecture de la plateforme Data et des dispositifs associés. Vos principales responsabilités : Définir et garantir la cohérence de la stack technique Data Assurer le respect des normes et standards d’architecture Mettre en place et sécuriser les contrats d’interface entre équipes Auditer l’architecture existante et proposer des axes d’amélioration Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions Participer aux tests et à l’intégration de nouvelles technologies 🛠️ Developer Experience & FinOps Contribution à l’écriture de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et la CI/CD Définition des standards de développement et de déploiement Mise en place du suivi budgétaire par équipe (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification et priorisation des optimisations de coûts Compétences recherchées 3 ans minimum d’expérience en tant qu’ Architecte Data Solide expertise en architecture Data & Cloud Excellente maîtrise des bonnes pratiques d’architecture Expérience en sécurisation des applications Cloud Environnement Google Cloud Platform (GCP) Maîtrise de BigQuery , Cloud Composer (Airflow) , Dataplex Langages Python et SQL Expérience avec Spark Expérience avec dbt Maîtrise de Terraform et Terragrunt
Freelance
CDI

Offre d'emploi
Cloud OPS Engineer - H/F

Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)

3 ans
50k-55k €
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Data . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu. Contexte de la mission : Vous rejoindrez une équipe "Workspace" d'envergure internationale, dédiée à la transformation digitale de l'expérience utilisateur pour plus de 2000 sites physiques à travers le monde. L'objectif est d'accompagner l'évolution des solutions IT sur quatre périmètres majeurs : l'End User Computing, l'Authentification, la Green Tech et les outils de collaboration. Descriptif de la mission : Au sein de ce pôle technologique, vos missions principales seront : Gestion du Run N3 : Assurer le support de niveau 3 (environ une semaine par mois) pour traiter les incidents complexes et les demandes de services (SR). Support & Conseil Cloud : Accompagner et conseiller les utilisateurs dans leurs actions sur les environnements Cloud (AWS/GCP). Amélioration Continue : Être force de proposition sur l’automatisation et l’industrialisation des processus du support Cloud. Lien N3/N4 : Assurer l'interface technique entre le support opérationnel et les équipes d'ingénierie (N4) ainsi que les Product Owners. Projets & Build : Participer activement aux projets Cloud (outillages, développements, déploiements) et garantir leur bon déroulement technique. Documentation : Créer et maintenir la documentation technique liée au Run et au Build.
CDI

Offre d'emploi
Tech Lead Cloud AWS - H/F

Publiée le
Cloud

50k-55k €
31000, Toulouse, Occitanie
Télétravail partiel
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Tech Lead Cloud AWS pour l'un de nos clients du secteur aéronautique. Vous interviendrez sur le site client situé à Toulouse (31). À ce titre, vos missions quotidiennes seront les suivantes : - Analyser le contexte technique, les besoins utilisateurs et les contraintes des équipes IA, Data et RPA ; - Définir le modèle cible de la plateforme Boost IT (architecture, sécurité, outillage, CI/CD, environnements, interfaces SEP IT) ; - Concevoir les architectures Cloud AWS en conformité avec les standards industriels et les référentiels SEP IT ; - Implémenter un MVP opérationnel de la plateforme, incluant les premiers environnements Cloud ; - Mettre en place des chaînes CI/CD automatisées basées sur GitLab CI, Jenkins et des pratiques DevOps avancées ; - Déployer des projets pilotes représentatifs (use cases IA, Data, ML Ops, RPA) pour valider la plateforme ; - Documenter l'architecture cible, la roadmap de déploiement, les procédures de RUN et les processus d'onboarding ; - Industrialiser les environnements Cloud via Infrastructure as Code (Terraform, CloudFormation) et outils d'automatisation ; - Accompagner la montée en compétences des équipes internes via ateliers, formations et partage de bonnes pratiques ; - Garantir la conformité, la sécurité et la pérennité de la plateforme dans un contexte industriel exigeant. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

Publiée le
BI

24 mois
250-500 €
Paris, France
Télétravail partiel
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Freelance

Mission freelance
Directeur DATA

Publiée le
SQL

3 mois
Yvelines, France
Télétravail partiel
Pour le compte de l'un de nos clients, nous recherchons un(e) consultant(e) SAP BI. Besoin : En collaboration avec le Chef de Projet métier, vous piloterez le suivi du chantier Data Analytics dans le cadre de la reprise des queries et codes spécifiques pour le reporting dans S4 ou sur la Data Platform (AWS). Le profil sélectionné assurera la planification et le suivi des phases clés du projet (Réalisation, Tests métier, Go-live), coordonnera les équipes concernées (IS pour S4, Digital Factory pour la Data Platform, Domain Leader/Data Manager pour les tests), et préparera les comités projet hebdomadaires pour présenter l’avancement du stream Data Analytics.
Freelance

Mission freelance
Technico-Fonctionnel / Scientific Data Engineering - Expert DataOps - R&D

Publiée le
AWS Cloud

6 mois
100-450 €
Île-de-France, France
Télétravail partiel
Objectifs de la mission : Le Lab recherche un Ingénieur de Recherche DataOps capable de concevoir et enrichir une infrastructure de données permettant des études scientifiques sur la cognition des voyageurs. Enjeux et rôle du consultant - Traduire les besoins théoriques des chercheurs en pipelines de données robustes et architectures cloud performantes (AWS). - Garantir l’intégrité scientifique des traitements : gestion des biais statistiques, fiabilité des séries temporelles, reproductibilité. - Concevoir des environnements d’expérimentation Cloud fiables, orientés production de résultats scientifiques. - Documenter et structurer les travaux pour assurer leur pérennité. - Agir comme le bras technique du Lab dans un contexte de recherche. Environnement & contexte : R&D agile manipulant des volumes de données massifs et hétérogènes. Stack : AWS, Python (Scientific Stack), conteneurisation. Interaction clé avec l’IT Groupe pour favoriser le portage et l’exploitation des données dans d’autres projets. Livrables : Instrumentation des données pour la recherche (Scientific Data Engineering) Architecture Cloud pour l'expérimentation (Scientific Ops) Formalisation technique et Support à la valorisation Obligatoire : Thèse de doctorat (Data, ML ou Mathématiques Appliquées) garantissant sa capacité à dialoguer avec des chercheurs, couplée à une expérience opérationnelle forte en Ingénierie logicielle/Cloud. Expériences entre 7 et 9 années.
CDI

Offre d'emploi
Développeur Data/Data Engineer

Publiée le
AWS Cloud
Azure
Azure Data Factory

40k-65k €
Gosselies, Hainaut, Belgique
Télétravail partiel
ATTENTION, 2 JOURS DE PRESENCE SUR SITE A GOSSELIE NON NEGOCIABLE. Ne pas postuler le cas échéant. Le consultant rejoindra l’équipe Factory Data , spécialisée dans les technologies Microsoft Fabric et Azure Data . La mission s’inscrit dans le cadre de la mise en place et l’optimisation des flux de données, la modélisation du Lake House et l’architecture médaillon (Silver & Gold). Responsabilités Développer les flux d’ingestion via Fabric Data Factory (et compréhension d’Azure Data Factory). Développer les flux de transformation via Fabric Factory Notebook . Optimiser les requêtes de transformation en tenant compte des coûts Azure. Contribuer à la modélisation du Lake House et à l’architecture médaillon. Établir le design technique et rédiger la documentation. Mettre en place et exécuter les tests unitaires automatisables . Participer à l’estimation des efforts de développement. Contribuer à la maintenance et résolution des incidents en production. Participer à l’amélioration continue (guidelines de développement).
567 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous