Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 828 résultats.
Offre premium
Freelance

Mission freelance
Business Analyst expérimenté à Vannes

Deodis
Publiée le
Data Engineering
JIRA

36 ans
400-460 €
Vannes, Bretagne
Le projet vise à accompagner le Pôle Produit Risques dans la gestion d'évolutions majeures de produits, notamment dans le cadre d'enjeux réglementaires importants pour 2026. Le Business Analyst sera intégré à une des squads pour travailler en étroite collaboration avec le Product Owner et les équipes IT. Les livrables attendus incluent : Animation d'ateliers de cadrage et rédaction des compte-rendus. Formalisation des besoins utilisateurs dans la backlog Produit (rédaction de récits, organisation d'ateliers d'affinage). Réalisation d'analyses des risques métier (ARM) en lien avec les métiers et les IT. Maintien à jour de la documentation produit métier et fonctionnelle. Support aux pôles utilisateurs pour les supports de conduite du changement. Définition, maintien et application des plans de tests produits. Profil Le profil recherché est celui d'un Business Analyste expérimenté avec une bonne communication et un fort esprit d'équipe, capable de travailler sur des projets importants et challengeant en termes de délais. Les compétences et expériences requises sont : Expérience de l'agilité. Expérience de projets DATA (Puits de données, SID, modélisations et conception d'objets métiers). Expérience de projets "réglementaires" sur les domaines Financiers et Risques (Réformes Bâloises, BCBS239, IFRS9,...). Connaissances environnement DATA (ETL, langage SQL, AB Initio). Maîtrise des outils bureautiques (Excel, Powerpoint). Maîtrise de JIRA Software. Les qualités personnelles attendues sont : Rigoureux, Organisé et pragmatique. Autonome, curieux, volontaire, disponible, et forte capacité d'adaptation. Esprit collectif. Bonne communication (Clarté et synthèse). La mission se déroule à Vannes et nécessite une présence sur site a minima 3 jours par semaine (lundi, mardi et jeudi).
Offre premium
Freelance
CDI

Offre d'emploi
Data Mesh Platform Manager

EXteam
Publiée le
Data Mesh

3 ans
Levallois-Perret, Île-de-France
Objectifs et livrables Key Responsibilities Platform Build and Delivery (Core Responsibility) Responsibilities Design and implement the Self-Service Data platform architecture Define platform capabilities (data products, pipelines, governance, observability, self-service access) Define and enforce technical standards and architecture patterns Ensure scalability, performance, and security Make hands-on technical decisions and solution validation Expected Deliverables Architecture decision records (ADR) Reference architecture patterns and reusable templates Platform capability roadmap Platform technical standards Cloud Architecture and Infrastructure Responsibilities Drive the Design and operate cloud and hybrid architecture with the Group Data Architect Coordindate with the Group Data Delivery Team the implementation on Amazon Web Services and Microsoft Azure Lead the Integration of on-premise systems Lead the Implemention of automation and infrastructure as code Ensure security and compliance requirements Expected Deliverables Cloud architecture blueprint (with the help of the Group Data Architect) Security and access management framework Delivery and Execution Management Responsibilities Own platform delivery lifecycle Define backlog and prioritization process Manage releases and production deployment Track performance and reliability Manage risks and technical issues Expected Deliverables Platform roadmap (short / mid / long term) Product backlog and prioritization framework Release plan and version management process Delivery tracking dashboards Platform SLA / reliability metrics Deployment and Domain Adoption Responsibilities Deploy platform across business domains Enable domain teams to build data products Deploy Data Mesh operating model Support onboarding and adoption Resolve operational adoption challenges Expected Deliverables Domain onboarding framework and process Data product lifecycle guidelines Domain enablement playbooks Adoption and usage metrics Training materials and onboarding documentation Product Management (Usage-Driven) & Continuous improvement Responsibilities Capture user needs and platform requirements Define product vision and roadmap Measure usage and value delivery Improve developer and user experience Expected Deliverables Product vision and value proposition Platform KPIs and adoption metrics User feedback loops and improvement backlog Platform enhancement roadmap Documentation, Standardization & Governance Responsibilities Document platform capabilities and processes Ensure compliance with group Federated Computational Data Governance Expected Deliverables Platform documentation repository Technical standards and implementation guidelines Governance and compliance framework Best practice playbooks Operational Communication and Executive Reporting Responsibilities Communicate platform progress and impact Provide executive-level reporting Manage stakeholder alignment Expected Deliverables Executive Project Dashboard Platform performance dashboards Steering committee presentations Decisions, Risks and issues tracking Internal Promotion and Evangelization Responsibilities Promote platform value across the organization Support internal adoption initiatives Build platform community Expected Deliverables Internal platform communication materials Adoption strategy and rollout plan Platform demos and use case portfolio Required Experience Minimum 15 years of experience in data platform, data engineering, or architecture Proven experience building and delivering production-grade data platforms Strong experience in hands-on technical delivery and implementation Experience in platform engineering or advanced data engineering Experience in large-scale enterprise or multi-entity environments Practical experience with Data Mesh mandatory. Technical Skills Architecture & Engineering Distributed data architecture Distributed systems design Infrastructure as code DevOps / DataOps / CI/CD practices Performance and scalability engineering Cloud & Infrastructure Advanced expertise in AWS and Azure Hybrid and on-premise architectures Cloud security and governance Data Platform Data products and data lifecycle management Data pipelines and orchestration Metadata and catalog management Data governance frameworks Data observability Product & Delivery Product mindset applied to technical platforms Roadmap and backlog management Agile delivery methodologies Value-driven development Critical Soft Skills Strong technical and operational leadership Execution and delivery mindset Ability to operate hands-on in complex environments Excellent cross-functional communication Strong ownership and accountability Problem-solving and pragmatic decision-making Ability to influence without direct authority Strategic thinking with operational focus Stakeholder management at executive and operational levels Fluent English (mandatory — written and spoken) Success Metrics Platform successfully delivered and operational in production Adoption across business domain Number and quality of deployed data products Platform reliability and performance User satisfaction and platform usage Reduced time-to-market for data use cases
Freelance
CDI

Offre d'emploi
Chef de Projet Déploiement EDI / DSADV –Supply chain (F/H)

RIDCHA DATA
Publiée le
Supply Chain
Échange de données informatisé (EDI)

1 an
Île-de-France, France
Contexte du poste Dans un environnement de transformation de la Supply Chain et d’optimisation des flux d’information, vous intervenez sur un projet stratégique de déploiement EDI auprès d’un large panel de fournisseurs. Vous contribuez directement à la fiabilité des données logistiques, à la fluidité des échanges et à la performance globale de la chaîne d’approvisionnement. Vos missions Pilotage du déploiement fournisseurs Construire et piloter le plan de déploiement (plusieurs dizaines de fournisseurs) Prioriser selon les enjeux business et techniques Suivre les étapes clés : onboarding, mapping, tests, mise en production Cadrer les projets IT en mode task force Structuration projet & gouvernance Définir un RACI clair Mettre en place la gouvernance projet et les rituels de pilotage Coordonner les interactions avec les partenaires EDI Expertise technico-fonctionnelle Comprendre et challenger les mappings EDI (DESADV) Maîtriser les schémas de données logistiques Analyser les logs EDI pour identifier les anomalies Garantir le respect des standards Coordination transverse & relation fournisseurs Interface entre IT, Approvisionnement, Achats et fournisseurs Accompagner les fournisseurs selon leur maturité technique Développer une relation orientée résultats Industrialisation & Run Définir des standards de déploiement Limiter les développements spécifiques Anticiper la phase Run pour réduire la charge opérationnelle Pilotage de la performance Suivre les KPI (taux de déploiement, conformité, anomalies, tests) Produire des reportings synthétiques Assurer le suivi de la performance fournisseurs Conduite du changement Structurer les processus et standards Former les parties prenantes Promouvoir une culture orientée solution
Freelance
CDI
CDD

Offre d'emploi
Consultant Expert Process Mining

Taleo Capital
Publiée le
Big Data
UX design

6 mois
Paris, France
CONTEXTE Consulting est un cabinet de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont la Famille, le Fun et l’Excellence, et elles font partie intégrante de l’ADN de Taleo. Notre expertise financière nous permet d’apporter à nos clients les meilleures pratiques, ainsi que des solutions sur mesure et innovantes. Nous travaillons avec des banques, des sociétés de gestion d’actifs et des compagnies d’assurance. Contexte de la mission : Notre client, grand groupe du secteur financier, fait appel à un consultant expert en Process Mining pour accompagner ses équipes sur des use cases métier à fort enjeu opérationnel. Mission : Analyser, modéliser et optimiser les processus métier via des outils de Process Mining. Le consultant interviendra en autonomie ou en renfort d'équipe pour identifier les gisements d'amélioration, produire des analyses et formuler des recommandations actionnables.
Freelance

Mission freelance
Architecture Dataiku - Côtes d'Armor

Signe +
Publiée le
Amazon S3
Data governance
Data Lake

150 jours
430 €
Côtes-d'Armor, France
L’architecte Dataiku interviendra en support transverse des équipes métiers et techniques pour structurer les usages et diffuser les bonnes pratiques. Objectifs Industrialiser et structurer l’usage de Dataiku Accompagner les équipes dans l’exploitation de la donnée Définir des standards et composants réutilisables Assurer l’intégration avec l’écosystème data (S3, DBT, Data Catalog) Contribuer aux initiatives de data governance Missions principales 1. Architecture & gouvernance Définir l’architecture Dataiku et son intégration avec AWS S3 Structurer les environnements (dev / recette / prod) Mettre en place les bonnes pratiques (flows, versioning, sécurité) 2. Administration & industrialisation Administrer la plateforme (accès, configuration, monitoring) Mettre en place les processus de déploiement et de recette Créer une bibliothèque de composants réutilisables (templates, pipelines) Contribuer à la productisation des cas d’usage data 3. Accompagnement des équipes Support aux équipes métiers et techniques Aide à la prise en main de Dataiku Diffusion des bonnes pratiques et montée en compétence Accompagnement à la mise en œuvre de cas d’usage 4. Intégration data Articuler Dataiku avec : DBT (silver → gold) outils de data quality (ex : Elementary) Data Catalog Assurer la traçabilité et la documentation des données 5. Data governance Support au déploiement du data catalog Contribution à l’alimentation des métadonnées Appui aux data owners et aux processus de gouvernance Contribution possible sur ingestion / contrôle des données
Offre premium
Freelance

Mission freelance
Senior Data Engineer / Tech Lead Data

WERIN GROUP DIGITAL
Publiée le
DBT
Snowflake
SQL

3 mois
500-600 €
La Défense, Île-de-France
Contexte : Notre client dans le secteur Public et du Logement, filiale d’un grand groupe avec 925 collaborateurs agit chaque jour pour faciliter l’accès au logement des jeunes actifs et salariés de la classe moyenne. Il a souhaite agir et innover et a pour ambition de développer l’offre de logements à prix maîtrisé en Ile-de-France. C'est un des leader du logement à prix maîtrisé en Ile-de-France. La mission : Dans le cadre d’un projet de refonte de notre SI Data, ils recherchent actuellement un profil expérimenté de type Senior Data Engineer ou Tech Lead Data afin de les accompagner sur la mise en place et l’évolution de leur nouvelle plateforme data. Le projet s’appuie notamment sur des technologies modernes telles que Snowflake et Dbt .
Freelance

Mission freelance
AMOA Data Gouvernance

SMARTPOINT
Publiée le
KPI

1 an
Saint-Denis, Île-de-France
Mettre en place une organisation autour de la gestion de la donnée pour en garantir la qualité et sa bonne valorisation tout en suivant les règles de l’art en termes de data gouvernance (organisationnelle, technique, juridique etc) et d’application de la politique du Groupe sur ce périmètre. Le responsable doit comprendre les enjeux métier des données ainsi que les contraintes opérationnelles autour de ce domaine afin de déployer cette organisation chez DRC. Description détaillée des tâches qui constituent la mission: Le Responsable « Data Gouvernance » intervient plus spécifiquement sur trois missions principales : Définition d’une stratégie de gouvernance de la donnée: a. Réalisation d’un état des lieux b. Identification et catégorisation des différents périmètres de données à adresser c. Priorisation des actions à mener d. Définition d’une organisation et outils nécessaires à une gouvernance optimale des données e. Garantir la bonne sécurisation des données f. Garantir la bonne application de la politique Data SNCF pour DRC g. Garantir la conformité juridique de nos données Garantir la qualité des données: a. Mise en place de l’organisation, outils et KPI de suivi issus de la stratégie afin de garantir la qualité de la donnée b. Suivre opérationnellement les indicateurs de qualité de la donnée et mettre en place des actions de correction des données si besoin Valorisation de la donnée: a. Être le point d’entrée des métiers DRC (offres, exploitations, relations clients etc) pour répondre à des besoins via l’exploitations de la donnée b. Réalisation d ‘étude ad hoc en fonction des besoins métiers c. Etre force de proposition pour valoriser nos données via de nouvelles pratiques ou outils d. Préparer nos bases de données pour l’intégration de cas d’usage nécessitant des IA génératives
Freelance

Mission freelance
Data Analyst – Data Quality / Gouvernance / Dataflows

CHOURAK CONSULTING
Publiée le
Apache Kafka
Dremio
ETL (Extract-transform-load)

3 mois
400-500 €
Île-de-France, France
Nous recherchons un Data Analyst pour intervenir sur un projet de rationalisation et optimisation des flux de données au sein d’un environnement Data structuré. 🎯 Contexte de la mission La mission vise à améliorer la qualité, la cohérence et la gouvernance des données , en simplifiant les structures existantes et en réduisant les redondances. Vous interviendrez sur l’analyse des dataflows transactionnels , des objets de données et de leur utilisation afin d’optimiser les échanges entre systèmes IT et métiers. ⚙️ Missions principales Analyser les flux de données , leur structure et leur utilisation. Identifier les données redondantes, incohérentes ou inutilisées . Proposer des optimisations et simplifications des dataflows. Mettre en place des indicateurs de qualité des données . Contribuer à la définition du cadre de gouvernance Data (règles, rôles, usages). Documenter les modèles de données, règles métiers et cas d’usage. Accompagner les équipes métiers dans l’exploitation des données. Participer aux routines de gouvernance et qualité Data . 📦 Livrables attendus Analyses détaillées des jeux de données transactionnels Identification des anomalies et recommandations d’optimisation Documentation des modèles de données et dataflows Mise en place de contrôles de qualité des données Support aux équipes métiers pour la mise en œuvre des améliorations 🛠 Compétences techniques Python (obligatoire) SQL (excellent niveau) Outils Data : Dremio, Strategy, Kafka (apprécié) Concepts ETL / traitement de données Modélisation de données (entités, attributs, UML) Expérience en migration / validation de données (plus)
Freelance

Mission freelance
Luxembourg - Expert Big Data Cloudera CDP (H/F)

FUZYO FRANCE
Publiée le
Big Data
Cloudera

1 an
400-550 €
Luxembourg
Dans le cadre d’un projet stratégique pour notre client, nous recherchons un Expert Cloudera CDP pour intervenir sur une plateforme Big Data à forte volumétrie. Missions principales Administrer et maintenir la plateforme Cloudera CDP 7.x Assurer le bon fonctionnement des composants Big Data (stockage, traitement, flux) Mettre en place et optimiser les pipelines de données Gérer la sécurité et la gouvernance des données Participer à l’automatisation des déploiements et des configurations Diagnostiquer et résoudre les incidents techniques (troubleshooting) Contribuer à l’amélioration continue de la plateforme Environnement technique Cloudera CDP 7.x HDFS, YARN Hive, Impala Spark Kafka NiFi Ranger, Atlas Apache Iceberg Sécurité Kerberos Chiffrement des données (TDE, Key Trustee) Gestion des accès via Ranger DevOps / Automatisation Terraform Ansible GitLab CI/CD
Freelance

Mission freelance
Consultant Data gouvernance

UCASE CONSULTING
Publiée le
DataGalaxy
SQL

3 ans
550-580 €
Paris, France
Vous intégrerez l’équipe du Data Office au sein de la DSI Groupe. Dans le cadre de la mise en marche de notre feuille de route Data à horizon 2030, nous recherchons un(e) consultant Data gouvernance. Vous serez en charge de créer et animer Une communauté data dynamique, valoriser et partager les connaissances autour de la data, tout en pilotant la stratégie et le développement de la Data Platform (plateforme technique) pour répondre aux enjeux métiers et stratégiques du groupe. Missions principales : 1. Structurer et animer la communauté data - Définir un plan de communication, favoriser les échanges, organiser des webinaires et des ateliers de sensibilisation. - Recenser et valoriser les initiatives data des filiales dans une démarche collaborative. 2. Développer la plateforme de knowledge management - Concevoir, produire et assurer la mise à jour d’une plateforme de documentation et d’échange sur la data. - Produire supports, guides, fiches techniques pour faciliter l’alimentation et l’utilisation de la plateforme. 3. Accompagner l’acculturation et la montée en compétences - Création et déploiement d’un parcours de formation data. - Piloter le déploiement de l'autodiagnostique de maturité Data. - Produire des supports d’acculturation pour sensibiliser le CoDir et les équipes. 4. Piloter la Data Platform en tant que Product Owner - Recueillir les besoins métiers, construire la roadmap et prioriser les évolutions. - Collaborer avec les équipes techniques pour la réalisation et l’implémentation des fonctionnalités. - Veiller à l’adoption et à l’usage opérationnel de la plateforme technique.
Freelance

Mission freelance
Data Engineer Python / Big Data

STHREE SAS
Publiée le
Big Data
Data Engineering
PySpark

6 mois
Paris, France
Notre client est un acteur majeur du secteur bancaire, reconnu pour sa capacité d’innovation et sa transformation digitale. Dans le cadre du renforcement de ses équipes Data au sein des Risques de Marché , nous recherchons un(e) Data Engineer Python / Big Data . Intégré(e) à une équipe Agile, vous interviendrez sur des projets stratégiques liés aux calculs réglementaires et à la transformation des plateformes data vers des architectures temps réel. Vos responsabilités : Concevoir et développer des pipelines de données performants (Python, PySpark) Participer à l’ évolution du Data Warehouse Optimiser les flux de données et améliorer les performances de traitement Mettre en place des solutions de monitoring et d’alerting temps réel Développer des dashboards de suivi (Power BI, Elasticsearch) Garantir la qualité, la fiabilité et la traçabilité des données Participer à l’industrialisation des traitements (CI/CD, automatisation) Collaborer avec les équipes métiers (risques, finance) Environnement technique Langages : Python, SQL Big Data : PySpark, Kafka Cloud : GCP (BigQuery) Orchestration : Airflow, DBT DevOps : Docker, Jenkins, Terraform / Terragrunt, CI/CD BI / Monitoring : Power BI, Elasticsearch Outils : Git, Linux Méthodologie : Agile / Scrum
Freelance

Mission freelance
Business Analyst DATA / AMOA (senior)

Hexagone Digitale
Publiée le
Big Data
Business Analysis
Cloudera

6 mois
500-670 €
Levallois-Perret, Île-de-France
CONTEXTE Dans le cadre de Solutions Data, une équipe Conseil et Valorisation Data recherche un renfort senior immédiat. Le périmètre couvre l'accompagnement des directions métiers dans leurs usages de la donnée, sur un environnement décisionnel SAS et une plateforme Big Data Cloudera. Le profil intervient en proximité des métiers, depuis le cadrage jusqu'à la recette fonctionnelle, avec une forte dimension conseil et une exigence de qualité, de délai et d'engagement. RÔLE ET RESPONSABILITÉS PRINCIPALES Recueillir et analyser les besoins des directions métiers Apporter conseil aux métiers sur l'exploitation et la valorisation de la donnée Participer au cadrage des projets Data : études d'impact et de faisabilité Contribuer aux études d'opportunité sur le volet Data Garantir la cohérence fonctionnelle et technique du SI Réaliser les recettes fonctionnelles, qualifier les anomalies et suivre les corrections Assurer le support et l'assistance métier sur les usages Data – Maintenir à jour la base documentaire du patrimoine LIVRABLES ATTENDUS Modélisations de données Spécifications Fonctionnelles Générales (SFG) Spécifications Fonctionnelles Détaillées (SFD) Rapports de recette fonctionnelle et suivi des anomalies Documentation du patrimoine applicatif et fonctionnel
Freelance

Mission freelance
Data Engineer Teradata, bases Hive, Phoenix, HDFS, API Springboot VANNES

WorldWide People
Publiée le
Data Engineering

12 mois
Vannes, Bretagne
Data Engineer Teradata, bases Hive, Phoenix, HDFS, API Springboot VANNES Profil : • Expertise Forte sur ces technos avec une très bonne communication avec une expérience significative sur les technologies Cloudera. • La mission se déroule sur le site de Vannes et nécessitera d’être présent à minima 3 jours par semaine sur le site (dont les Mardi et Jeudi) Prestation : • Assure le développement et l’intégration des évolutions sur le périmètre des solutions de la Squad • Prépare, réalise la mise en production avec les équipes expertes; assure le SAV • Gère et maintient la documentation fonctionnelle et technique • Contribue à l’assistance à l’utilisation des solutions • Contribue aux séances d'affinage technique en phase de conception • Réalise une veille technologique régulière pour être au fait des dernières tendances • Contribue à alimenter le contenu du backlog pour prévoir les développements futurs • Analyse du patrimoine existant Le besoin est d'accompagner la squad dans un contexte de développement et de maintenance de solutions Data (Teradata, bases Hive, Phoenix, HDFS) et d'API Springboot. Profil : • Expertise Forte sur ces technos avec une très bonne communication avec une expérience significative sur les technologies Cloudera. • La mission se déroule sur le site de Vannes et nécessitera d’être présent à minima 3 jours par semaine sur le site (dont les Mardi et Jeudi)
Freelance
CDI

Offre d'emploi
Chef de projet data

VISIAN
Publiée le
Big Data
Snowflake

1 an
Île-de-France, France
Contexte Dans le cadre de la structuration de ses plateformes data, la direction souhaite lancer un audit transverse de ses environnements de type lakehouse (notamment Microsoft Fabric, Snowflake, etc.). L’objectif est d’évaluer l’existant, d’identifier les axes d’amélioration et de définir une trajectoire cible. Missions Piloter un audit global des plateformes data de type lakehouse Cartographier les usages, architectures et flux de données existants Analyser les environnements technologiques (ex : Microsoft Fabric, Snowflake) Évaluer la performance, la gouvernance et les coûts associés Identifier les risques (sécurité, qualité de données, dépendances techniques) Recueillir les besoins métiers et les cas d’usage associés Formuler des recommandations stratégiques (architecture cible, bonnes pratiques, rationalisation des outils) Définir une roadmap de transformation data
CDI

Offre d'emploi
Senior Data Engineer

NETSEC DESIGN
Publiée le
Data Engineering

Casablanca, Casablanca-Settat, Maroc
On recherche pour notre client final un Senior Data Engineer pour construire une data platform temps réel sur un écosystème paiement à très forte volumétrie. Architecture event-driven, streaming, CDC, ledger-grade reliability exigée. Impact direct sur la fraude, le pilotage financier et les systèmes transactionnels critiques. Mission réservée aux profils senior, production-grade, capables d'architecture et d'exécution sans supervision. Architecte DATA Architecture event-driven, streaming, CDC, ledger-grade reliability
Freelance
CDI

Offre d'emploi
Consultant.e Data Gouvernance / Anglais requis

Octopus Group
Publiée le
Data governance
Data quality

6 mois
40k-45k €
400-600 €
Île-de-France, France
Octopus Group , ESN de 100 collaborateurs est à la recherche d'un.e consultant.e Data gouvernance Dans le cadre d’un partenariat stratégique, nous accompagnons un acteur majeur du secteur du Luxe dans la structuration et la valorisation de ses actifs data à l’échelle groupe. Dans un environnement exigeant, international et orienté excellence, nous recherchons un(e) Consultant.e Data Gouvernance pour contribuer à la mise en place et à l’industrialisation des pratiques de gouvernance des données. avec un minimim de 3 ans d'expérience
1828 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous