Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 099 résultats.
Freelance
CDI

Offre d'emploi
Offre de mission Tech Lead Data sur Maison Alfort

EterniTech
Publiée le
API REST
IA
IBM DataStage

3 ans
Maisons-Alfort, Île-de-France
Je cherche pour un de mes clients un Tech Lead Data Contexte de la Mission On recherche un Tech Lead Data qui soit le Lead des développeurs de l'équipe avec la volonté de tirer l'équipe vers des nouvelles pratiques et technologies (Evènementiel, APIsation, Java, Spark etc). Son expertise dans ces outils doit amener à des nouvelles pratiques. Il doit être proactif et capable d'aller échanger aves ses pairs d'autres équipes Data et doit être curieux des nouvelles pratiques et nouveaux outils de marché. Compétences métier • Maitrise des modélisations décisionnelles • Utilisation de l'évènementiel • Développement d’API • Pratique et expertise dans la pratique de sujets liés à la Data Liste des technologies • Power Designer • API Rest en Java • Kafka • Spark • Excellente maitrise du SQL (Oracle & PostgreSQL) • Connaissances solides de l’outil IBM Datastage serait un vrai plus • L'usage de l'IA est obligatoire
Freelance

Mission freelance
Expert Qlik Sense & Power BI (H/F)

Karma Partners
Publiée le
Microsoft Power BI
Qlik Sense

6 mois
Île-de-France, France
Dans le cadre du remplacement d’un consultant, nous recherchons un(e) Consultant(e) BI Senior disposant d’une double compétence technique sur Qlik Sense On-Premise et Power BI . La mission s’inscrit dans un contexte de maintien en conditions opérationnelles d’un environnement décisionnel existant ainsi que dans la préparation progressive de sa transition vers Power BI. Missions principales Assurer le MCO (Maintien en Conditions Opérationnelles) des applications Qlik existantes Intervenir en support et accompagnement des équipes métiers, notamment les équipes liées aux activités industrielles / usines Participer à l’analyse et au traitement des données via les QVD Qlik Contribuer à la préparation et à la migration des usages vers Power BI Garantir la qualité, la performance et la fiabilité des reportings et dashboards Participer aux échanges techniques avec des interlocuteurs internationaux
CDI
Freelance

Offre d'emploi
Architecte d'Intégration

VISIAN
Publiée le
API
Architecture
Data management

1 an
Paris, France
Contexte La mission consiste à concevoir et implémenter l’architecture d’intégration globale pour assurer la connectivité de manière cohérente entre les différentes solutions de l’écosystème (ERP, CRM, Data platform...). Cela passe par la définition et mise en œuvre de standards d’échange et le pilotage de la stratégie de flux, tout en garantissant l’agilité de l’écosystème lors des déploiements internationaux et des migrations pays. Missions Définition de la stratégie d'intégration s'appuyant sur un principe de couplages faibles et contrats d'interface forts Choix et mise en place des briques d'intégration Orchestration des flux métier Observabilité des flux Standardisation des APIs si nécessaire Mise en place de pratiques et outils AI-Driven Integration (automatiser des mappings de données, détection d'erreurs de flux...) Supervision et support lors des intégrations et migrations pays
Freelance

Mission freelance
Ingénieur Data à Niort (3 jours sur site)

NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)

24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
CDI

Offre d'emploi
Consultant Senior Data Catalog Collibra (H/F)

ASTRELYA
Publiée le
Collibra
Data governance
IA

92800, Puteaux, Île-de-France
Votre mission : En tant que Consultant Data Catalog spécialisé Collibra, vous accompagnerez nos clients dans la structuration, l’opérationnalisation et la gouvernance de leur Data Catalog. Vous interviendrez sur des projets stratégiques visant à renforcer la maîtrise, la qualité et la valorisation des données, en vous appuyant sur les capacités avancées de Collibra Data Intelligence Platform. Votre rôle sera clé pour aider les organisations à déployer un Data Catalog robuste, gouverné, adopté et aligné avec les enjeux Data & IA Concrètement, vous allez : 1. Structurer & Opérationnaliser le Data Catalog · Définir la stratégie Data Catalog et accompagner les clients dans leur transformation Data Governance. · Paramétrer Collibra : communautés, domaines, rôles, workflows, policies, règles de qualité, operating model. · Concevoir et adapter le métamodèle Collibra : Data Domains, Data Sets, Data Elements, Data Owners, Stewards, modèles IA, indicateurs de qualité… · Mettre en place les connecteurs d’ingestion (Collibra Connect, Collibra Data Quality, ingestion automatisée). · Modéliser les objets métiers et assurer leur documentation dans Collibra. · Déployer les workflows de gouvernance (validation, certification, demandes d’accès, gestion des changements). 2. Assurer la valorisation & l’adoption du Data Catalog · Définir et déployer les cadres de Data & AI Governance. · Structurer les Data Domains, Data Objects, Data Contracts, glossaires métier et usages IA. · Accompagner les Data Owners, Stewards et équipes IT dans la prise en main de Collibra. · Concevoir des parcours d’acculturation : formations, vidéos, kits, communautés Data, webinaires. · Promouvoir les bonnes pratiques d’usage et faire évoluer la culture Data. Votre futur environnement de travail : · Data Catalog : Collibra (Data Governance, Data Quality, Lineage, Workflow, Operating Model). · Outils de documentation & IA Responsable : Model Cards, risk matrices, AI Act traceability. · Outils collaboratifs : Notion, Miro.
CDI
CDD

Offre d'emploi
Conduite de projet MOE N2 Data

OCTOGONE
Publiée le
Data Warehouse
SQL

1 an
30k-60k €
Issy-les-Moulineaux, Île-de-France
Au sein de l'équipe en charge du Data Warehouse (DWH) de gestion, le poste s'inscrit dans un environnement transverse au cœur des enjeux data de la banque. Le DWH constitue un élément stratégique du système d'information, notamment pour la production réglementaire COREP liée au risque de crédit, mais aussi pour de nombreux usages métiers : reporting, analyses, modélisations, pilotage de l'activité et connaissance client. Il couvre de nombreuses activités et alimente différents départements tels que le Contrôle de gestion, l'ALM, le Risque, le Marketing, le CRM et Pilotage commercial. Dans ce contexte, la mission MOE consiste à assurer les travaux de maîtrise d'œuvre nécessaires au maintien, à l'évolution et à la fiabilité des pipelines de données de la plateforme analytique. Le collaborateur prend en charge des activités variées mêlant conception technique, développement de flux ETL, maintenance applicative et collaboration étroite avec la MOA. L'environnement applicatif repose sur une stack technique mature et documentée, que le collaborateur devra s'approprier rapidement afin d'assurer une montée en compétence opérationnelle dans les meilleurs délais. La capitalisation des connaissances existantes, la compréhension des flux en place et la maîtrise des spécificités fonctionnelles du DWH constituent un enjeu central du démarrage de la mission.
Freelance
CDI

Offre d'emploi
Analyste d’exploitation – Proximité Télécom Datacenter

AVA2I
Publiée le
Cisco
Integrated Dell Remote Access Controller (IDRAC)
LAN

12 mois
Île-de-France, France
La mission consiste à intervenir sur des activités de proximité télécom en Datacenter Missions principales🔌 Infrastructure réseau & câblage Étude, réalisation et validation du câblage LAN Étude, réalisation et validation du câblage SAN Lecture et interprétation des plans d’urbanisation réseau Datacenter Analyse de plans de frettage 🧪 Tests & validation de liens Tests de fibres optiques et cuivre : Photométrie Réflectométrie Utilisation d’outils de mesure (Fluke, LinkRunner, FiberAlert, etc.) ⚙️ Exploitation & administration technique Configuration de cartes iDRAC / iLO Gestion des incidents et troubleshooting Commandes réseau de base : , , Configuration IP (statique / DHCP) 🖥️ Support Datacenter Utilisation d’outils DCIM Gestion des environnements techniques type Mainframe Gestion et manipulation de modules SFP / QSFP / CVR 🛠️ Environnement technique✅ Compétences indispensables LAN / SAN (niveau pratique) Outils DCIM Réflectométrie & photométrie Pack Office (Excel) ServiceNow Commandes réseau de base Gestion des incidents & troubleshooting Configuration réseau IP 🔵 Compétences optionnelles Environnements Cisco Environnements Arista 🌐 Langues Anglais : niveau pratique (technique) 🎓 Certifications obligatoires Habilitation électrique B0 / H0V obligatoire Doit être valide avant démarrage ou formation à prévoir
Freelance

Mission freelance
Business Analyst – Plateforme Finance Produits Structurés - Paris

Net technologie
Publiée le
Business Analysis
Business Analyst
Finance

1 an
550-570 €
Paris, France
Nous recherchons un(e) Business Analyst pour intervenir sur une plateforme interne dédiée aux produits structurés et flow , couvrant l’ensemble de la chaîne Front-to-Middle Office . 🎯 Contexte : intégration de nouvelles activités, produits et connexions dans un environnement dynamique et exigeant. 🚀 Missions Support aux traders, vendeurs et structureurs Recueil et formalisation des besoins métiers Rédaction des spécifications & documentations Participation aux cycles courts de développement (releases mensuelles) Organisation et exécution des tests / UAT Suivi de projet (planning, reporting, coordination) Contribution au support applicatif (N3) Accompagnement au changement & formation utilisateurs 🔎 Périmètre fonctionnel Quote entry, pricing, régulation Documentation & booking Post-trade, exécution & confirmation
Freelance

Mission freelance
Data Analyst Professional

Codezys
Publiée le
Data visualisation
Python
SQL

12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
CDI
Freelance

Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT

OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT

3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
Freelance

Mission freelance
Consultant Architecte BI / Data – Boulogne-Billancourt (92)

Mon Consultant Indépendant
Publiée le
Azure
Azure Synapse
Data Lake

1 mois
350-400 €
Boulogne-Billancourt, Île-de-France
Consultant Architecte BI / Data – ERP M3 / Azure 📍 Boulogne-Billancourt (92) 🏢 Présentiel (5j / semaine) ⏱ 6 mois renouvelables – temps plein 💰 TJM : 550 € HT 🚀 Démarrage ASAP Objectif :Structurer une architecture décisionnelle robuste et fiabiliser les plateformes BI dans un environnement complexe. Mission : Définition et mise en œuvre de l’architecture BI / data Stabilisation et optimisation des environnements existants Intégration des flux ERP Movex / M3 , SQL Server, Netezza Déploiement data sur Azure (Synapse, Data Lake) Structuration du reporting ( Power BI, MicroStrategy ) À savoir Présence sur site requise. Mission technique et structurante, avec attendu fort sur delivery et stabilisation rapide.
CDI
Freelance

Offre d'emploi
Data Ingénieur Python ELK

CHARLI GROUP
Publiée le
Elasticsearch
ELK
Python

3 ans
Paris, France
ngénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
Freelance
CDI

Offre d'emploi
Business Analyst MicroStrategy (H/F)

Argain Consulting Innovation
Publiée le
Business Analyst
Microstrategy
Méthode Agile

1 an
40k-45k €
450-500 €
Nantes, Pays de la Loire
Contexte de la mission Dans le cadre de la modernisation d’un environnement décisionnel, vous interviendrez en tant que Business Analyst spécialisé MicroStrategy sur des plateformes BI stratégiques. Vous contribuerez à l’évolution et à l’optimisation d’outils de pilotage, avec un fort enjeu autour de l’expérience utilisateur, de la qualité des données et de l’intégration de nouveaux besoins métiers. 🚀 Vos missions Accompagner un projet de refonte d’un portail de pilotage Analyser l’existant et recueillir les besoins métiers Rédiger les spécifications fonctionnelles (user stories, cas d’usage…) Participer aux phases de tests (définition de la stratégie, exécution) Assurer la communication et l’accompagnement des utilisateurs dans le changement Maintenir à jour la documentation fonctionnelle et métier Définir et animer les processus de gestion des changements Intervenir en support fonctionnel sur l’outil MicroStrategy Être l’interlocuteur privilégié entre les utilisateurs métiers et les équipes techniques 🛠️ Compétences requises Indispensables Expertise fonctionnelle sur MicroStrategy Expérience confirmée en tant que Business Analyst Maîtrise des environnements BI / décisionnels Techniques & Méthodologiques Méthodologies agiles Rédaction de spécifications fonctionnelles Expérience en gestion de tests (recette) Soft skills Excellente communication et aisance relationnelle Esprit d’analyse et de synthèse Capacité à travailler en équipe Proactivité et autonomie
Freelance

Mission freelance
Architecte End-User – Microsoft 365 / Digital Workplace

UTALENT
Publiée le
Office 365
Power Platform
SharePoint Online

12 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Au sein de la DSI (Infrastructure), vous rejoignez la Service Line dédiée à l’ expérience utilisateur digitale , dont la mission est de concevoir et faire évoluer l’environnement de travail des collaborateurs à l’échelle internationale. Rattaché au domaine End-User Success Hub , vous intervenez sur des services clés tels que : Service Desk Portails et chatbots collaborateurs Observabilité des postes de travail En tant qu’Architecte, vous êtes responsable de la définition, de l’évolution et de la cohérence des architectures techniques autour de plateformes comme Microsoft 365, ServiceNow, Power Platform ou encore Nexthink. Vos missions principales : Définir et faire évoluer la roadmap d’architecture dans une logique de Continuous Architecture Concevoir des solutions innovantes, scalables et alignées avec les besoins métiers Contribuer à la stratégie technique et aux orientations d’architecture du domaine Piloter et garantir la qualité des activités d’architecture (reviews, standards, bonnes pratiques) Évaluer les nouvelles technologies et recommander leur adoption Animer les échanges avec les équipes techniques, métiers et architectes Produire et maintenir la documentation d’architecture Accompagner et faire monter en compétence les équipes (mentorat, partage de connaissances) Vous évoluez dans un environnement international, exigeant, avec un fort enjeu autour de la performance des services digitaux, de l’expérience utilisateur et de l’innovation .
Freelance
CDI

Offre d'emploi
Data Analyst Paiement / Monétique (H/F)

STORM GROUP
Publiée le
Azure
Google Cloud Platform (GCP)
Monétique

3 ans
50k-55k €
450-470 €
Île-de-France, France
Les missions du data analyst sont : • Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité • Animer des groupes de travail avec les sponsors, les business analyst du SI Paiement et les membres de la squad Monétique (data viz, data engineer, business analyst) • Réaliser les recettes des traitements d'intégration et de transformation de données • Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner • Formation et accompagnement des utilisateurs.
Freelance

Mission freelance
Expert SQL Sénior / Data Engineer DBT

Signe +
Publiée le
Google Cloud Platform (GCP)

5 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
🎯 MISSIONS Réaliser la data prep dans le cadre d'un projet d'automatisation des analyses récurrentes Contribuer à l'élaboration d'un cockpit de performance (data prep + data visualisation) Assurer le run quotidien : extraction, automatisation de livrables, création de reporting Renforcer le suivi de performance sur la partie non alimentaire Livrables attendus : Datasets sur BigQuery Classeurs Tableau Analyses + scripts pour le run quotidien 🛠️ ENVIRONNEMENT TECHNIQUE Cloud / Data : GCP, BigQuery Langages / Outils : SQL avancé (gros volumes), DBT Versioning : Git Méthode : Agile / Scrum 👤 PROFIL RECHERCHÉ Expert SQL Senior et/ou Data Engineer DBT confirmé Bac+5 informatique (école d'ingénieur ou université) ou équivalent 7 ans d'expérience minimum en Data Engineering DBT / SQL Expérience retail / grande distribution appréciée Bon communicant, autonome, esprit d'amélioration continue
3099 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous