Trouvez votre prochaine offre d’emploi ou de mission freelance Python

Ce qu’il faut savoir sur Python

Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.

Votre recherche renvoie 763 résultats.
Freelance

Mission freelance
Team Leader Data Engineering (H/F)

Freelance.com
Publiée le
Apache Kafka
Confluence
Data management

3 mois
400-430 €
Bordeaux, Nouvelle-Aquitaine
Intitulé : Team Leader Data Engineering Localisation : Bordeaux Expérience : 2 à 5 ans Démarrage : ASAP jusqu’à fin 2026 Deadline réponse : 9 mars 🎯 Mission générale Sous la responsabilité du Head of Engineering Logistique, le Team Leader est responsable de l’équipe Data Engineering C-Logistics. Il intervient en tant que : Facilitateur d’équipe Coach technique Acteur de la performance Il s’appuie sur les principes Lean afin de : Optimiser les processus de delivery Analyser et traiter les causes racines des incidents de production Favoriser l’autonomie de l’équipe Garantir performance, scalabilité et fiabilité des solutions Assurer l’alignement avec la vision produit du Product Manager 🧭 Périmètre Production et pilotage des données & KPI pour les collaborateurs C-Logistics Partage de données avec les autres filiales du groupe Partage de données avec des clients B2B 👥 Équipe 4 développeurs 1 Lead Developer
Freelance

Mission freelance
MLOps - SageMaker

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

3 mois
400-550 €
Paris, France
Au sein d'une équipe de 7 ML Engineers , vous serez l'expert Infrastructure dédié au pôle ML. Votre mission est de bâtir, maintenir et faire évoluer la stack technique permettant de propulser des systèmes de Machine Learning scalables et fiables. Vous ferez le pont entre le monde du DevOps et celui de la Data Science pour garantir l'efficacité opérationnelle des pipelines de production. Missions : Gestion de l’Infrastructure : Maintenir et optimiser la stack infrastructure dédiée au ML en respectant l'état de l'art et les bonnes pratiques AWS. Automatisation (IaC) : Provisionner et gérer les ressources via Terraform pour assurer la reproductibilité des environnements. Orchestration de Workflows : Piloter et configurer les pipelines de données complexes et les workflows ML via Apache Airflow (MWAA). Support Projets Spécifiques : Collaborer avec l'équipe sur l'intégration d'outils avancés comme les bases de données vectorielles (Vectiroeilles), Open Search et l'indexation. Cycle de vie ML : Mettre en place des serveurs dédiés MLFlow pour le suivi de l'entraînement des modèles et optimiser les phases de prédiction. Exploitation SageMaker : Utilisation intensive d'Amazon SageMaker pour l'entraînement et le déploiement de modèles.
Freelance

Mission freelance
Intégrateur CRM

CAT-AMANIA
Publiée le
API
CI/CD
Cycle en V

3 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
En tant qu'Intégrateur, vous serez amané à réaliser des activités de run (Maitien en conditions opérationnelles, livraisons, suivi et gestion des incidents en production) mais également de : - Apporter son support au métier et la MOA via la connaissance de l’outil UNICA v12 (Campaign, Interact, etc…) et ACOUSTIC - Vérifier que les travaux et leur mise en œuvre des contributeurs et partenaires (les adhérences) - Intégrer les correctifs Unica dans la solution CRM (intégration de nouvelles images, construction d'images à partir de jars, modification de helmchart, ...) sur le socle DCS (OpenShift) - Mettre en œuvre les phases d'intégration (ouverture de flux, routage IP, ...) et vérifier que l'ensemble de la chaîne de liaison CI/CD est opérante - Développer des scripts shell et/ou python - Effectuer les tests de non-régression avant et après migration - Accompagner les recettes fonctionnelles ainsi que les phases de mise en production - Accompagner les équipes DICO (production info. et réponse aux incidents)
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake

12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
CDI

Offre d'emploi
Développeur Full Stack expérimenté - PHP Symfony & Angular F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
Bootstrap

Civrieux, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Ingénieur de production Linux

VISIAN
Publiée le
Bash
CI/CD
Kubernetes

3 ans
43k-58k €
350-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre de l’exploitation d’une plateforme critique d’authentification et de signature électronique du secteur bancaire, nous recherchons un Ingénieur de Production Senior pour renforcer le pôle RUN . La plateforme gère plusieurs milliards d’opérations annuelles et repose sur un environnement Linux étendu (plusieurs centaines de serveurs). L’équipe assure l’exploitation, la supervision, la gestion des incidents N2/N3 ainsi que l’amélioration continue de l’industrialisation et de la sécurité. Missions principales 🔧 RUN – Exploitation & Continuité Assurer le maintien en conditions opérationnelles des applications Gérer les incidents N2/N3 techniques et fonctionnels Participer activement aux cellules de crise Assurer la communication technique avec les fournisseurs Contribuer aux comités opérationnels Optimiser la supervision (proactivité sur détection d’incidents) Participer à l’ordonnancement des traitements (création et suivi de chaînes) 🚀 BUILD – Contribution transverse Participer aux déploiements applicatifs (Hors Prod → Prod) Contribuer au suivi et à la planification des changements Participer à la construction des chaînes CI/CD Anticiper l’exploitabilité dès la phase projet Participer aux validations techniques (GO/NOGO) 🔐 Sécurité & Amélioration continue Contribuer aux sujets liés à l’authentification et à la signature électronique Renforcer les pratiques sécurité (certificats, cryptographie, PKI) Proposer des optimisations techniques (scripts, procédures, automatisation) Participer aux astreintes et interventions HNO Environnement technique Systèmes Linux RedHat Bases de données Oracle Middleware Apache Tomcat Containers OpenShift / Kubernetes Supervision Zabbix Grafana AppDynamics ELK Déploiement & CI/CD XLDeploy XLRelease Jenkins Ansible Ordonnancement VTOM Ticketing ServiceNow Scripting / Langages Bash Python Java Outils projet Jira Confluence Sécurité HSM PKI / gestion certificats Firewall applicatif Cryptographie Compétences requises Impératif Linux RedHat – Confirmé Oracle SQL – Junior OpenShift / Kubernetes – Junior Anglais professionnel Français courant Souhaitable CI/CD Scripting (Bash / Python)
CDI

Offre d'emploi
Ingénieur linux H/F

DSI group
Publiée le
Ansible
Python
Red Hat Linux

40k-50k €
Angers, Pays de la Loire
Missions principales: Administrer, maintenir et optimiser des systèmes Linux RedHat (RHEL) Concevoir, développer et maintenir des automatisations via Ansible et AWX Développer des scripts Python pour : L’automatisation de tâches spécifiques L’intégration d’outils tiers Intervenir sur des infrastructures systèmes et virtualisées Participer à l’ industrialisation et à la standardisation des processus d’automatisation Garantir la performance , la disponibilité et la conformité des environnements Travailler en collaboration étroite avec les équipes techniques et projets
Freelance

Mission freelance
Ingénieur NetDevOps

SKILL EXPERT
Publiée le
Ansible
API
CI/CD

1 an
550-580 €
Paris, France
Missions En tant qu’ingénieur NetDevOps, vous interviendrez pour un client grand compte afin de moderniser et d'automatiser la gestion de leurs infrastructures réseau mondiales. Votre mission principale consiste à réaliser des projets d'automatisation visant à fiabiliser les données d'inventaire et à simplifier l'administration du réseau. Sous une logique NetDevOps, vos tâches seront les suivantes : ● Évolution et Intégrité des outils : Assurer la mise à jour de la solution NetBox vers la dernière version stable, incluant la réalisation de tests de non-régression. ● Synchronisation et Supervision : Automatiser la mise à jour de l'outil de supervision Zabbix (ajouts, modifications, suppressions) en utilisant NetBox comme "Source of Truth". ● Réconciliation d'IPAM : Garantir la cohérence des adressages IP entre les entités en automatisant la synchronisation de l'IPAM vers celui du Groupe. ● Intégration API Opérateurs : Développer des connecteurs via API pour automatiser la mise à jour des circuits télécoms Orange dans NetBox. ● Ingénierie Meraki : Étudier et concevoir une solution de remplacement des modèles de configuration du tableau de bord Meraki par une approche programmatique s'appuyant sur l'API Meraki.
CDI

Offre d'emploi
CMOS Pixel Design Engineer - (H/F)

EASY PARTNER
Publiée le
Python

Grenoble, Auvergne-Rhône-Alpes
Contexte du poste Rejoignez une entreprise à taille humaine ancrée dans la région grenobloise, reconnue pour sa capacité d'innovation depuis 2010 dans le secteur des semi-conducteurs. Notre équipe dynamique de 45 collaborateurs est à la recherche d'un.e Ingénieur.e en Conception Pixel CMOS pour accompagner notre croissance et renforcer notre capacité à développer de nouveaux capteurs. Vous intégrerez notre département de R&D, composé de passionnés de technologie, engagés dans la création de solutions sur-mesure et performantes pour notre clientèle diversifiée. Missions Principales : - Concevoir et développer des pixels CMOS en ligne avec les spécifications du produit. - Choisir et expérimenter de nouvelles architectures de pixels. - Estimer et optimiser les performances des pixels selon les technos utilisées. - Réaliser les "layouts" et simulations électriques des pixels et matrices de pixels. - Assurer la conformité du design avec les normes DRC et LVS. - Superviser les mesures électro-optiques et présenter les résultats aux différentes parties prenantes. Annexes : - Rédiger la documentation technique détaillée pour chaque projet. - Contribuer à la formation et au développement du savoir-faire interne. Stack technique À maîtriser : - Physique des semi-conducteurs et design de circuits électriques. - Outils de CAO micro-électroniques comme Cadence Virtuoso. - Langages de script tels que Scheme, TCL et Python. Environnement technique global : - Simulation par éléments finis (TCAD Synopsis Sentaurus). - Connaissances en optique géométrique et interactions photon-matière. - Systèmes UNIX et outils bureautiques.
CDI
Freelance

Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F

STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Freelance

Mission freelance
DevSecOps

HAYS France
Publiée le
CrowdStrike
cyberark
Cybersécurité

3 ans
Lille, Hauts-de-France
Dans le cadre d’une transition majeure sur son périmètre de cybersécurité, l’entreprise recherche un consultant expert en sécurité Cloud et en solutions de protection des accès et endpoints . Le consultant interviendra à la fois sur la mise en place d’une nouvelle solution CNAPP couvrant un environnement multi‑cloud (On‑prem / Azure / GCP) et sur le maintien en condition opérationnelle (MCO) des solutions PAM et EDR de l’organisation. Les responsabilités couvrent à la fois des activités BUILD et RUN , incluant la définition de l’architecture, l’intégration DevSecOps, la gestion du cycle de vie des comptes à privilèges et l’optimisation de la détection des menaces sur le parc endpoints.
Freelance

Mission freelance
Cloud Engineer Lead Expert

Codezys
Publiée le
Ansible
Conception
ISO 27001

12 mois
Paris, France
Le service comprendra : A. Gestion de l'Infrastructure de Stockage Conception et déploiement de solutions de stockage en réseau (NAS) et de solutions cloud adaptées aux besoins. Configuration des volumes et des niveaux de stockage en fonction des exigences de performance. Optimisation des performances du stockage par des ajustements et un équilibrage de la charge. Fourniture d'un service 24/7 avec une organisation dédiée aux heures creuses pour une disponibilité continue. Élaboration et partage de documentation technique, comprenant des Dossier de Conception Technique (LLD), des procédures et des processus. B. Protection des Données & Sauvegarde Mise en œuvre de stratégies de sauvegarde et de récupération d'urgence afin de prévenir toute perte de données. Utilisation et gestion des solutions de sauvegarde adaptées aux besoins spécifiques. Développement de stratégies de réplication inter-sites pour garantir la continuité des activités. C. Sécurité et Conformité du Stockage Application de mécanismes de chiffrement, de contrôles d'accès et de permissions basées sur les rôles pour sécuriser les données stockées. Assurance de la conformité aux normes GDPR, HIPAA, ISO 27001 et autres réglementations applicables. Supervision et prévention contre les ransomwares et les accès non autorisés aux systèmes de stockage. Participation à la résolution des non-conformités identifiées lors des audits. D. Planification de la Capacité & Optimisation Analyse de l'utilisation du stockage et anticipation des besoins futurs. Amélioration de l'efficacité grâce à des fonctionnalités telles que la déduplication, la compression, et la gestion à approvisionnement fin (thin provisioning). Mise en place d'automatisations de la gestion du stockage via des scripts (Python, Bash, PowerShell). E. Résolution de Problèmes & Optimisation des Performances Identification et résolution des problèmes de latence, de limitations en IOPS ou de défaillances de disques. Réalisations de mises à jour du firmware, de correctifs et de vérifications de l'état général des systèmes. Collaboration étroite avec les équipes réseau et base de données pour optimiser le flux de données end-to-end. Gestion des incidents, y compris leur résolution et leur coordination avec les interfaces concernées.
CDI

Offre d'emploi
Data Analyst - CDI Uniquement

AEROW
Publiée le
Grafana
Python
SQL

40k-50k €
Bruxelles, Bruxelles-Capitale, Belgique
ATTENTION, CDI UNIQUEMENT, POUR PERSONNE HABITANT OU SOUHAITANT S'ETABLIR A BRUXELLES OU PROCHE BRUXELLES: Dans le cadre de ses activités opérationnelles, l’organisation recherche un Data Analyst capable de soutenir les équipes métiers et IT dans l'analyse de la performance, la qualité des données, le reporting et la génération d’insights. La mission est orientée vers l’amélioration continue, la fiabilité opérationnelle et la valorisation des données issues de multiples systèmes. 2. Responsabilités principales A. Cas d’usage analytiques Analyse de la performance et de la fiabilité des processus opérationnels. Reporting sur les actifs et la maintenance (utilisation, disponibilité, temps d’arrêt). Analyse de tendances en sécurité , incidents et anomalies. Suivi des coûts et de l’efficacité opérationnelle dans différents domaines. B. Gestion & qualité des données Structuration et harmonisation de données issues de multiples systèmes opérationnels . Mise en place de processus de contrôle qualité pour assurer la fiabilité des analyses. Support à l’intégration des résultats analytiques dans les systèmes de reporting existants . C. Reporting & visualisation Conception et mise en œuvre de tableaux de bord dédiés aux utilisateurs opérationnels. Développement de KPI standardisés et cadres de reporting. Optimisation continue des rapports pour améliorer la lisibilité et la génération d’insights. D. Transfert de connaissances Coaching des Data Analysts internes (meilleures pratiques, storytelling, visualisation…). Documentation des processus analytiques, modèles de données et guidelines de gouvernance.
Freelance

Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark

3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
CDI

Offre d'emploi
Data Engineer | Databricks | AWS

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Freelance
CDD
CDI

Offre d'emploi
INGENIEUR DE DEVELOPPEMENT INFORMATIQUE INDUSTRIELLE

KEONI CONSULTING
Publiée le
Java
Linux
Python

18 mois
20k-60k €
400 €
Saint-Aubin, Île-de-France
MISSIONS Le candidat contribue à la définition des spécifications générales et réalise l’analyse technique et l’étude détaillée du projet applicatif. Il doit réaliser les modules (objets et composants logiciels), adapter et paramétrer les progiciels applicatifs, réaliser le prototypage, élaborer les jeux d’essais pour les tests unitaires d’intégration et effectuer les tests unitaires et, le cas échéant, identifier et traiter les dysfonctionnements. Activités principales : • Savoir rédiger des spécifications fonctionnelles • Savoir définir et décrire une architecture logicielle • Développer de nouvelles fonctionnalités • Corriger des anomalies • Réaliser des tests fonctionnels avec les équipes qui maintiennent les équipements liés • Rédiger des cahiers de recette et des scripts de tests • Rédiger la documentation technique

Les métiers et les missions en freelance pour Python

Data scientist

Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.

Data analyst

Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.

763 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous