Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 480 résultats.
CDI
Freelance

Offre d'emploi
Data Engineer (spécialisation Snowflake)

Publiée le
Agile Scrum
Azure
Data analysis

12 mois
Paris, France
Télétravail partiel
Data Engineer (spécialisation Snowflake) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, responsable de la conception, de la mise en œuvre et de la maintenance des solutions d’exploitation et de valorisation des données. Dans un contexte de modernisation du SI et de structuration des usages data, l’entreprise déploie la plateforme Snowflake , solution cloud de référence pour unifier le stockage, le traitement et le partage des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir, développer et orchestrer les flux de données sur Snowflake (Snowpipe, Streams, Tasks, Snowflake Pipelines). Définir et maintenir les modèles de données (zones Raw, Staging, Core, Data Marts). Développer des pipelines d’ingestion et de transformation de données (batch, near real-time). Garantir la qualité, la performance et la fiabilité des traitements. 2. Intégration et industrialisation Optimiser les coûts, la gouvernance et les performances de la plateforme Snowflake. Documenter les architectures, flux, schémas et traitements. Participer à l’industrialisation des processus Data Engineering (DataOps). 3. Gouvernance et sécurité des données Collaborer avec le Head of Data et le Data Architect pour concevoir une plateforme data conforme aux standards. Mettre en œuvre les bonnes pratiques de sécurité (RBAC, gestion des rôles et privilèges), de catalogage et de gestion des métadonnées. Contribuer à l’amélioration continue des normes de gouvernance data. 4. Support et amélioration continue Assurer le support technique des environnements Snowflake. Identifier les axes d’amélioration et accompagner les évolutions de la plateforme data. Former et accompagner les utilisateurs métiers, analystes et équipes BI.
Freelance
CDI

Offre d'emploi
Data Engineer Junior (H/F)

Publiée le
Apache Spark
Databricks
Python

3 ans
35k-40k €
350-400 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Intégré(e) au sein d’une équipe Agile, vous participerez à : La conception et la mise en place de pipelines ETL performants L’ingestion, la transformation et la qualité des données La gestion et l’optimisation des flux Data dans un environnement Azure / Databricks / Spark L’automatisation des traitements et le monitoring des workflows La collaboration avec les équipes métier et Data pour répondre aux enjeux opérationnels La collaboration avec les équipes métier et Data pour répondre aux enjeux opérationnels
Freelance
CDI

Offre d'emploi
Ingénieur Réseaux sécurité

Publiée le
Aruba
Firewall
Palo Alto

6 mois
40k-45k €
400-480 €
Corbeil-Essonnes, Île-de-France
Télétravail partiel
.2 Prestation attendue Accompagnement en expertise réseau informatique industrielle. 2.3 Expertises techniques attendues Afin de mener à bien cette mission, souhaite préciser le niveau d’expertise nécessaire dans les domaines suivants : - Firewalls & Switchs : Palo-Alto – Fortinet – Cisco – Aruba – F5 (Les certifications seraient un plus) - Sécurité : Firewall, Proxy, Load Balancing, Centreon - Réseaux : TCP, NAT, DHCP, DNS, SMTP, SNMP ; Switching ; Routage statique/Dynamique ; LAN / WAN / VLAN ; WIFI (ARUBA ClearPAss) - Systèmes & Infras : Windows, Linux, VMWare, VxRail, NetApp, Datadomain Solutions : URBASEC, CMDB, OneServiceNow
Freelance

Mission freelance
Lead Dév Java (Lyon)

Publiée le
Java

1 an
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients lyonnais, je suis en recherche urgente suite à un remplacement, d'un lead dev Java. Contexte : Le marché client sur la digitalisation des activités de terrain en centrale nucléaire, avec un enjeu fort de sécurité opérationnelle, traçabilité réglementaire et performance des interventions techniques. Les projets visent à remplacer ou moderniser des outils métiers critiques utilisés par les équipes d’exploitation pour : - Suivre et consigner les actions en salle de commande, - Gérer les consignations électriques et mécaniques, - Digitaliser les essais périodiques et rondes de surveillance. Ce périmètre est hautement sensible : interventions en environnement nucléaire, exigences réglementaires fortes, audits de conformité, continuité de service indispensable. Organisation & méthodologie : - Méthodologie agile adaptée (Scrum + "inspiration" SAFe) - Rituels hebdomadaires, suivi des charges et des priorités métier - Forte exigence documentaire : dossiers d’exploitation, Procédures d'installation
Freelance

Mission freelance
Développeur Python /devops - Paris ou Orleans

Publiée le
Python

6 mois
400-420 £GB
Paris, France
Télétravail partiel
Développeur Python /devops ayant une double compétence en Python et DevOps pour participer à divers projets de transformation technique, notamment sur les sujets CICD et AZURE. Nous recherchons des candidats avec au moins cinq ans d'expérience en développement Python et en CI/CD. La connaissance du cloud, en particulier AZURE, est indispensable, et la maîtrise d'autres environnements cloud serait un atout. Nous avons besoin de personnes autonomes et passionnées par la technologie, car le client accorde une grande importance à cet aspect. L'équipe est très technique et dynamique. La mission est basée à Paris ou Orléans, avec la possibilité de télétravail trois jours par semaine
Freelance

Mission freelance
architecte data senior API Lyon/3 jours TT

Publiée le
API REST
Architecture

6 mois
520-700 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
architecte data senior API Lyon . Compétences attendues : Architecture technique : compréhension des infrastructures, intégration, scalabilité Maitrise des briques techniques, APIs, frameworks et librairies Maîtrise des démarches de design Solution technique (concept, ateliers, livrables Traduction des exigences fonctionnelles et non fonctionnelles en spécifications techniques. Connaissance des standards d’intégration (REST, GraphQL, ESB, etc.). Communication et vulgarisation : capacité à expliquer des concepts complexes au sein d’une équipe pluridisciplinaire Collaboration interdisciplinaire : capacité à travailler étroitement avec différentes parties prenantes (métiers et IT) Méthodologies agiles Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Séniorité : Minimum 7 ans d’expérience Missions : Contributions à la découverte du périmètre fonctionnel (Collaborer avec l’équipe produit pour aligner l’architecture sur les objectifs métier, clarifier les exigences, définir les personas et scénarios d’usage afin de répondre aux besoins des utilisateurs finaux.) Design de solution technique (Définir les exigences non fonctionnelles et critères de succès techniques, tout en analysant les intégrations et dépendances avec les systèmes et infrastructures existants.) Contribuer à l’amélioration du design de solution Compétences attendues : Architecture technique : compréhension des infrastructures, intégration, scalabilité Maitrise des briques techniques, APIs, frameworks et librairies Maîtrise des démarches de design Solution technique (concept, ateliers, livrables Traduction des exigences fonctionnelles et non fonctionnelles en spécifications techniques. Connaissance des standards d’intégration (REST, GraphQL, ESB, etc.). Communication et vulgarisation : capacité à expliquer des concepts complexes au sein d’une équipe pluridisciplinaire Collaboration interdisciplinaire : capacité à travailler étroitement avec différentes parties prenantes (métiers et IT) Méthodologies agiles
Freelance

Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Publiée le
Machine Learning
Python

6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Lyon (2 jours TT) Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Freelance

Mission freelance
Data / AI Engineer

Publiée le
Databricks
Git
Python

1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, Data Scientists, équipes Produit), vous interviendrez sur l’ensemble de la chaîne data & IA , de la construction des pipelines jusqu’à la mise en production et au suivi des modèles. Vos principales responsabilités : Concevoir et développer des pipelines data robustes (batch et streaming) Préparer, transformer et structurer les données pour les cas d’usage IA Entraîner, évaluer et industrialiser des modèles de Machine Learning Mettre en place le monitoring des données et des modèles Garantir la qualité, la traçabilité et la fiabilité des traitements Collaborer étroitement avec les Data Scientists et équipes produit 🛠️ Industrialisation & MLOps Mise en place des bonnes pratiques de versioning et CI/CD Industrialisation des pipelines et des modèles Contribution à la documentation technique Amélioration continue des performances et de la maintenabilité Participation aux phases de déploiement et de stabilisation
CDI

Offre d'emploi
Senior IT Systems & Operations Engineer F/H

Publiée le

50k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Dans le cadre d'une création de poste, SEA TPI recrute un Senior IT Systems & Operations Engineer F/H pour couvrir les activités de support, de run et de maintenance à l'ensemble de la flotte et aux membres d'équipage, de notre client, dans le domaine informatique (Poste de travail, Serveur, Tablettes et réseau) Les principales missions seront notamment : • Fournir le support 2 et 3 : Système IT et les applications métiers. Assurer le bon fonctionnement et la maintenance des systèmes IT sur les navires. • Workplace • Gérer au quotidien les activités récurrentes de production et les projets IT liés aux recommandations cybersec. • Monitoring systems performance et troubleshooting de problème. • Proposer des process d'industrialisation, monitoring, backup / recovery et sécurité. • Incidents critiques et problèmes management : analyses technique, coordination dans la résolution d'incident, RCA. • Gérer les besoins business et qualifier les demandes. • Intégrer et déployer les systèmes et applications IT sur les navires. • Assurer la sécurité des postes de travail, et la conformité des logiciels sur chacun d'entre eux • Coordonner la maintenance du service à bord à l'aide des différents support fournisseur. • Gérer les priorités dans le backlog d'activités (Build, support, incident / problèmes ...) • Obsolescence, capacité et vulnérabilité management. • Commissioning / decommissioning. • Assurer le lien avec les différentes équipes IT • IT asset management sur les navires. Livrables attendus : • Créer des procédures et de la documentations (Application à bord, Maintenance des systèmes, industrialisation...) • Mettre en place de process d'industrialisation, backup / recovery lié à la sécurité. • Lister les activités IT Support (Level, priorité...) • Définir un catalogue de service. Les missions énumérées ci-dessus ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : 01212ga8gx
Freelance

Mission freelance
Intégrateur APIM AXWAY - Secteur Bancaire - Paris (H/F)

Publiée le
Axway
Gateway

6 mois
400-430 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement d’une équipe API Management au sein d’un grand environnement IT structuré, nous recherchons un Intégrateur API AXWAY expérimenté , immédiatement opérationnel . Vous interviendrez sur une plateforme AXWAY APIM existante , utilisée à grande échelle, avec un fort enjeu de sécurité, de fiabilité et d’accompagnement des équipes projets . Missions : Développement de proxies AXWAY et de policies / règles de sécurité sur la Gateway Accompagnement des projets sur : l’exposition des API la virtualisation l’intégration des consommateurs Formation et montée en autonomie des équipes développement et opérations Participation aux releases mensuelles de la plateforme Veille et propositions d’amélioration continue
Freelance

Mission freelance
Business Analyst ESG (h/f)

Publiée le

1 mois
530-560 €
75013, Paris, Île-de-France
Télétravail partiel
Contexte: Le rôle de Business Analyst ESG est essentiel pour contribuer à la mise en œuvre et au développement d'outils liés à l'ESG au sein de la DSI. Le candidat idéal disposera d'une solide expérience en analyse des besoins métiers et en rédaction de spécifications fonctionnelles, garantissant ainsi que les outils soient conformes aux exigences réglementaires et opérationnelles. Livrables : Analyse des besoins métiers Rédaction de spécifications fonctionnelles détaillées Mise à jour de la documentation fonctionnelle Suivi des développements Réalisation de la recette MOA préalable à la Recette métier Mise à jour de la documentation utilisateur si besoin Préparation et suivi de la mise en production (tests de non-régression, passage en comité de livraison, test post livraison, etc.) Assurer le support applicatif Compétences : Expérience de 9 ans minimum dans un rôle similaire Connaissance des outils ESG et extra-financiers Expérience en rédaction de spécifications fonctionnelles Compétences en suivi de développements et en tests Connaissance des réglementations telle que SFDR et CSRD Maîtrise des API pour le calcul d'indicateurs Expérience en gestion de projets IT Anglais courant Autres Détails : Localisation : Paris 13 (50% télétravail) Durée : 3 ans
CDI

Offre d'emploi
Cloud Data Engineer

Publiée le
Big Data
Cloud

60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Freelance

Mission freelance
POT8799 - Un Architecte AWS sur Paris

Publiée le
Python

6 mois
210-450 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients un Architecte AWS sur Paris. Déjà mis en place des Landing Zone, ou les ayant exploitées. Certifications obligatoires : AWS Certified Solutions Architect ou DevOps Engineer Globalement, il faut qu'il sache : maintenir Terraform, Scripting (Shell/Python) et pipeline CI/CD ceci en Agile SAFe. Voici les techno : ***Cloud et Services AWS -Compute : EC2, Lambda, Amazon ECS and EKS -Réseau et Sécurité : Transit Gateway, Direct Connect, VPC, SCP WAF & Firewall Manager Identity access Management (IAM), Identity Center -Observabilité et Supervision : CloudWatch, CloudTrail,X-Ray et Dynatrace -FinOps / Gestion des coûts : Billing and Cost Management, Budgets & Alerts, Reservations et Savings Plans, Resource Tags et Management Groups pour l’allocation des coûts -DevEx / Automatisation : Terraform **Intégration SI et Sécurité d’Entreprise -Fédération d’identité avec Identity Center -Intégration DNS -Centralisation des logs -Supervision et monitoring **CI/CD et Infrastructure as Code -Infrastructure as Code : Terraform -Pipelines CI/CD (Gitlab...) -Scripting et Automatisation : PowerShell, Python pour intégration avancée Localisation : Paris + TT
Freelance

Mission freelance
Implementation Lead Tech - Plateforme Paiement & API

Publiée le

12 mois
450-600 €
75001, Paris, Île-de-France
Télétravail partiel
Localisation : Paris avec un déplacement au moins une fois par semaine à prévoir entre Paris et Bruxelles Modèle hybride : 2 jours de télétravail par semaine Conditions : Freelance ou portage salarial (pas de sous-traitance) Contexte Notre client est un acteur majeur des solutions de paiement, engagé dans un plan de transformation ambitieux : Extension du périmètre de services Modernisation de la plateforme logicielle Migration des clients vers la nouvelle solution Dans ce cadre, nous recherchons un Implementation Lead Tech pour accompagner la réussite de ce programme stratégique. L'expérience en monétique est un prérequis. Rôle & Responsabilités En collaboration avec la direction projet et les équipes techniques, vous serez le référent technique auprès des clients pour garantir une intégration fluide et sécurisée. Vos missions incluent : Cadrage & Architecture Identifier les écarts entre besoins clients et prérequis techniques Conseiller sur les choix d'architecture et scénarios d'intégration Animer des ateliers Q&A et produire la documentation technique Sécurité & Conformité Accompagner les analyses de sécurité et conformité des données Préparer les dossiers d'homologation (DAT, PES, etc.) Coordonner les audits et plans de remédiation Maîtrise des normes ISO 27001, PCI-DSS et RGPD Coordination & Communication Assurer la liaison entre les parties prenantes (banques, direction, équipes produit) Garantir la satisfaction client et la qualité des livrables Participer à la définition de la stratégie de migration Gestion des risques & amélioration continue Identifier les risques et mettre en place des actions correctives Contribuer aux rétrospectives et proposer des améliorations Compétences requises Techniques : Expertise en monétique (émission, acquisition et/ou contestation/impayés) Solides connaissances en architecture SI , API et intégration technique Maîtrise des mécanismes de sécurité (chiffrement, authentification, échanges de données) Connaissance des normes et réglementations (ISO 27001, PCI-DSS, RGPD) Personnelles : Excellente communication et orientation client Organisation, rigueur et capacité à gérer les priorités Anglais et français courant (flamand apprécié) Profil recherché Diplôme d'ingénieur ou équivalent 10 ans d'expérience sur des projets techniques liés aux plateformes d'API Compétences monétique indispensables
CDD

Offre d'emploi
Coordinateur Data H/F

Publiée le

3 mois
75001, Paris, Île-de-France
Vous êtes actuellement disponible et recherchez une nouvelle mission en Data ? Veuillez trouver ci-dessous une opportunité de Coordinateur Data H/F Lieu : Paris Démarrage: Début Janvier Durée: 3 Mois Type de contrat: Intérim Mission : L'objectif de cette mission de transition est de saisir, valider et maintenir des données précises et fiables. Tâches : * Créer et maintenir les enregistrements des produits, fournisseurs et clients dans les systèmes * Garantir que toutes les données sont précises, complètes et conformes aux normes internes. * Traiter les configurations et modifications des produits conformément * Effectuer des vérifications de données courantes pour identifier et corriger les erreurs. * Signaler les problèmes complexes * Fournir des mises à jour de données aux parties prenantes * Réaliser des rapports et tableaux de bord Compétences: Administration de données dans le secteur industriel Maitrise d'excel et Google Sheets connaissance de systèmes ERP Expérience en gestion de données Bon anglais Pour plus d'informations, merci de m'envoyer votre CV.
CDI

Offre d'emploi
Développeur Python orientation DevOps - Secteur télécom - Paris (H/F)

Publiée le
DevOps
Docker
Kubernetes

52k-57k €
Paris, France
Télétravail partiel
Missions Développer et maintenir des applications backend en Python pour la gestion et le traitement de données. Concevoir des architectures robustes et scalables adaptées aux besoins internes et aux usages clients. Développer et intégrer des API performantes et sécurisées (REST / GraphQL). Optimiser la fiabilité, la performance et la maintenabilité des applications existantes. Contribuer aux pratiques DevOps dans la construction et l’amélioration des chaînes CI/CD. Compétences techniques recherchées Stack à maîtriser Langage : Python Frameworks : Django, FastAPI, Flask, DRF Bases de données : PostgreSQL, SQL Server API : REST, GraphQL Environnement technique Cloud : AWS Conteneurisation : Docker (notions attendues) ; Kubernetes apprécié CI/CD : participation ou mise en place de pipelines d’intégration continue Versioning : Git
1480 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous