Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 477 résultats.
Freelance

Mission freelance
Responsable Opérationnel Data Gouvernance

Publiée le
Data governance
Méthode Agile
RGPD

3 ans
600-700 €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Responsable Opérationnel Data Gouvernance répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/5001 en objet du message Vos responsabilités Assurer le rôle de référent opérationnel en matière de gouvernance des données. Planifier, préparer et animer le Comité de Gouvernance Data. Contribuer à la construction et au suivi de la feuille de route Data. Organiser et animer les comités Qualité des Données (QDD) avec les entités concernées. Garantir l’alignement des actions entre équipes métiers, équipes IT et rôles data. Maintenir la cartographie des responsabilités (Data Owners, Data Stewards, référents IT). Coordonner les acteurs pour assurer la cohérence et la continuité de la gouvernance. Piloter la mise à jour, l’enrichissement et la validation du Catalogue de Données. Garantir l’accès, la lisibilité et la cohérence des métadonnées. Participer à la validation des dashboards QDD. Identifier les écarts entre la modélisation logique et les implémentations physiques. Piloter les audits de conformité des référentiels. Contribuer à la définition et au suivi des plans de remédiation. Évaluer les impacts data, référentiels et flux lors des cadrages fonctionnels des projets. Contribuer à la définition des architectures fonctionnelles et applicatives en cohérence avec les principes de gouvernance. Participer aux travaux de cartographie (domaines de données, objets métiers, dépendances systèmes). Modéliser ou contribuer à la modélisation des flux de données (fonctionnels, logiques, applicatifs). Appuyer les décisions d’urbanisation pour simplifier et rationaliser le SI. Connaissance des référentiels, outils de catalogage, métadonnées et tableaux de bord QDD. Maîtrise des enjeux réglementaires (RGPD), conformité et gestion des référentiels. Compréhension des principes d’architecture d’entreprise et d’urbanisation (idéalement TOGAF). Capacité à analyser ou challenger des architectures fonctionnelles, applicatives et data. Compétences en modélisation des données, processus et flux inter-applicatifs.
Freelance
CDI

Offre d'emploi
Incident Manager – Contexte ITIL – Environnement Applicatif Interne

Publiée le
IA
ITIL
Safe

1 an
Île-de-France, France
🎯 Contexte Dans le cadre du maintien opérationnel d’un périmètre applicatif interne utilisé par plusieurs milliers de collaborateurs, nous recherchons un Service Delivery Manager / Incident & Change Manager capable de piloter les processus ITIL, d’assurer la coordination avec les équipes techniques, et de garantir la qualité du service rendu. La mission s’inscrit dans un environnement complexe, fortement ITILisé, avec des enjeux forts de suivi des incidents majeurs , gestion des changements , résolution des problèmes récurrents , et amélioration continue . 📦 Livrables attendus Mise à jour complète des outils ITSM (ServiceNow, outils internes de gestion de crise) Documentation opérationnelle à jour Traçabilité et historiques des modifications Reporting régulier : KPI, SLA, backlog, plans d’actions Participations aux cérémonies Agile & comptes-rendus associés 🛠️ Missions principalesGestion des incidents & crises Piloter le processus de gestion des incidents, incidents majeurs et crises Assurer une résolution rapide et efficace Coordonner les escalades techniques & garantir le respect des SLA Gestion des changements Analyser et valider les demandes de changement Organiser et animer les CAB Superviser les mises en production et la qualité des releases Gestion des problèmes Identifier, analyser et suivre les problèmes majeurs / récurrents Piloter les plans d'actions pour éliminer les causes racines Contribuer à la réduction du backlog Reporting & pilotage Produire les KPI, SLA, états de backlog, suivis des incidents Assurer un reporting clair, structuré, régulier Amélioration continue Collaborer avec l’équipe Process & Tools Contribuer à la standardisation et à l’évolution des processus ITSM Participer aux réunions Agile pour fluidifier la coopération transverse 🧰 Compétences requisesTechniques & ITIL Très bonne connaissance des processus ITIL (certification appréciée) Maîtrise des outils ITSM : ServiceNow, outils internes équivalents Compétences en diagnostic d’incidents complexes Expérience en gestion opérationnelle, exploitation, coordination IT Connaissances IA (requis dans le cahier des charges) Compréhension des concepts : Machine Learning, Générative AI, RAG, LLM, agents, prompts, hallucinations Capacité à formuler des requêtes efficaces pour outils IA Connaissance des enjeux RGPD et éthiques liés à l’IA Langues Français courant (impératif) Anglais courant en contexte professionnel (impératif) Certification Safe obligatoire
Freelance
CDI

Offre d'emploi
Data Scientist LCB-FT

Publiée le
Data science

3 ans
40k-80k €
400-650 €
Île-de-France, France
Télétravail partiel
Contexte : La mission interviendra en appui d’une équipe projet pluridisciplinaire (métier conformité, gestion de projets, informatique, data science) en charge de mener à bien le développement interne d’une nouvelle solution informatique performante et innovante, intégrant notamment des fonctionnalités de machine Learning et d’intelligence artificielle en ligne avec les attentes du régulateur et les standards de place les plus performants. Prestations attendues : - Elaboration de nouveaux modèles de données adaptés à la Conformité, et notamment la révision de l’approche en matière de scoring, de segmentation de la clientèle, et des seuils de déclenchement des alertes sur opérations atypiques. - Réduction des alertes non pertinentes et l’optimisation des analyses et investigations - Sélection et la validation de variables pertinentes (features engineering) pour améliorer la performance des modèles de détection - Utilisation combinée de modèles de machine learning supervisés et non supervisés pour optimiser la détection des comportements suspects et réduire les faux positifs - Choix techniques et stratégiques adaptés aux enjeux et au contexte opérationnel du groupe BRED (typologie clients, offre produits et services, entités multiples…) - Accompagnement des différentes étapes des projets informatiques de la Conformité (études & cadrage, recette, suivi comités) dans le respect des échéances imposées - Contribution à la rédaction des livrables projets (expression de besoin métier, cahiers des charges, procédures) Expérience exigée dans la Lutte Contre le Blanchiment d'argent et le Financement du Terrorisme (LCB-FT)
Freelance

Mission freelance
TECH LEAD DATA / LEAD DATA ENGINEER

Publiée le
AWS Cloud
DBT
Snowflake

8 mois
600-700 €
Paris, France
Télétravail partiel
Tech Lead Data / Lead Data Engineer – Périmètre Finance Mission principale Piloter techniquement une Feature Team Data orientée Finance, garantir la qualité, la fiabilité et la livraison des produits Data/Analytics, tout en assurant le leadership technique et humain de l’équipe. Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner STACKS OBLIGATOIRES : AWS / SNOWFLAKE / DBT / AIRFLOW
Freelance
CDI

Offre d'emploi
Data analyst confirmé marketing client

Publiée le
PowerBI
SQL

12 mois
40k-45k €
350-400 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission : Dans le cadre du renforcement de notre département IT Data, nous recherchons un(e) Data Analyst Confirmé(e) pour accompagner les équipes Marketing, CRM et Digital dans l'exploitation et l'analyse des données clients. L'objectif : améliorer la connaissance client, affiner la segmentation, et optimiser les actions marketing grâce à une analyse fine des comportements et parcours clients. Activités et responsabilités de la mission - Analyser les données clients pour identifier des comportements, profils et tendances de consommation. - Construire et maintenir des segmentation clients pertinentes (RFM, appétence, valeur client, cycle de vie.). - Réaliser des analyses ad hoc pour répondre aux besoins des équipes Marketing, CRM, Digital, Produit. - Mettre en place des tableaux de bord Power BI pour suivre les KPIs liés à l'acquisition, l'activation, la fidélisation, et la rétention client. - Collaborer avec les équipes Data Engineering pour la préparation et modélisation des données dans l'environnement Snowflake. - Identifier des opportunités business via des analyses prédictives ou des insights data-driven. - Contribuer à la qualité et cohérence des données clients, en lien avec les équipes IT et Data Governance. Résultats attendus - Mise en place de profils clients exploitables par les équipes métier. - Amélioration de la performance des campagnes marketing grâce à une segmentation plus fine. - Accroissement de la connaissance client et des insights comportementaux. - Mise en place de tableaux de bord dynamiques et accessibles, facilitant la prise de décision. Démarrage : rapide Localisation : métropolie lilloise (1j de télétravail par semaine non négociable)
Freelance

Mission freelance
Data Engineer

Publiée le
Big Data
IA
Java

3 ans
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tester différents LLM peu importe le provider (aws, gcp, azure) Préparer les jeux de données Définir les conditions de succès et d’échec et paramétre les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendu Faire des développements su les produits de la squaq (Java / Python) L'équipe a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. La squad souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment).
Freelance

Mission freelance
Data Analyst - Talend

Publiée le
SQL
Talend

2 ans
350-500 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Pour l'un de nos clients niortais, nous recherchons un Data Analyst Talend : '- Préparer, nettoyer et mettre en qualité les données - Livrer les TDB et accompagner les utilisateurs dans leurs usages - Fournir un appui analytique à la conduite d’exploration et à l’analyse complexe de données - Être force de proposition dans les analyses de données, la sélection et définition des KPI, les tableaux de bord et les formes de présentations possibles. - Communiquer à travers les équipes du service, Poste basé à NIORT.
CDI

Offre d'emploi
Ingénieur Data

Publiée le

25k-30k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Vos missions ? En tant qu' Ingénieur Data , avec un profil hybrique Data et Web, vous serez en charge des missions suivantes: Analyse de besoin, rédaction de spécifications, conception de modèles de courrier Tests et recettes BA Echanges avec les métiers Rôle purement fonctionnel La stack Technique : - Directus - Javascript - Vue JS N'hésitez pas à postuler si vous vous reconnaissez : 2 ou 3 ans minimum dans la fonction d'Ingénieur Data Connaissance de la méthodologie Agile Esprit de compromis / négociation Outre vos compétences techniques, nous nous intéressons également à votre potentiel et votre motivation. Nos postes sont ouverts aux personnes en situation de handicap.
Freelance

Mission freelance
Data / AI Engineer

Publiée le
Databricks
Git
Python

1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, Data Scientists, équipes Produit), vous interviendrez sur l’ensemble de la chaîne data & IA , de la construction des pipelines jusqu’à la mise en production et au suivi des modèles. Vos principales responsabilités : Concevoir et développer des pipelines data robustes (batch et streaming) Préparer, transformer et structurer les données pour les cas d’usage IA Entraîner, évaluer et industrialiser des modèles de Machine Learning Mettre en place le monitoring des données et des modèles Garantir la qualité, la traçabilité et la fiabilité des traitements Collaborer étroitement avec les Data Scientists et équipes produit 🛠️ Industrialisation & MLOps Mise en place des bonnes pratiques de versioning et CI/CD Industrialisation des pipelines et des modèles Contribution à la documentation technique Amélioration continue des performances et de la maintenabilité Participation aux phases de déploiement et de stabilisation
Freelance

Mission freelance
Architecte Data

Publiée le
Amazon S3
AWS Glue
DBT

6 ans
680-700 €
Paris, France
Télétravail partiel
Dans le cadre de l’accélération de sa stratégie data & omnicanale , un acteur majeur du retail / e-commerce renforce sa Data Platform afin de mieux exploiter ses données clients, ventes, logistique et marketing. Nous recherchons un Architecte Data pour accompagner les équipes et garantir une architecture performante, scalable et sécurisée, capable de soutenir de forts volumes et des usages analytiques avancés. Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists, équipes Marketing & Supply), vous interviendrez de manière transverse sur la conception et l’évolution de l’architecture Data de la plateforme. Vos principales responsabilités Définir et garantir la cohérence de la stack Data (ingestion, traitement, exposition) Assurer le respect des normes et standards d’architecture Data & Cloud Mettre en place et sécuriser les contrats d’interface entre les différentes équipes (data, applicatif, BI) Auditer l’architecture existante et proposer des axes d’optimisation (performance, coûts, scalabilité) Accompagner les équipes sur les bonnes pratiques data (qualité, gouvernance, sécurité) Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions data Participer aux phases de tests et d’intégration de nouvelles briques techniques 🛠️ Developer Experience & FinOps Contribution à l’écriture et à l’industrialisation de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et les pipelines CI/CD Définition des standards de développement, de déploiement et d’exploitation Mise en place du suivi budgétaire par équipe et par usage (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification, priorisation et pilotage des optimisations de coûts Cloud
CDI
CDD

Offre d'emploi
Ingénieur DevOps Confirmé Accompagnement Évolution Produit- Sophia Antipolis (H/F)

Publiée le
CI/CD
Kubernetes

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre de l’évolution continue d’un produit stratégique, nous recherchons un Ingénieur DevOps Confirmé pour accompagner la construction, l’automatisation et l’optimisation des environnements techniques. La mission est orientée Kubernetes , CI/CD , Infrastructure as Code et observabilité . 📦 Livrables attendus Construction et maintien des environnements Automatisation complète des chaînes de delivery Documentation technique associée 🛠️ Missions principales Concevoir, déployer et administrer des clusters Kubernetes Intégrer et maintenir les outils de l’écosystème Kubernetes : Istio, Helm, ArgoCD, Prometheus, Grafana… Mettre en place et améliorer les pipelines CI/CD (GitLab CI, Jenkins, ArgoCD…) Surveiller les performances, la sécurité et la disponibilité des infrastructures Automatiser les tâches d’exploitation (Bash, Python, Terraform, Ansible…) Collaborer avec les équipes de développement pour optimiser les déploiements Assurer une veille technique et l’amélioration continue des pratiques DevOps 🧰 Compétences techniques requises (impératives) Kubernetes – Confirmé Jenkins – Confirmé Anglais professionnel – Impératif Compétences complémentaires recherchées Helm, Istio, ArgoCD, FluxCD Monitoring & observabilité : Prometheus, Grafana, Alertmanager, Loki CI/CD : GitLab CI, Jenkins, Argo Workflows IaC : Terraform, Ansible
CDI

Offre d'emploi
Data Engineer H/F

Publiée le
Big Data
Data Lake
Spark Streaming

Île-de-France, France
Télétravail partiel
Le Data Engineer est un développeur au sein de l’équipe Engineering Open Big Data du Département Data, qui regroupe l’ensemble des expertises technologiques liées à l’ingénierie de la donnée, de l’automatisation et à l’exploitation des modèles de Machine Learning. Ce déparetement est dédié au service de notre client et de ses équipes (Data office, Tribus data, Business, Transformation Office etc.), afin de fournir, en collaboration avec le Data Office, les plateformes (RPA, BI, Data, …) et les données nécessaires aux équipes chargées de délivrer les cas d’usages, puis les déployer et les maintenir en conditions opérationnelles.
Freelance

Mission freelance
Data Engineer (F/H)

Publiée le

1 an
380-420 €
Erstein, Grand Est
Télétravail partiel
Freelance OU Portage salarial (TJM : 380-420) - Erstein - Expérience de 3 ans minimum (hors stages / alternance) Envie d’intervenir sur un projet de migration et d’optimisation des flux de données dans le secteur industriel ? Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients dans le secteur industriel. Votre rôle : Vous accompagnerez l’équipe dans la conception, la mise en place et l’optimisation des flux de données et du Datawarehouse. - Développer et maintenir les modèles de données : vous assurez l’alimentation de la base pivot et participez à la migration vers SQL Server 2025, en veillant à la performance et à la fiabilité des données. Vous contribuez également à l’intégration de la recherche vectorielle dans les applications existantes - Mettre en place et optimiser les flux de données : vous concevez et développez des pipelines ETL (SSIS), tout en évaluant la transition vers des solutions Open Source (Polars / Pandas sous Airflow) pour moderniser et automatiser les flux - Accompagner la conception et l’architecture des solutions Data : vous rédigez des cahiers des charges, réalisez des études de faisabilité et conseillez les métiers sur le choix des données pivots, les formats et les modèles adaptés, tout en garantissant la qualité et la cohérence des données - Contribuer à l’exploitation du Datawarehouse : vous intervenez sur la base Oracle et développez des scripts Bash pour automatiser les tâches et faciliter la maintenance des données Situation géographique : Erstein (67) – Facile d’accès en transport en commun
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Azure DevOps
Databricks
Microsoft Power BI

12 mois
40k-50k €
400-450 €
Lille, Hauts-de-France
Nous recherchons un Data Engineer pour travailler sur des projets de collecte, transformation et gestion des flux de données au sein de notre équipe. Le poste requiert des compétences techniques en Data Bricks , Python , SQL et Azure DevOps pour assurer le bon déroulement des pipelines de données. De plus, des connaissances de base dans l’utilisation de Power BI et une approche agile basée sur Scrum sont attendues. Le Data Engineer jouera un rôle clé dans la mise en place et l'optimisation des processus de gestion des données, en s'assurant de la qualité, de la transformation et de l'intégration des données dans des environnements Azure. Responsabilités : Collecte et transformation des données : Concevoir et développer des pipelines de collecte de données et de transformation (ETL) à l’aide des technologies adaptées (notamment Data Bricks ). Gestion des flux de données : Assurer l’intégration et la gestion fluide des flux de données entre les différentes sources et plateformes. Développement Python & SQL : Créer des scripts Python et des requêtes SQL pour manipuler, nettoyer et transformer les données. Support Azure DevOps : Utiliser Azure DevOps pour gérer les processus de déploiement et d’intégration continue (CI/CD). Participation aux projets Power BI : Fournir un soutien de base pour les projets Power BI, notamment au niveau sémantique (compréhension des données et modèles). Méthodologie Agile : Travailler en étroite collaboration avec l'équipe produit dans un cadre Agile (méthodologie Scrum) pour assurer la livraison rapide et efficace des projets. Compétences requises : Techniques : Maîtrise des technologies Data Bricks , Python , SQL . Expérience avec Azure DevOps pour la gestion des déploiements et de l’intégration continue. Power BI : Connaissances de base en sémantique des données et modèle de données dans Power BI. Connaissance des processus ETL pour la gestion de la collecte, transformation et stockage des données. Agilité : Bonne maîtrise des méthodes Agile , avec une expérience en Scrum . Compétences en communication : Capacité à travailler efficacement en équipe, à échanger et à comprendre les besoins fonctionnels pour traduire ces besoins en solutions techniques. Profil recherché : Formation : Bac+5 en informatique, data science, ou dans un domaine similaire. Expérience : Minimum 2 à 3 ans d’expérience en tant que Data Engineer ou sur un poste similaire avec des compétences en développement Python, SQL et gestion des données. Autonomie et capacité à travailler dans un environnement dynamique et en constante évolution. Compétences appréciées : Expérience avec Azure Synapse , Azure Data Lake , ou autres outils cloud pour la gestion des données. Bonne capacité à comprendre et à travailler avec des données complexes et variées. Connaissance approfondie des bonnes pratiques en data engineering (qualité, transformation, gestion des données).
Freelance

Mission freelance
Data Steward Lyon H/F

Publiée le
Data quality
Database

6 mois
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Data Steward pour une mission de 6/12 mois afin de garantir la qualité, la cohérence et la gouvernance des données d'une société en pleine migration de son SI. L'objectif est d'amorcer un gros chantier d'alimentation/ documentation de données métiers afin de sensibiliser les collaborateurs. Au sein d'une équipe de 6 personnes, vous aurez pour missions principales d'assurer: la qualité des données : mettre en place et suivre les règles de contrôle (DQM, définition de principes, règles, contrôle qualité). la gouvernance : appliquer les standards définis par la Data Governance (data catalogue, glossaire métier, référentiels, dashboard, alerting). la documentation : enrichir et maintenir le dictionnaire de données, les métadonnées et les règles de gestion. le support aux métiers : accompagner les équipes dans l’usage et la compréhension des données. la collaboration IT/Business : assurer le lien entre les équipes techniques et les métiers pour garantir la pertinence des données. En somme, vous formalisez le cycle de vie de la data et harmonisez/structurez les process de documentations.
Freelance

Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France

Publiée le
Big Data
Cloud
Infrastructure

6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
1477 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous