Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 271 résultats.
Freelance
CDI

Offre d'emploi
Product Owner Big Data

KLETA
Publiée le
Big Data
Product management

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
CDI

Offre d'emploi
Lead data (H/F)

Amiltone
Publiée le

40k-45k €
Villeurbanne, Auvergne-Rhône-Alpes
Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github
CDI

Offre d'emploi
CONSULTANT DATA H/F

PROMAN EXPERTISE
Publiée le
Microsoft Power BI

37k-40k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Vos missions ? Rattaché(e) au Responsable SI, vous contribuez à la mise en place, la fiabilité et l’évolution des données utilisées par l’entreprise et ses services internes. Vous serez notamment chargé(e) de : - Gestion et exploitation de la donnée o Mettre en œuvre la collecte, le stockage et l’exposition de données de différentes natures. o Développer et administrer la base de données centrale (SQL). o Maintenir et faire évoluer les indicateurs existants. - Outils et automatisation o Gérer des flux de données et ETL (Microsoft SSIS). o Concevoir des outils digitaux pour dématérialiser des tâches métiers (low‑code). o Développer ou participer à la création de solutions facilitant le traitement et le partage de l’information. - Sécurité & documentation o Garantir le respect des règles de sécurité informatique définies par le service SI. o Rédiger des modes opératoires, documentations techniques et rapports. o Assurer un reporting clair de vos actions auprès de votre hiérarchie. Environnement technique : Suite Microsoft Power BI/Automate/Apps, SSIS, SQL
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

30k-60k €
Lille, Hauts-de-France
Data Engineer – GCP / BigQuery – Plateforme Data Groupe Lille (2 jours sur site minimum) – Environnement bancaire / Data Platform Vous souhaitez contribuer à la construction et à l’évolution d’une plateforme Data stratégique à l’échelle d’un grand groupe bancaire ? Nous recherchons un Data Engineer pour renforcer l’équipe en charge du Socle Cloud Data Platform Groupe . Vos missions Build Concevoir et développer les flux d’alimentation du DataLake Groupe Mettre en place des solutions de data engineering sur Google Cloud Platform (BigQuery) Développer et maintenir les outillages nécessaires aux certifications de données du projet ORION Identifier et exploiter les sources de données pertinentes Participer à la modélisation et à la transformation des données Collaborer avec les Data Analysts et Data Stewards Run Assurer le suivi de production des chaînes d’alimentation de données Analyser et résoudre les incidents en collaboration avec les équipes de production Participer aux évolutions techniques et optimisations de la plateforme
Freelance

Mission freelance
Data Engineer (F/H)

CELAD
Publiée le

1 an
Lille, Hauts-de-France
Data Engineer – GCP / BigQuery – Plateforme Data Groupe Lille (2 jours sur site minimum) – Environnement bancaire / Data Platform Vous souhaitez contribuer à la construction et à l’évolution d’une plateforme Data stratégique à l’échelle d’un grand groupe bancaire ? Nous recherchons un Data Engineer pour renforcer l’équipe en charge du Socle Cloud Data Platform Groupe . Vos missions Build Concevoir et développer les flux d’alimentation du DataLake Groupe Mettre en place des solutions de data engineering sur Google Cloud Platform (BigQuery) Développer et maintenir les outillages nécessaires aux certifications de données du projet ORION Identifier et exploiter les sources de données pertinentes Participer à la modélisation et à la transformation des données Collaborer avec les Data Analysts et Data Stewards Run Assurer le suivi de production des chaînes d’alimentation de données Analyser et résoudre les incidents en collaboration avec les équipes de production Participer aux évolutions techniques et optimisations de la plateforme
CDI

Offre d'emploi
Consultant DataOps / Administrateur Hadoop

Craftman data
Publiée le
Ansible
CI/CD
Docker

La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
CDI
Freelance

Offre d'emploi
Data Analyst expert BIG DATA xp Hadoop

ARDEMIS PARTNERS
Publiée le
Big Data
Data analysis
Hadoop

3 mois
30k-45k €
320-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Afin de renforcer les capacités d’analyse et de valorisation de la donnée au sein de la société (organisme collecteur de gestion), nous recherchons un Data Analyst Big Data capable d’intervenir sur des environnements de données volumineuses et complexes. Le Data Analyst interviendra sur l’analyse, l’exploitation et la transformation de données issues de différentes sources afin de produire des insights à forte valeur ajoutée pour les équipes métiers et techniques. Il contribuera à la mise en place de solutions analytiques performantes sur des architectures Big Data , en collaboration étroite avec les équipes Data Engineering, IT et métiers. Mission Le Data Analyst interviendra sur des activités d’analyse, de traitement et de valorisation de données à grande échelle. Analyse et exploitation des données Collecter, analyser et exploiter de grands volumes de données issues de différentes sources. Concevoir et produire des analyses permettant d’identifier des tendances, comportements et opportunités business. Mettre en place des indicateurs de performance et tableaux de bord pour le suivi des activités. Traitement et préparation des données Manipuler et transformer des données volumineuses via des technologies Big Data (Spark / Hadoop) . Nettoyer, structurer et enrichir les données pour garantir leur qualité et leur exploitabilité. Collaborer avec les équipes Data Engineering pour optimiser les pipelines de données. Production d’insights et accompagnement métier Traduire les besoins métiers en analyses de données exploitables. Restituer les résultats sous forme de visualisations ou de recommandations. Accompagner les équipes métiers dans la compréhension et l’utilisation des analyses produites. Collaboration technique Travailler en collaboration avec les équipes Data Engineers, Data Scientists et IT . Participer à l’amélioration continue des outils et des processus d’analyse de données.
Freelance

Mission freelance
Data Engineer (H/F)

HAYS France
Publiée le
Architecture
AWS Cloud
Azure

6 mois
450-600 €
Monaco
Le poste consiste à concevoir et construire une plateforme data complète , utilisée pour : Collecter en temps réel les données des machines à sous Stocker et structurer ces données (ODS / DWH) Générer des statistiques réglementaires pour les autorités Analyser le chiffre d’affaires et les performances des machines et jeux Alimenter les outils anti‑fraude et AML Mettre en place une gouvernance data solide Architecture & Conception Data Engineering – Implémentation Structuration & bonnes pratiques Collaboration avec les équipes internes
Freelance
CDI

Offre d'emploi
Chef de projet data Confirmé

VISIAN
Publiée le
Budget Management
Data management
Data quality

1 an
40k-55k €
400-600 €
Paris, France
Descriptif du Poste Nous recherchons un chef de projet confirmé pour planifier, coordonner, et faire le suivi opérationnel du déploiement mondial des Data products au sein d'une division dédiée à la gestion de l'énergie. Le projet consiste à définir avec plusieurs métiers et pays (UK, US, Italie, Espagne au moins) un planning d'adoption de 3 à 4 solutions data (gestion des données fondamentales, gestion des données de production des centrales éoliennes et solaires, gestion des données de marché...) puis à coordonner ces déploiements avec les chefs de projets de chacun de ces produits et les pays concernés. Il faudra aussi coordonner les travaux d'une équipe dédiée à ces déploiements (3 à 4 personnes réparties dans les différents projets). Le chef de projet confirmé devra assurer le reporting, la gestion des risques, les budgets de déploiement.
CDI

Offre d'emploi
Consultant Data Scientist H/F

█ █ █ █ █ █ █
Publiée le
Python
SQL

35k-55k €
69001, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance
CDD

Offre d'emploi
Technical Security Architect – Cyber Defense Migration

RIDCHA DATA
Publiée le
API
cyberark
Gestion des accès privilégiés (PAM)

1 an
Paris, France
Contexte de la mission Dans le cadre du projet CD OneDC , le consultant interviendra au sein des équipes Cyber Defense afin d’accompagner la migration des services de sécurité vers les nouveaux data centers virtualisés . La mission se déroulera en collaboration avec les équipes produits, architectes et le chef de projet , dans un environnement international. Missions Le consultant interviendra sur les activités suivantes : Architecture et migration Piloter l’architecture technique de sécurité pour les plans de migration des services Cyber Defense. Contribuer à la migration du portefeuille de produits Cyber Defense vers les nouveaux data centers virtualisés. Identifier les dépendances entre les produits et services de cybersécurité. Garantir que les plans de migration sont compatibles avec les environnements techniques AXA. Travailler avec les équipes transverses afin d’assurer une migration fluide sans compromettre la sécurité. Conception et documentation Définir plusieurs options d’architecture et analyser leurs avantages et inconvénients. Expliquer les impacts de la consolidation des services (techniques, organisationnels et financiers). Participer à la mise à jour ou création des Low Level Design post-migration . Identifier les opportunités d’amélioration et de standardisation des architectures et solutions. Pilotage et coordination Structurer et enrichir le backlog projet et délivrer les livrables associés. Participer à la gouvernance architecture et produit du projet. Organiser et animer des sessions de communication avec les parties prenantes et équipes d’expertise. Collaborer avec le chef de projet pour définir un plan de migration réaliste avec estimations. Validation et contrôle Définir les critères et plans de monitoring de disponibilité des services . Mettre en place un plan de test pour valider les services pendant les phases de migration. Environnement technique Le consultant devra être capable d’avoir des discussions techniques avancées sur les sujets suivants : Cyber Security & Architecture Concepts de sécurité de l’information Évaluation des risques Architecture de sécurité Technologies de Cyber Defense Identity & Access Security Privileged Access Management (PAM) CyberArk Thycotic Password Complexity Checkers Cryptography & Key Management Hardware Security Modules (HSM) nCipher Thales Utimaco SecurityServer YubiHSM Data Protection DLP Solutions Forcepoint Microsoft Teramind Endpoint Security Antivirus / EDR CrowdStrike SentinelOne Symantec Microsoft Defender for Endpoint Network Security IPS / Firewall / DDoS protection Secure Web Gateway Shadow Cloud monitoring Secure Email Gateway Web Application Firewall Technologies associées : Cisco Firepower Palo Alto Networks Fortinet SkyHigh Zscaler SOC & Monitoring Log collection & SIEM ArcSight Microsoft Sentinel AMA Beats Cribl Infrastructure Troubleshooting systèmes d’exploitation Troubleshooting réseau
Freelance

Mission freelance
 ingénieur applicatif Talent & Performance Workday Anglais 520 e par jour

BI SOLUTIONS
Publiée le
Data Lake
Workday

2 ans
400-520 €
Île-de-France, France
ingénieur applicatif Talent & Performance Workday 520 e par jour ANGLAIS Préparer et soutenir les campagnes Talent et Performance - telles que notre suivi du développement, l'évaluation de performance de fin d'année, la campagne de définition des objectifs ou les revues de talents : Configurer des règles d'éligibilité complexes, Préparer des modèles Configurer les notifications, les textes d'aide et leurs traductions Créer des documents dans Document pour la mise en page et BIRT Mettre à jour les rapports avec le soutien d'un expert en reporting si nécessaire Mettre en œuvre des modifications de sécurité et travailler en collaboration avec l'équipe Sécurité Workday Prerequisites: Workday Talent & performance certification and experience in complex configuration (calculated fields, EIBs, migration of data using OX…) Knowledge of BIRT and document for layout would be greatly 520 e par j
Freelance
CDI

Offre d'emploi
Data Analyst (H/F) – Big Data / Lutte contre la fraude

QODEXIA
Publiée le
Hadoop
PowerBI
PySpark

10 jours
Aix-en-Provence, Provence-Alpes-Côte d'Azur
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Data Analyst (H/F) – Big Data / Lutte contre la fraude Localisation : Aix-en-Provence Démarrage : ASAP Type de mission : Mission longue durée Contexte Dans le cadre d’un projet stratégique autour de la lutte contre la fraude , nous recherchons un Data Analyst capable d’exploiter et d’analyser les données du système d’information afin d’identifier des incohérences, détecter des comportements suspects et proposer des analyses à forte valeur ajoutée pour les équipes métiers. Le consultant interviendra dans un environnement Big Data et contribuera à la mise en place de cas d’usage analytiques et prédictifs.
CDI

Offre d'emploi
Data Architect H/F

OBJECTWARE
Publiée le
Azure Data Factory
Microsoft Fabric
Microsoft Power BI

60k-65k €
Bordeaux, Nouvelle-Aquitaine
Résumé du poste Notre client recherche un Data Architect expérimenté pour rejoindre une équipe Data Fabric et contribuer à la conception et à la mise en œuvre de l’architecture data à l’échelle de l’entreprise. Le rôle se concentre sur la création de produits de données réutilisables pour les domaines métiers , en travaillant étroitement avec les équipes Master Data Management (MDM), Data Engineers, Data Analysts, Information Security ainsi que les parties prenantes métiers. Le poste combine leadership architectural et travail opérationnel , incluant la modélisation de données, la conception d’intégrations, la mise en œuvre de la gouvernance et la configuration de la plateforme . Principales responsabilitésArchitecture de données & gouvernance Identifier et formaliser les domaines de master data à l’échelle de l’entreprise (Customer, HR, Finance, etc.). Collaborer avec l’équipe MDM pour concevoir les structures de golden record, la logique de consolidation et les flux d’intégration . Concevoir et documenter des produits de master data réutilisables (schémas, contrats, modes d’accès, APIs). Contribuer à la modélisation des données aux niveaux conceptuel, logique et physique sur les différents domaines de données. Travailler avec les Data Engineers pour traduire l’architecture en medallion layers, zones curées et pipelines d’intégration . Définir des standards de gouvernance incluant ownership, stewardship, lineage, classification et gestion du cycle de vie des données . Configurer les standards de métadonnées et les structures du catalogue de données afin d’assurer la découvrabilité et la réutilisation . S’assurer que les décisions architecturales sont clairement documentées et exploitables . Évolution de la plateforme, qualité & gouvernance Concevoir et mettre en œuvre des modèles de sécurité des données (RBAC, classification, masquage, contrôles de confidentialité). Participer à la mise en œuvre et à l’exploitation des outils de gouvernance des données (ex : Microsoft Purview), incluant scans, validation du lineage et classification . Définir des standards pour la documentation, la découvrabilité et l’enregistrement des data products dans la plateforme . Examiner les implémentations des domaines de données afin d’éviter la duplication ou la fragmentation des master data . S’assurer que la gouvernance et les métadonnées sont intégrées dans les processus CI/CD et de déploiement . Identifier et réduire les risques liés à l’incohérence des données, aux shadow master data ou à la prolifération non contrôlée des données . Contribuer à l’évaluation de nouvelles technologies et analyser leurs impacts en matière de gouvernance et d’intégration . Support et accompagnement Fournir un accompagnement architectural aux Data Engineers et Data Analysts . Participer à des ateliers techniques et sessions de conception . Accompagner l’ intégration de nouveaux domaines de données via des templates architecturaux et des implémentations de référence . Promouvoir des pratiques cohérentes en matière de métadonnées, sécurité et qualité des données . Agir comme interface entre l’équipe Data Platform, l’équipe MDM et les parties prenantes gouvernance / sécurité .
Freelance
CDI

Offre d'emploi
Data Scientist Computer Vision sur Alsace

EterniTech
Publiée le
Computer vision
Data science
Vertex AI

3 mois
Grand Est, France
Je recherche pour un de mes clients un Data Scientist Computer Vision sur Alsace Vos missions Développer des modèles de Computer Vision pour identifier les fonctions et contenus des objets dans des images Accompagner les équipes commerciales dans l’exploitation des outils de classification et d’analyse visuelle Déployer et maintenir des solutions de traitement d’images en production sur GCP (Vertex AI) Concevoir des pipelines et algorithmes permettant la visualisation en temps réel de scènes d’ameublement Collaborer avec les équipes métier pour traduire les enjeux business en solutions techniques et aider au déploiement en production. Assurer une veille technologique pour intégrer les dernières avancées en vision par ordinateur Profil recherché Compétences techniques : Maîtrise des technologies Computer Vision (détection, segmentation, classification d’images) Expérience avec Vertex AI et déploiement sur GCP Solides connaissances en machine learning et deep learning Maîtrise de Python et frameworks associés (TensorFlow, PyTorch…) Connaissance des pipelines de production et des bonnes pratiques MLOps Profil : Diplôme Bac+5 (Data Science, IA, Informatique ou équivalent) Expérience significative en Computer Vision de 2 ans minimum dans des contextes similaires Capacité à comprendre les enjeux business et à collaborer avec les équipes commerciales Autonomie, rigueur et curiosité technologique Projets innovants à forte valeur business Impact direct sur les ventes et l’expérience client Environnement technologique moderne et dynamique Télétravail flexible et équipe collaborative
CDI
Freelance

Offre d'emploi
Data Scientist Computer Vision

Craftman data
Publiée le
Data science
Deep Learning
Google Cloud Platform (GCP)

3 mois
Grand Est, France
Dans le cadre de notre croissance, nous renforçons notre équipe data et recherchons un(e) Data Scientist spécialisé(e) en Computer Vision pour concevoir des solutions IA à fort impact business dans l’univers de l’ aménagement intérieur . Notre ambition : exploiter la donnée et l’IA pour aider les équipes commerciales à identifier les besoins clients et à configurer des scènes d’ameublement en temps réel , directement à partir d’images. 🎯 Vos missions Développer des modèles de Computer Vision (détection, segmentation, classification d’images) Transformer des images en insights actionnables pour les équipes commerciales Déployer et maintenir des solutions de traitement d’images en production sur GCP (Vertex AI) Concevoir des pipelines et algorithmes de visualisation temps réel de scènes d’ameublement Collaborer étroitement avec les équipes métier pour traduire les enjeux business en solutions techniques Participer au déploiement en production et aux bonnes pratiques MLOps Assurer une veille technologique continue en vision par ordinateur 🧠 Profil recherché Bac+5 en Data Science, IA, Informatique ou équivalent Minimum 2 ans d’expérience en Computer Vision dans des contextes similaires Solide maîtrise du Machine Learning / Deep Learning Très bonne maîtrise de Python et des frameworks TensorFlow / PyTorch Expérience du déploiement de modèles sur GCP / Vertex AI Connaissance des pipelines de production et des pratiques MLOps Capacité à comprendre les enjeux business et à travailler avec des équipes commerciales Autonomie, rigueur et curiosité technologique ✨ Pourquoi nous rejoindre ? Projets innovants à forte valeur business Impact direct sur les ventes et l’expérience client Environnement technologique moderne et stimulant Télétravail flexible et équipe collaborative
6271 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous