Trouvez votre prochaine offre d’emploi ou de mission freelance Data quality
Votre recherche renvoie 83 résultats.
Mission freelance
IA Delivery Lead
ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la IA Delivery Lead pilote une équipe dédiée à la conception et à la livraison de solutions d’intelligence artificielle. Encadrement Management fonctionnel d’une équipe pluridisciplinaire : Product Owner Copilots & Agents IA Business Analyst / AMOA IA Spécialiste fonctionnel RAG / Prompt (optionnel) Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Lead est responsable du pilotage de bout en bout des cas d’usage en intelligence artificielle (copilots, agents, solutions RAG), depuis leur cadrage jusqu’à leur mise en production, leur adoption et la mesure de leur valeur. Il/elle garantit la structuration des projets, la coordination des parties prenantes et la qualité des livrables, tout en assurant un impact métier mesurable. Responsabilités principales 1. Cadrage et qualification Animer les ateliers de cadrage avec les métiers Évaluer la faisabilité fonctionnelle et l’effort de delivery Définir les critères de succès (valeur, adoption, qualité, risques) Intégrer les enjeux de données, de traçabilité et de conformité 2. Pilotage du delivery Construire et piloter les plans de delivery (jalons, sprints, capacité) Coordonner les parties prenantes internes et externes Gérer les risques, dépendances et arbitrages Garantir la qualité des livrables (backlog, spécifications, décisions) 3. Recette et validation Préparer et animer les comités de validation Définir les critères d’acceptation et organiser la recette fonctionnelle Coordonner les validations finales (go / no-go) 4. Déploiement et adoption Définir la stratégie de déploiement (pilote, passage à l’échelle) Accompagner l’adoption (formation, communication, support) Mettre en place les indicateurs d’usage (adoption, fréquence, satisfaction) Organiser les boucles de feedback 5. Mesure de la valeur Suivre les gains générés (temps, qualité, réduction des risques) Piloter l’amélioration continue des solutions 6. Qualité et fiabilité Définir les standards de qualité des solutions IA Mettre en place des contrôles fonctionnels Suivre et corriger les écarts 7. Industrialisation Capitaliser sur les retours d’expérience Standardiser les méthodes et outils (copilots, agents, RAG) Contribuer à l’industrialisation des pratiques IA
Mission freelance
Product Owner Data / Observabilité - ASAP - 92
Montreal Associates
Publiée le
Data quality
Grafana
Intégration
7 mois
550-650 €
Clichy, Île-de-France
Product Owner Data / Observabilité - ASAP - 92 Dans le cadre d’un produit de monitoring & réconciliation de données (E-commerce, Retail, CRM), nous recherchons un Product Owner expérimenté pour piloter la fiabilité des flux et la détection d’anomalies dans un environnement international. 🎯 Objectifs et Environnements Priorisation des use cases (contrôles & alerting) Traduction besoins métier → backlog / user stories Suivi roadmap & qualité des dashboards Microsoft Azure (SQL, Functions) Microsoft Power BI Microsoft Power Automate 👤 Profil Recherché PO spécialisé Data / monitoring / intégration Bonne compréhension des flux data Anglais courant #Freelance #ProductOwner #Data #Observabilité #Monitoring #Ecommerce
Mission freelance
Consultant Senior Data Management / Data Quality
Inventiv IT
Publiée le
Collibra
Data governance
Data management
6 mois
550-700 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data , nous recherchons un Consultant Senior Data Management / Data Quality pour structurer et industrialiser les pratiques de qualité des données. La mission vise à mettre en place un cadre global de Data Quality Management ainsi qu’une offre de services Data Quality , en interaction avec les équipes Data, IT et métiers. Missions principalesStructuration Data Quality Définir et déployer un framework Data Quality Management . Mettre en place les processus de gestion de la qualité des données . Formaliser la gouvernance Data Quality (rôles, RACI, comitologie) . Définir les dimensions de qualité et les règles associées. Pilotage & conduite de programme Piloter ou contribuer à des projets Data complexes et transverses . Animer des ateliers métiers et IT (élicitation, co-construction). Assurer l’alignement entre enjeux métiers, Data et IT . Contribuer à la structuration d’une offre de services Data Quality . Production & conduite du changement Produire les livrables structurants (templates, référentiels, bonnes pratiques). Concevoir des supports d’acculturation et de vulgarisation . Accompagner la conduite du changement et l’adoption des pratiques Data Quality. Contribuer à l’enrichissement des référentiels documentaires . Architecture & alignement technique Collaborer avec les équipes techniques sur la définition d’une architecture Data cible . S’inscrire dans un environnement basé sur une plateforme Data moderne (ex : Databricks) . Environnement technique Data Management & Data Governance Data Quality Management (DQM) Data Catalog : Collibra Plateformes Data : Databricks Méthodologies : Agile Outils documentaires / collaboratifs
Offre d'emploi
Data Quality Analyst senior
FIRST CONSEIL
Publiée le
BigQuery
Data quality
Google Cloud Platform (GCP)
6 mois
40k-45k €
400-550 €
Île-de-France, France
Au sein d'une équipe composée de data analysts intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer, analyser et documenter les données du data warehouse du groupe; Contribuer à l’amélioration de la qualité du data warehouse : mettre en place le plan d’action défini sur 2026 : contrôles, monitoring et alerting Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. Notre stack data : GCP, BigQuery, Python, Looker Studio Profil recherché Formation : Diplôme de niveau BAC +4 à 5, en école d’ingénieurs ou université spécialisé en statistiques, data science, informatique décisionnelle ou data management ; Langues : Français et Anglais courant exigés ;
Mission freelance
Business Analyst / Data – AML Monitoring - Paris
Net technologie
Publiée le
AML (Anti-Money Laundering)
Business Analysis
Data governance
1 an
Paris, France
Dans le cadre du programme AML Monitoring , nous recherchons un(e) Business Analyst orienté Data pour accompagner les initiatives d’amélioration de la couverture des risques AML sur plusieurs lignes métier. 🎯 Enjeux : amélioration de la résolution d’entités et de la qualité / enrichissement des données au sein de la chaîne AML. 🚀 Missions Définition des Business Requirements et rédaction des spécifications fonctionnelles Définition et exécution de la stratégie de tests Coordination avec les équipes de développement Reporting d’avancement, gestion des risques et des incidents 📊 Sur les initiatives Data : Intégration des solutions de Entity Resolution dans la chaîne AML Mise en place du référentiel d’entités et suivi de la qualité des données Définition et implémentation de contrôles automatiques Analyse des incidents et rédaction de Production Incident Reports
Offre d'emploi
Data Quality / VBA Developer (H/F)
OMICRONE
Publiée le
Microsoft Access
Microsoft Excel
Microsoft Power BI
2 ans
40k-45k €
400 €
Île-de-France, France
📢 Mission – Data Quality / VBA Developer (H/F) Dans le cadre d’un programme de transformation data au sein d’un grand groupe bancaire, nous recherchons un consultant confirmé en VBA / Data Quality pour intervenir sur des sujets de réconciliation de données et automatisation de processus . 🔹 Missions : Maintenance et évolution de scripts VBA (Excel / Access) Pilotage des processus de réconciliation de données Exécution et suivi de bulk data Administration et migration SharePoint Online Suivi des incidents et amélioration des processus 🔹 Environnement technique : VBA, Excel, Access, SQL, PowerShell, SharePoint Online, ServiceNow, Power BI 📍 Localisation : France (présentiel + télétravail) 📅 Démarrage : Avril 2026 👤 Expérience : 3 ans minimum
Mission freelance
Responsible AI Lead
ESENCA
Publiée le
Agent IA
Data quality
Large Language Model (LLM)
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la Responsible AI Lead pilote la gouvernance de l’intelligence artificielle et garantit la conformité, la sécurité, l’éthique et la maîtrise des risques des systèmes IA. Encadrement Management d’une équipe spécialisée pouvant inclure : Analyste Responsible AI & Traçabilité Responsable Contrôles & Tests IA (QA IA) AI Policy Manager Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Fonctions conformité (DPO, RSSI, juridique) Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, agents, etc.) Cabinets spécialisés (audit, conformité, IA) Mission Le/la Responsible AI Lead est garant(e) de la gouvernance globale des systèmes d’intelligence artificielle. Il/elle s’assure que les cas d’usage respectent les exigences réglementaires et internes (notamment en matière de conformité, d’éthique, de sécurité et de gestion des risques), tout au long de leur cycle de vie, du cadrage au run. Responsabilités principales 1. Gouvernance et conformité IA Définir et déployer la politique d’usage de l’IA Structurer le cadre de gouvernance (standards, processus, rôles) Classifier les cas d’usage selon leur niveau de risque Définir les exigences de documentation, traçabilité et versioning 2. Gestion des risques IA Conduire les analyses de risques par cas d’usage Classifier les systèmes selon leur criticité (faible, limité, élevé) Définir les contrôles adaptés (tests, supervision, documentation) Coordonner les validations avec les fonctions conformité (juridique, DPO, sécurité) 3. Contrôles et tests IA Définir les stratégies de tests non fonctionnels : robustesse biais sécurité hallucinations dérive des modèles Fixer les critères de validation (go / no-go) Superviser les campagnes de tests IA 4. Documentation et audit Piloter la documentation réglementaire des systèmes IA Maintenir un registre des cas d’usage IA Organiser les audits internes et externes Suivre les plans de remédiation 5. Supervision en production Définir les exigences de monitoring (logs, incidents, dérives) Suivre la performance et la fiabilité des systèmes IA Mettre en place des revues périodiques Piloter la gestion des incidents IA 6. Pilotage des coûts (FinOps IA) Définir les règles de consommation (quotas, garde-fous) Suivre les coûts et l’efficience des solutions IA Recommander des optimisations 7. Diffusion des bonnes pratiques Déployer la charte éthique IA Sensibiliser et former les équipes aux enjeux de l’IA responsable Accompagner les équipes projets dans l’application des standards Promouvoir une culture de l’IA responsable à l’échelle de l’organisation
Offre d'emploi
Chef de projet data Confirmé
VISIAN
Publiée le
Budget Management
Data management
Data quality
1 an
40k-55k €
400-600 €
Paris, France
Descriptif du Poste Nous recherchons un chef de projet confirmé pour planifier, coordonner, et faire le suivi opérationnel du déploiement mondial des Data products au sein d'une division dédiée à la gestion de l'énergie. Le projet consiste à définir avec plusieurs métiers et pays (UK, US, Italie, Espagne au moins) un planning d'adoption de 3 à 4 solutions data (gestion des données fondamentales, gestion des données de production des centrales éoliennes et solaires, gestion des données de marché...) puis à coordonner ces déploiements avec les chefs de projets de chacun de ces produits et les pays concernés. Il faudra aussi coordonner les travaux d'une équipe dédiée à ces déploiements (3 à 4 personnes réparties dans les différents projets). Le chef de projet confirmé devra assurer le reporting, la gestion des risques, les budgets de déploiement.
Mission freelance
PO DATA - Expérience data clinique / santé impératif
Net technologie
Publiée le
Data governance
Data quality
1 an
France
Nous recherchons un consultant PO expérimenté sur des données cliniques en environnement international (fluent english). Vos missions : Intervenir sur des initiatives liées aux données opérationnelles cliniques en faisant le lien entre les équipes métiers, cliniques et data engineering. ❇️ Recueillir et formaliser les besoins métiers autour des données cliniques ❇️ Traduire les exigences fonctionnelles en spécifications data exploitables ❇️ Contribuer à la qualité, gouvernance et traçabilité des données ❇️ Animer des ateliers et coordonner les parties prenantes ❇️ Travailler en environnement Agile (Jira, Confluence)
Mission freelance
ERP Data Lead - planification industrielle
The Yellow Office
Publiée le
CoreData
Data governance
Data quality
3 ans
Yvelines, France
ERP Data Lead – Transformation Industrielle & Core Model Data Je recherche un ERP Data Lead capable de piloter la structuration du modèle de données dans le cadre d’une migration ERP majeure au sein d’un groupe industriel. Ce n’est pas un rôle de BA classique. C’est un rôle transverse, stratégique, au croisement de la planification industrielle, des référentiels ERP et de la gouvernance Data. Contexte L’entreprise prépare une transformation ERP structurante. Objectif : identifier les points de blocage organisationnels et data afin d’unifier le core model Data, harmoniser les référentiels et améliorer durablement la qualité des données. Mission longue, structurante, avec impact direct sur l’organisation. Expertise métier indispensable • Planification industrielle • S&OP • IBP • MPS / MRP • Compréhension fine des flux industriels Le consultant doit maîtriser les fondamentaux terrain : • Bill of Material (BOM) • Work Orders • Logique de nomenclature, ordonnancement, planification Il doit parler le langage métier, pas seulement IT. Dimension Data attendue • MDM • Data Quality • Data Catalogue • Harmonisation des référentiels ERP • Structuration du core model Rôle • Identifier les blocages organisationnels liés aux données • Analyser les impacts métier de la migration ERP • Structurer et unifier le modèle de données cible • Améliorer la qualité et l’usage des données industrielles • Faire le lien entre métiers, IT et équipes Data Informations mission • Localisation : Yvelines (78) • Télétravail : 2 jours par semaine • Durée : 2 à 3 ans • Démarrage : dans les 3 mois • Anglais technique minimum • Contrat : Freelance On cherche un profil capable de comprendre que dans l’industrie, une mauvaise donnée ERP n’est pas un détail, c’est un risque opérationnel. Contact
Mission freelance
Data Manager expert modélisation de données (H/F)
Cherry Pick
Publiée le
Data analysis
Data quality
Snowflake
12 mois
600-630 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Manager expert modélisation de données(H/F), pour le compte de l'un de ses clients qui opère dans le domaine Hôtelier. Description 🎯 Contexte de mission Dans le cadre d’un programme stratégique au sein d’une direction Data, nous recherchons un Data Manager Senior intervenant en rôle transverse sur le domaine Customer et les autres domaines data. La mission vise à garantir la cohérence, la standardisation et la qualité long terme du paysage data , en assurant l’alignement entre les équipes métier, produit et techniques. 🚀 Missions principales et rôle Le Data Manager agit comme référent fonctionnel transverse , garant des standards de data management et facilitateur entre les équipes. 🏗️ 1. Cadrage & Design des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products Apporter une forte compréhension fonctionnelle des processus Customer Conseiller sur les choix de modélisation (complexité, faisabilité, impacts transverses) Garantir l’alignement avec l’architecture cible et les standards existants 📐 2. Standards & Gouvernance Data Définir et maintenir les standards de data management (règles de modélisation, conventions de nommage, documentation) Structurer les règles de qualité, contrôles et réconciliations Assurer la cohérence et l’adoption des standards au sein du domaine Customer Garantir la qualité de la documentation technique et de la data lineage Être le point de référence sur les pratiques de gouvernance 🌐 3. Urbanisation & Cohérence Transverse Assurer l’interopérabilité entre domaines data Identifier doublons, incohérences et fragmentation des concepts Customer Formuler des recommandations d’optimisation et de simplification Promouvoir la réutilisation et l’harmonisation des modèles Contribuer à la vision long terme de la qualité data 📦 Livrables attendus Support continu aux activités de data management Documentation technique des données (modèles, définitions, lineage) Mise en place et suivi des règles de qualité et de contrôle Coordination des parties prenantes Recommandations d’urbanisation et d’harmonisation
Mission freelance
Data Manager / Data Steward
Codezys
Publiée le
Data management
Data quality
Lean
12 mois
Rennes, Bretagne
Nous recherchons un profil capable de renforcer notre équipe de Data Management afin de soutenir la réalisation de nos engagements concernant nos offres de services dans ce domaine. Cette personne accompagnera également nos parties prenantes métier dans leurs projets liés à la gestion des données. ENJEUX La mission vise à garantir le succès des initiatives métier portant sur le catalogage des données et leur nettoyage, en particulier lors de projets de transformation majeurs. OBJECTIFS Contribuer à l’enrichissement et au renforcement de notre offre de services en Data Management (méthodologies, outils, formations, accompagnement au changement…) Faciliter la collaboration entre les équipes (Data, IT, architecture, métier) autour de la gestion des données (catalogage, qualité, documentation, sécurité, modélisation…) Professionnaliser et accompagner la montée en compétences des Data Owners, Data Stewards et Data Custodians concernant leurs rôles liés à la qualité des données Participer à l’amélioration de la culture Data au sein de l’organisation Le périmètre technique englobe : Data Gouvernance Data Management Data Quality DAMAS Méthodologies Lean et Agile Outil Blueway MyData Catalogue Tout le système d’information, incluant SIO et legacy Intelligence artificielle Objectifs et livrables Les prestations attendues, non exhaustives, comprennent : Cataloguage de données : réalisation de projets de documentation métier et technique, intégration dans l’outil My Data Catalog Data Quality Management : audits de qualité, propositions de plans de remédiation Accompagnement au changement, formation et sensibilisation Data : formation à l’utilisation de My Data Catalog, accompagnement individuel ou collectif (1 à 1, ateliers) Communication : création et diffusion de newsletters, publications sur l’intranet Participation à des réunions de communauté : Data Owners, Data Stewards, Data Custodians Les livrables attendus comprennent : Les catalogues de données dans l’outil My Data Catalog Les résultats des audits de qualité des données Supports de formation sur les outils et méthodologies de Data Management Newsletter ou autres publications destinées à la communication interne
Offre d'emploi
Consultant Fonctionnel – Reprise de Données / SQL H/F
HAYS France
Publiée le
Data analysis
Data management
Data quality
1 an
40k-52k €
330-440 €
Bouches-du-Rhône, France
Nous recherchons un consultant fonctionnel spécialisé dans la reprise de données dans le cadre de projets ERP. Vous interviendrez sur l’analyse, l’extraction, la transformation et l’intégration des données de gestion et données comptables. Missions Analyser les besoins fonctionnels liés à la reprise de données. Préparer, traiter et intégrer les données dans un ERP : Commandes Factures Écritures ou données comptables Maîtriser les requêtes et manipulations SQL pour extraction, transformation et contrôle qualité. Assurer la fiabilité, la cohérence et la conformité des données reprises. Collaborer avec les équipes métier, fonctionnelles et techniques. Contribuer à la documentation et aux étapes de validation.
Mission freelance
Architecte Data – Azure/Databrics
Hexagone Digitale
Publiée le
Azure
Azure Data Factory
BI
6 mois
450-550 €
Paris, France
Dans le cadre du renforcement de sa Data Factory, un grand groupe international accélère la structuration de sa plateforme data sur Microsoft Azure avec un usage central de Databricks pour le traitement, la transformation et la valorisation des données. L’environnement s’inscrit dans une logique Data Lake , organisation Bronze / Silver / Gold et montée en maturité data à l’échelle groupe. Mission L’Architecte Data interviendra sur la conception et l’industrialisation de la plateforme data Azure. Ses responsabilités principales : Concevoir et faire évoluer l’architecture data sur Azure Structurer et optimiser les pipelines data via Databricks (Spark) Mettre en place les traitements de transformation et d’agrégation Modéliser les données pour les usages analytiques Garantir performance, scalabilité et qualité des flux Participer aux ateliers de cadrage technique avec les équipes métiers et IT Contribuer aux standards d’architecture et aux bonnes pratiques data Compétences clés (Must Have) Databricks (obligatoire) Azure (Data Lake, Synapse, Data Factory) Spark / PySpark SQL avancé Architectures Data Lake – Bronze / Silver / Gold Conception de pipelines data industrialisés Modélisation Data Warehouse Compétences appréciées (Nice to Have) Power BI DAX MDM (Master Data Management) Data Quality / Gouvernance Data Mesh Azure DevOps / Git ERP (SAP) Profil recherché 5 à 10 ans d’expérience en Data Engineering / Architecture Data Expérience confirmée sur des environnements Azure + Databricks Capacité à intervenir sur des environnements data complexes Autonomie technique et posture structurante Bon relationnel et capacité à challenger les choix d’architecture Environnement de travail Cloud : Microsoft Azure Traitement data : Databricks, Spark Stockage : Azure Data Lake Gen2 Orchestration : Azure Data Factory BI (selon besoins) : Power BI Gouvernance (selon périmètre) : MDM / Data Quality Conditions de la mission Lieu de la mision : Paris Mission longue : 6 à 12 mois renouvelables Temps plein Télétravail partiel possible Démarrage rapide TJM : 450-550€
Mission freelance
Quality Data/Lead Data Referentiel
Cherry Pick
Publiée le
Finance
IA
Numpy
12 mois
Paris, France
PRÉSENTATION DE LA MISSION Dans le cadre d'un programme de transformation de la qualité des données de marché, vous rejoignez l'équipe DIR (Direction du Référentiel) . Votre rôle est de concevoir, déployer et industrialiser un cadre de contrôle rigoureux pour les actifs financiers (Futures, Yields, FX, Index, Bonds) afin de garantir la fiabilité des modèles de recherche et des décisions de trading. Type de contrat : Freelance Durée : 6 mois Localisation : Paris Environnement technique : Python (Data Stack), SQL, Bloomberg/Reuters API, LLM/IA. 2. MISSIONS ET RESPONSABILITÉS Axe 1 : Audit et Diagnostic (Phase d'Évaluation) Réaliser un audit complet des dimensions de qualité par classe d'actifs. Recenser l'existant (scripts épars, contrôles manuels) et identifier les zones de risque (gaps de couverture). Prioriser le backlog des anomalies historiques en collaboration avec les équipes Recherche et Prédiction. Axe 2 : Industrialisation de la Qualité (Mise en œuvre) Développer une bibliothèque unifiée et modulaire de contrôles (en Python) intégrable aux pipelines de données. Assurer la remédiation du stock historique : investigation des causes racines, correction des données et résolution des litiges avec les fournisseurs (Bloomberg, etc.). Mettre en place des mécanismes de prévention pour bloquer les anomalies dès l'ingestion. Axe 3 : Monitoring et Innovation Concevoir des dashboards de pilotage (KPI) pour monitorer la santé des données en temps réel. Développer un PoC basé sur les LLM pour automatiser la génération de nouveaux contrôles et faciliter l'analyse des causes racines (Root Cause Analysis). Rédiger le Playbook opérationnel (procédures de gestion d'incidents et workflows d'alerte).
Offre d'emploi
Consultant Data Senior (Snowflake / MicroStrategy)
Digimatch
Publiée le
Confluence
Data quality
ETL (Extract-transform-load)
6 mois
60k €
550 €
Île-de-France, France
Dans le cadre d’un projet stratégique de décommissionnement de systèmes legacy, nous recherchons un consultant Data senior, à la fois fonctionnel et technique, pour accompagner une migration de données et la mise en place de reporting. Contexte de la mission Projet de décommissioning d’une base de données / legacy system risk Migration des données vers un environnement Snowflake Refonte / maintien du reporting sous MicroStrategy Environnement décisionnel à forts enjeux métiers Missions principales Analyse de l’existant (legacy systems, flux, risques) Cadrage fonctionnel de la migration de données Pilotage et/ou réalisation des migrations (ETL, contrôles, qualité des données) Contribution à la mise en place et à l’optimisation du reporting MicroStrategy Interaction avec les équipes métiers et IT Accompagnement au décommissionnement des systèmes legacy
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
83 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois