Trouvez votre prochaine offre d’emploi ou de mission freelance Data quality à Paris
Votre recherche renvoie 20 résultats.
Offre d'emploi
Chargé de Revue Indépendante RDS
Publiée le
Data quality
1 an
40k-45k €
550-1k €
Paris, France
Télétravail partiel
Tâches de la Mission : Des rapports de revue sont à réaliser selon les normes de l'équipe type pour un RDS de PD, de LGDS, de LGDD, ou d'EAD/CCF. Pour les RDS cela consiste à s'assurer que le RDS : Est exhaustif au regard du périmètre du nouveau modèle construit Comporte tous les cas de défaut enregistrés avec la bonne date de défaut et la bonne granularité Comporte une qualité de données satisfaisante, pour permettre de construire le modèle
Offre d'emploi
Product Owner / BA Data Quality
Publiée le
Business Analysis
1 an
40k-45k €
400-730 €
Paris, France
Télétravail partiel
Descriptif du poste Mission de soutien au développement et au déploiement d'outils transverses à l'échelle de l'entreprise : Outil de dictionnaire de données, intégrant les caractéristiques associées (description des données, classification, gouvernance, traçabilité/lineage, etc.). Plateforme de contrôle qualité des données, visant à offrir des contrôles automatisés, sans code, prêts à l'emploi (complétude, intégrité, cohérence, etc.). Ces outils seront utilisés par l'ensemble des départements de l'organisation (Développement durable, IT, Ventes, Marketing, Opérations, Finance, Investissements, etc.) et devront être adaptés dans le contexte d'une fusion organisationnelle majeure.
Offre d'emploi
BA/MOA - Data Quality (7 ans et plus)
Publiée le
Gestion de projet
Méthode Agile
3 ans
45k-70k €
450-620 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre de la réglementation Basle III, le référentiel client CIB doit améliorer son niveau de qualité et s'aligner avec les autres Référentiel de la banque. En lien avec les équipes IT et Ops, la mission proposée a pour objectifs de lister les améliorations techniques et opérationnelles nécessaires pour spécifier les actions (MOA). 💡 Missions : A l'aide de la documentation et en interviewant les entités, lister les améliorations nécessaires pour améliorer la qualité du référentiel. Spécifier les actions opérationnelles et les besoins de développements pour s'aligner au Référentiel groupe. Analyse et Integration de nouveaux indicateurs de qualité produits par CDO et le programme (CRM KQI) dans le BAU. A l'aide des outils informatiques (Base de données Python, Excel, Business Object, Tableau), extraire et produire les indicateurs et volumétries permettant de piloter les progrès de la qualité. Participer aux réunions et aux groupes de travail, rédiger les minutes et les conclusions. préparer les supports de réunions. En tant que MOA du projet pour Référentiel Ops, rédiger les documentations (spécifications, procédures, ...).
Offre d'emploi
Data Quality Manager
Publiée le
Data governance
1 an
40k-45k €
470-730 €
Paris, France
Télétravail partiel
À propos du rôle La mission du Data Office s'est fortement enrichie avec la promotion de l'utilisation de la DATA par l'ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de l'organisation et du Groupe. L'objectif est de développer l'activité commerciale, de diminuer les couts, d'améliorer l'efficacité opérationnelle et de répondre à la dimension règlementaire. La mission est au sein de l'équipe Data Office Data Quality. L'activité de cette équipe porte sur le développement, l'amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l'écosystème de l'organisation et sur l'accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion..)
Offre d'emploi
Consultant Data Quality Solvabilité 2
Publiée le
Direction de projet
70k-80k €
Paris, France
Télétravail partiel
Nous sommes à la recherche d'un consultant en qualité de données , avec des connaissances en assurance et en Solvency 2. Compétences attendues : · Connaissances en : Assurance, Réglementation Solvency 2 et Data Quality · Maîtrise Excel · Connaissance QLikSense serait un plus · Disposer d’un minimum de connaissances en gestion de projet · Aisance relationnelle Merci de ne pas postuler si vous ne respectez pas les compétences attendues, principalement concernant les connaissances en assurance, Solvency 2 et Data Quality, votre candidature sera refusée. Contexte : Nous sommes un jeune cabinet de conseil en pleine expansion, spécialisé dans l’accompagnement des entreprises sur des enjeux stratégiques et opérationnels. Pour répondre à la demande croissante de nos clients, nous développons une nouvelle offre de services dédiée à la data. Un de nos clients recherche un consultant pour les aider à consolider et pérenniser l'Unité Qualité des données, notamment vis-à-vis des textes réglementaires. Prestations à réaliser : L’unité QDD a établi un socle documentaire et continue à travailler sur l’ensemble des rubriques lors d'une précédente mission. Il est attendu du consultant qu’il s’intègre au dispositif existant et contribue à l’enrichissement des travaux documentaires dans le respect du planning QDD sur les livrables suivants : Cartographie des flux (SCR de Souscription et QRT), Alimentation du Répertoire des données, Collecte et mise à jour des indicateurs et reportings de pilotage de qualité des données, Production d’indicateurs et de reportings, à la suite du plan de contrôles de 2nd Niveau, Fiches de contrôles, Supports et CR de comités. Votre salaire sera évalué selon votre expérience et sera complété de primes et avantages très rares dans des structures de notre taille.
Offre d'emploi
Data Quality Analyst
Publiée le
Data governance
Data quality
1 an
40k-45k €
400-610 €
Paris, France
Télétravail partiel
Mission La mission du Data Office s'est fortement enrichie avec la promotion de l'utilisation de la DATA par l'ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de l'organisation et du Groupe. L'objectif est de développer l'activité commerciale, de diminuer les couts, d'améliorer l'efficacité opérationnelle et de répondre à la dimension règlementaire. La mission est au sein de l'équipe Data Office Data Quality. L'activité de cette équipe porte sur le développement, l'amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l'écosystème de l'organisation et sur l'accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion..)
Mission freelance
Data Quality Tale of Data
Publiée le
Data quality
6 mois
450-470 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Quality Tale of Data (H/F) , pour le compte de l'un de ses clients qui opère dans le domaine d'Energie. Description 📍 Contexte de la mission Au sein de l'équipe Data Achat, cette mission s'inscrit dans la continuité des travaux d'analyse et de mise en qualité des données achats initiés précédemment. L'objectif est d'accélérer et d'industrialiser les processus de qualité de données (Data Quality) via l'outil Tale of Data , en vue de l'année 2026. 🎯 Objectifs Principaux Le consultant devra assurer le nettoyage, la fiabilisation et l'industrialisation des données provenant de sources multiples, tout en participant à la structuration de la future Data Plateforme. 💼 Responsabilités & Missions 1. Data Quality Management & Tale of Data (Cœur de mission) Administration de Tale of Data : Tous les flux transitent par cet outil. Une maîtrise (ou une très forte capacité d'adaptation immédiate) est impérative car le consultant devra être autonome rapidement. Configuration et Nettoyage : Paramétrer l'outil pour identifier les anomalies (doublons, erreurs, manquants) sur les données Fournisseurs, Contrats, Données Clients (tables SAP), Marketing, etc. Industrialisation : Faire face à la demande croissante en automatisant les contrôles qualité et les redressements de données. 2. Gestion Multi-Sources & Analyse Consolidation des données : Travailler sur des environnements hétérogènes : SAP MM , Business Central, et outils non-ERP (appels d'offres, qualifications). Rapprochement : Croiser les données entre les différents outils pour produire des référentiels fiables. Investigation : Aller chercher l'information à la source, évaluer la donnée et comprendre sa structure (ne pas "tâtonner"). 3. Pilotage & Projets Transverses (Data Gouv) KPIs : Spécifier et produire les indicateurs de suivi de la qualité des données par périmètre. Data Platform : Monter en compétences sur la structure des données pour accompagner le lancement de la nouvelle Data Plateforme Achats et le projet global de Data Gouvernance. Collaboration : Identifier les nouveaux cas d'usage avec les Business Process Owners (BPO) et les Data Domain Owners.
Mission freelance
Lead Transformation Qualité & Accélération Data / IA (H/F)
Publiée le
BigQuery
Data governance
Data quality
6 mois
Paris, France
Télétravail partiel
Lead Transformation Qualité & Accélération Data / IA (H/F) Mission de conseil – Environnement Data & IA à grande échelle Contexte de la mission Au sein de la Direction Data & Digital Transformation d’un grand groupe français du secteur de la distribution , une entité Data & Analytics de grande taille accompagne les métiers (Marketing, E-commerce, Supply Chain, Finance…) dans l’exploitation de la donnée et de l’IA pour le pilotage de la performance. Cette organisation, composée de plus de 150 experts Data & IA, engage une transformation structurante visant à industrialiser ses pratiques et à positionner la Qualité comme levier clé de performance, de fiabilité et d’accélération du delivery. Objectifs de la mission Piloter la transformation vers un standard de qualité systémique sur les sujets Data & IA. Renforcer la gouvernance Data et IA , les pratiques agiles et la culture de l’excellence opérationnelle. Agir comme catalyseur de transformation , combinant vision stratégique, influence transverse et pilotage opérationnel. Missions principales Vision, stratégie et gouvernance (axe prioritaire) Définir et piloter la feuille de route Qualité & Gouvernance Data / IA. Standardiser les livrables Data, IA, code et documentation. Mettre en place une gouvernance IA conforme aux exigences réglementaires (RGPD, AI Act). Structurer et faire évoluer les méthodes et outils (Agilité, DataOps). Leadership et conduite du changement Diffuser une culture de la qualité orientée performance et accélération du delivery. Coacher les équipes et animer les communautés de pratiques (DataOps, Agilité, Qualité). Assurer l’alignement avec les autres entités technologiques du groupe. Pilotage opérationnel Structurer les processus qualité (Data Quality, Craftsmanship, Agilité). Définir et suivre les KPIs qualité et les indicateurs de satisfaction (NPS). Intervenir en tant que Product Owner sur des offres DataOps (priorisation, adoption). Contribuer aux sujets FinOps et au pilotage des coûts cloud. Profil recherché Compétences techniques Pilotage de la qualité et de la gouvernance dans des environnements Data/Tech complexes. Solide maîtrise de la Data Quality, du DataOps / MLOps (CI/CD, Infrastructure as Code). Bonne connaissance des environnements Cloud, notamment GCP (BigQuery, Composer). Maîtrise des enjeux réglementaires liés aux données et à l’IA (RGPD, AI Act). Leadership et vision Expérience confirmée de conduite de transformations à l’échelle (100+ personnes). Capacité à définir une vision stratégique et à la décliner en plans d’actions mesurables. Leadership transverse, posture de coach, animation de communautés. Expérience Minimum 8 ans d’expérience sur des fonctions similaires (Lead Data, CDO, Transformation Data/IA). Une expérience en transformation agile ou en change management est un atout fort. Modalités Localisation : Île-de-France (Essonne), présence sur site requise 2 à 3 jours par semaine. Durée : Mission longue, 6 mois renouvelables. Démarrage : ASAP.
Mission freelance
Lead Data Quality Analyst
Publiée le
Dataiku
Qlik
ServiceNow
12 mois
600-700 €
Paris, France
Télétravail partiel
En tant que Lead Data Quality Analyst , vous êtes le garant de la fiabilité et de l'intégrité de nos actifs data. Votre rôle central consiste à définir, mesurer et mettre en œuvre les stratégies et processus assurant une haute qualité des données, indispensable à la prise de décision et au succès de nos initiatives métier. Vous pilotez l'ensemble du cycle de vie de la qualité des données : Gouvernance et Stratégie Data Quality : Définir et maintenir les règles de qualité des données (complétude, unicité, validité, cohérence et format). Établir les indicateurs clés de performance (KPI) de la qualité des données et s'assurer de leur suivi régulier. Analyse et Audit des Données : Analyser la qualité des données au sein de nos systèmes sources et cibles (Data Warehouse, Data Lake). Identifier les anomalies, les causes racines des problèmes de qualité (système, processus, ou saisie) et recommander des actions correctives. Implémentation Technique : Mettre en œuvre des contrôles de qualité automatisés directement dans les outils d'entrepôt de données (notamment Snowflake ). Développer des tableaux de bord de monitoring de la qualité pour visualiser les scores et les tendances (via Qlik ou d'autres outils de visualisation). Coordination et Amélioration Continue : Collaborer étroitement avec les Data Engineers, les Data Scientists et les équipes métier pour garantir la bonne application des règles de qualité. Gérer la priorisation des tickets et des actions d'amélioration de la qualité des données.
Mission freelance
Business analyst Data
Publiée le
Business Analyst
Data quality
1 an
520-580 €
Paris, France
Télétravail partiel
Notre client, filiale bancaire d’un grand groupe industriel international, recherche un(e) Business Analyst Data confirmé(e) pour renforcer ses équipes. Vos missions principales Assurer la qualité des données dans le respect des standards définis Traiter et suivre les tickets liés aux anomalies ou demandes d’évolution des données Travailler en interaction étroite avec les métiers Data (Data Stewards, Data Owners) pour garantir la cohérence et la fiabilité des données Participer aux comités de pilotage et aux ateliers métiers/IT pour la mise en œuvre des actions correctives Suivre et documenter les processus de data quality et les indicateurs de performance associés Contribuer à l’amélioration continue des outils et des process de gouvernance de données
Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote
Publiée le
Data quality
ETL (Extract-transform-load)
Linux
12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Mission freelance
Site Reliability Engineer
Publiée le
Ansible
Azure
Git
12 mois
Paris, France
Télétravail partiel
Compétences techniques : Définir et implémenter des mécanismes de monitoring et d’alerting permettant de détecter les dysfonctionnements à tous les niveaux (front-end, backend, ETL, data quality, connectivité) AWS : Prometheus, Cloudwatch (Logs, Metrics, Application Signals, Synthetics), PromQL, X-Ray, AWS Firewall Azure : Azure Monitor, KQL, Application Insights, Container Insights, Log Analytics Google Cloud Observability (metrics, cloud monitoring) Grafana : Contribuer à la résilience des applications en implémentant et testant des mécanismes de sauvegarde des données et de restauration des applications : bonne connaissance et expérience des mécanismes de sauvegardes natifs AWS et Azure pour les bases de données, datalake, stockage blob. Implémenter des scénarios de Chaos Engineering (type Chaos Monkey) sur les environnements de production sur Azure et AWS. Mise en place de Disaster Recovery Plan et participation à l’implémentation et aux tests des mécanismes associés (pipelines de déploiement, restauration de données à partir de sauvegarde, etc.). Travailler sur l’optimisation de la gestion des incidents pour réduire le MTTR : détection, notification aux utilisateurs et suivi, outils d’analyse (logging). Mettre en place des solutions techniques d’AIOps pour améliorer l’observabilité, la résilience et la gestion des incidents dans le groupe. Implémenter et utiliser des agents IA capables d'identifier les améliorations relatives à la fiabilité à mettre en place sur les projets, de détecter les dysfonctionnements et de résoudre les pannes. Contribuer à améliorer la fiabilité des produits par la promotion auprès des équipes de bonnes pratiques SRE. Soft skills : Aisance relationnelle et capacité de communiquer en anglais et en français à l’écrit et à l’oral. Capacité de présenter et expliquer des architectures techniques. Autonomie. Conditions : Télétravail possible : 2 jours par semaine. Locaux : une grande ville métropolitaine.
Offre d'emploi
Lead Workstation & Support Interne (Intune et Jamf)
Publiée le
Intune
Jamf Pro
MAC
12 mois
Paris, France
Télétravail partiel
À propos de l’entreprise Entreprise tech internationale, pionnière dans son domaine, elle développe des plateformes digitales utilisées par des millions d’utilisateurs à travers le monde. L’environnement est innovant, dynamique et orienté produit, où la technologie est au cœur de l’expérience utilisateur et collaborateur. Le poste Nous recherchons un(e) Lead Workstation & Support Interne pour piloter l’activité de support IT interne et accompagner la transformation digitale des équipes. Vous jouerez un rôle clé au sein de l’équipe Employee Experience (EX) et serez responsable d’une roadmap stratégique 2026 axée sur l’automatisation, l’innovation et l’excellence opérationnelle. Vos missions Leadership & excellence opérationnelle Piloter l’équipe Support & Workstation avec une posture player-coach et hands-on Définir, suivre et optimiser les KPIs de performance Former et accompagner l’équipe sur les nouvelles technologies et bonnes pratiques Gestion du parc informatique Gérer et optimiser un parc multi-OS (macOS / Windows / Linux) via JAMF et Intune Déployer des blueprints de sécurité et améliorer la qualité des données IT Intervenir sur des incidents techniques complexes (niveau 2/3) Projets stratégiques 2026 Automatisation du support : déploiement de solutions IA (ex. Dust AI), catégorisation intelligente des tickets, workflows automatisés (Zapier) Modernisation des outils collaboratifs : migration vers Google Meet / Rooms / Voice et modernisation des salles de réunion Gouvernance SaaS : optimisation des licences et des coûts via des outils de type Torii / Trelica Data quality & inventory management : fiabilisation des données IT
Mission freelance
Expert Qualité des Données CRM
Publiée le
CRM
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Expert Qualité des Données CRM, avec une expérience significative en projet CRM en mode agile (salesforce) et en projet de migration. L'Expert CRM Data Quality sera intégré à l'équipe qui déploie des produits destinés aux Collaborateurs du client (y compris Salesforce, mais aussi des outils satellites, comme DocuGen / Docusign pour la signature électronique, Hubspot pour l'automatisation du marketing, Medallia pour les enquêtes, MayDay pour les connaissances, Genesys pour distribution de flux omnicanal). Objectifs de la mission : 1. Gestion de la qualité des données : Superviser et maintenir la qualité des données dans Salesforce CRM, en étroite collaboration avec les architectes pour définir et appliquer les normes, les procédures et les processus de contrôle qualité. 2. Expertise Salesforce CRM : Posséder une connaissance approfondie de l'architecture de données Salesforce, des objets standards et personnalisés, des objets relations et les meilleures pratiques en matière de modélisation des données. 3. Gestion de l'intégration : Collaborer avec les équipes techniques pour assurer des intégrations transparentes entre Salesforce CRM et des outils satellites tels que le marketing automation (Hubspot), la signature électronique (DocuGen/DocuSign), enquêtes de satisfaction (Medallia), etc. 4. Migrations de données : - Concevoir et exécuter des projets complexes de migration de données, en travaillant en étroite collaboration avec diverses unités commerciales pour garantir l'intégrité et la cohérence des données. - Assister et diriger les filiales de distribution lors de l'extraction des données. - Identifier les données à nettoyer (individuellement et en masse) et animer les filiales de distribution en nettoyage efforts. - Mettre en place des indicateurs de progression du nettoyage des données. - Expliquer le format pivot utilisé pour la migration des données. - Identifier les améliorations nécessaires aux différentes étapes de la validation des données. - Mettre en place des indicateurs pour suivre les progrès de la migration des données. -Fournir une description détaillée des livrables attendus. 5. Partenariat avec les Business Units : Travailler en partenariat avec différentes équipes métiers pour comprendre leurs besoins, proposer des données solutions et prendre en charge les déploiements de solutions CRM. 6. Documentation et formation : Développer et maintenir une documentation détaillée des processus, des normes de qualité et des meilleures les pratiques. Organiser des formations pour garantir l'adoption et la conformité.
Mission freelance
POT8811 - Un Lead Data Migration SAP (Qualité, MDG, Gouvernance) sur Paris
Publiée le
ERP
6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un Lead Data Migration SAP (Qualité, MDG, Gouvernance) sur Paris Objectif du poste Sécuriser la migration des données et la gouvernance, pour éviter les risques data silencieux qui déstabilisent l’activité après go live. Missions principales • Définir la stratégie de migration (objets, règles, séquences, contrôles). • Piloter nettoyage, dédoublonnage, data quality et réconciliation. • Orchestrer extraction, transformation, chargement et validations. • Mettre en place une gouvernance data avec rôles et responsabilités clairs. Compétences et outils Compétences et outils • Data migration ERP, réconciliation, contrôles et gestion de la pression fin de projet. • Connaissance SAP MDG appréciée. • Approche pragmatique orientée qualité et continuité opérationnelle. Profil recherché • 6 ans et plus sur data migration ERP, idéalement S/4HANA. • Excellente rigueur, leadership transversal.
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Compte Autoentrepreneur - Création ou modification
- Micro-entreprise après EURL ?
- Votre avis retour à la formation face au marché IT et arrivée de l'IA ?
- Projet d’enseignement création de parcours de formation/centre formation
- Besoin de vos avis : projet innovant VTC
20 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois