Trouvez votre prochaine offre d’emploi ou de mission freelance Data quality à Paris

Votre recherche renvoie 27 résultats.
Freelance

Mission freelance
Data Quality Tale of Data

Publiée le
Data quality

6 mois
450-470 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Quality Tale of Data (H/F) , pour le compte de l'un de ses clients qui opère dans le domaine d'Energie. Description 📍 Contexte de la mission Au sein de l'équipe Data Achat, cette mission s'inscrit dans la continuité des travaux d'analyse et de mise en qualité des données achats initiés précédemment. L'objectif est d'accélérer et d'industrialiser les processus de qualité de données (Data Quality) via l'outil Tale of Data , en vue de l'année 2026. 🎯 Objectifs Principaux Le consultant devra assurer le nettoyage, la fiabilisation et l'industrialisation des données provenant de sources multiples, tout en participant à la structuration de la future Data Plateforme. 💼 Responsabilités & Missions 1. Data Quality Management & Tale of Data (Cœur de mission) Administration de Tale of Data : Tous les flux transitent par cet outil. Une maîtrise (ou une très forte capacité d'adaptation immédiate) est impérative car le consultant devra être autonome rapidement. Configuration et Nettoyage : Paramétrer l'outil pour identifier les anomalies (doublons, erreurs, manquants) sur les données Fournisseurs, Contrats, Données Clients (tables SAP), Marketing, etc. Industrialisation : Faire face à la demande croissante en automatisant les contrôles qualité et les redressements de données. 2. Gestion Multi-Sources & Analyse Consolidation des données : Travailler sur des environnements hétérogènes : SAP MM , Business Central, et outils non-ERP (appels d'offres, qualifications). Rapprochement : Croiser les données entre les différents outils pour produire des référentiels fiables. Investigation : Aller chercher l'information à la source, évaluer la donnée et comprendre sa structure (ne pas "tâtonner"). 3. Pilotage & Projets Transverses (Data Gouv) KPIs : Spécifier et produire les indicateurs de suivi de la qualité des données par périmètre. Data Platform : Monter en compétences sur la structure des données pour accompagner le lancement de la nouvelle Data Plateforme Achats et le projet global de Data Gouvernance. Collaboration : Identifier les nouveaux cas d'usage avec les Business Process Owners (BPO) et les Data Domain Owners.
Freelance

Mission freelance
Lead Data Quality Analyst

Publiée le
Dataiku
Qlik
ServiceNow

12 mois
600-700 €
Paris, France
Télétravail partiel
En tant que Lead Data Quality Analyst , vous êtes le garant de la fiabilité et de l'intégrité de nos actifs data. Votre rôle central consiste à définir, mesurer et mettre en œuvre les stratégies et processus assurant une haute qualité des données, indispensable à la prise de décision et au succès de nos initiatives métier. Vous pilotez l'ensemble du cycle de vie de la qualité des données : Gouvernance et Stratégie Data Quality : Définir et maintenir les règles de qualité des données (complétude, unicité, validité, cohérence et format). Établir les indicateurs clés de performance (KPI) de la qualité des données et s'assurer de leur suivi régulier. Analyse et Audit des Données : Analyser la qualité des données au sein de nos systèmes sources et cibles (Data Warehouse, Data Lake). Identifier les anomalies, les causes racines des problèmes de qualité (système, processus, ou saisie) et recommander des actions correctives. Implémentation Technique : Mettre en œuvre des contrôles de qualité automatisés directement dans les outils d'entrepôt de données (notamment Snowflake ). Développer des tableaux de bord de monitoring de la qualité pour visualiser les scores et les tendances (via Qlik ou d'autres outils de visualisation). Coordination et Amélioration Continue : Collaborer étroitement avec les Data Engineers, les Data Scientists et les équipes métier pour garantir la bonne application des règles de qualité. Gérer la priorisation des tickets et des actions d'amélioration de la qualité des données.
Freelance

Mission freelance
Business analyst Data

Publiée le
Business Analyst
Data quality

1 an
520-580 €
Paris, France
Télétravail partiel
Notre client, filiale bancaire d’un grand groupe industriel international, recherche un(e) Business Analyst Data confirmé(e) pour renforcer ses équipes. Vos missions principales Assurer la qualité des données dans le respect des standards définis Traiter et suivre les tickets liés aux anomalies ou demandes d’évolution des données Travailler en interaction étroite avec les métiers Data (Data Stewards, Data Owners) pour garantir la cohérence et la fiabilité des données Participer aux comités de pilotage et aux ateliers métiers/IT pour la mise en œuvre des actions correctives Suivre et documenter les processus de data quality et les indicateurs de performance associés Contribuer à l’amélioration continue des outils et des process de gouvernance de données
Freelance

Mission freelance
Architecte ServiceNow CMDB - Data Foundations H/F

Publiée le
CMDB
Data quality
ServiceNow

12 mois
700-800 €
Paris, France
Télétravail partiel
Compétences attendues Expertise avérée en ServiceNow : ITSM, ITOM, CMDB, Discovery, CSDM, Data Foundations. Maîtrise des mécanismes d’identification, de réconciliation, de population et de gestion du cycle de vie des CIs. Solide expérience en architecture CMDB, modélisation, normalisation et gouvernance des référentiels IT. Réelle capacité à analyser, structurer et sécuriser un modèle de données complexe. Expérience confirmée en conduite de comités, communication avec des équipes internationales et coordination transverse. Capacité à clarifier les impacts ITSM/ITOM d’une évolution de la CMDB. Connaissance des enjeux de conformité, d’audit et de sécurité autour des données techniques. Aisance rédactionnelle et sens de la pédagogie. Anglais professionnel.
Freelance

Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote

Publiée le
Data quality
ETL (Extract-transform-load)
Linux

12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Freelance
CDI

Offre d'emploi
BA/MOA - Data Quality (7 ans et plus)

Publiée le
Gestion de projet
Méthode Agile

3 ans
45k-70k €
450-620 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre de la réglementation Basle III, le référentiel client CIB doit améliorer son niveau de qualité et s'aligner avec les autres Référentiel de la banque. En lien avec les équipes IT et Ops, la mission proposée a pour objectifs de lister les améliorations techniques et opérationnelles nécessaires pour spécifier les actions (MOA). 💡 Missions : A l'aide de la documentation et en interviewant les entités, lister les améliorations nécessaires pour améliorer la qualité du référentiel. Spécifier les actions opérationnelles et les besoins de développements pour s'aligner au Référentiel groupe. Analyse et Integration de nouveaux indicateurs de qualité produits par CDO et le programme (CRM KQI) dans le BAU. A l'aide des outils informatiques (Base de données Python, Excel, Business Object, Tableau), extraire et produire les indicateurs et volumétries permettant de piloter les progrès de la qualité. Participer aux réunions et aux groupes de travail, rédiger les minutes et les conclusions. préparer les supports de réunions. En tant que MOA du projet pour Référentiel Ops, rédiger les documentations (spécifications, procédures, ...).
Freelance

Mission freelance
POT8726 - Un Expert Qualité des Données sur Paris

Publiée le
Data quality
Gouvernance
ITIL

6 mois
260-390 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Expert Qualité des Données sur Paris. Descriptif: En tant qu'expert Qualité des Données ServiceNow en SI, vous jouerez un rôle clé dans l'amélioration et la maintenance de l'intégrité des données au sein de notre plateforme ServiceNow. Votre ewpertise sera cruciale pour établir une fondation solide pour une meilleure gouvernance des données, essentielle à la performance et la fiabilité de nos opérations IT et R&I. Vous rejoindrez une équipe internationale existante, tout en collaborant étroitement avec diverses équipes IT et métiers de la R&I. Votre Mission & Responsabilités Clés : Identification et Cartographie des Objets ServiceNow : - Procéder à une identification exhaustive de tous les types d'objets et enregistrements critiques sur la plateforme ServiceNow impactant nos processus R&I et IT. Cela inclut, sans s'y limiter : les Groupes, les Applications, les Projets, les EPICs, les Enhancements, les Stories, les Releases, les CI (Configuration Items), les Connaissances (Knowledge Bases). - Comprendre et documenter la manière dont ces objets sont utilisés et interdépendants. Formalisation des Règles de Conformité des Données : - Définir et formaliser des règles claires et précises de conformité et de qualité des données pour chaque type d'objet identifié. Ces règles devront couvrir des aspects tels que l'exhaustivité, la cohérence, la validité et la précision des informations. Inventaire et Analyse de la Qualité des Données : - Mener un inventaire détaillé de l'état actuel des données sur ServiceNow, évaluant leur conformité par rapport aux règles établies. - Identifier les lacunes, les doublons, les incohérences et toutes les données obsolètes ou non conformes. Création d'un Dashboard de Suivi de la Qualité des Données : - Développer et mettre en œuvre dashboard dynamique au sein de ServiceNow ou via des outils de reporting. Ce dashboard devra permettre de visualiser l'état de la qualité des données, de suivre l'avancement du nettoyage et d'identifier les zones nécessitant une attention continue. - Intégrer des indicateurs clés (KPIs) de qualité des données pour une visibilité constante. - Pilotage et Suivi du Plan de Nettoyage (Clean-up) : - Élaboration d'une feuille de route pour le nettoyage des données identifiées comme non conformes ou de mauvaise qualité. - Coordonner et suivre les actions de correction avec les équipes opérationnelles et les propriétaires de données. - Assurer le reporting régulier de l'avancement du clean-up et l'efficacité des actions menées. Recommandations pour la Gouvernance et l'Amélioration Continue : - Proposer des recommandations concrètes pour l'amélioration des processus de saisie et de maintenance des données, afin de prévenir la dégradation future de la qualité. - Contribuer à l'établissement de bonnes pratiques de gouvernance des données sur ServiceNow.
Freelance
CDI

Offre d'emploi
Consultant Data Gouvernance & Qualité (H/F)

Publiée le
Data quality

3 ans
40k-45k €
400-600 €
Paris, France
Dans le cadre d’un programme de transformation data d’un grand groupe bancaire, nous recherchons un(e) consultant(e) pour accompagner la gouvernance de la donnée, en lien avec les métiers et les fonctions. La mission porte sur l’analyse de la qualité de données tiers critiques , de bout en bout (de l’origination à leur utilisation métier). Missions principales Réaliser le data lineage fonctionnel sur 7 données clés Contribuer à la définition d’un framework de data quality (contrôles, indicateurs, seuils) Mettre en place un dashboard tactique et des contrôles de cohérence Suivre le plan de remédiation avec les parties prenantes Compétences requises Expérience en data management et gouvernance des données Connaissance des référentiels tiers (clients, contreparties...) Maîtrise du lineage fonctionnel et des frameworks data quality Capacité à travailler en transverse avec métiers et IT
Freelance

Mission freelance
DATA QUALITY Project Manager H/F

Publiée le
Data quality
DataGalaxy

6 mois
650-750 €
Paris, France
Télétravail partiel
Contexte : Une initiative mondiale sur la qualité des données a récemment été lancée. Elle vise à sensibiliser les entités du groupe à la qualité des données et à leur permettre de corriger les données de mauvaise qualité dans leurs systèmes sources. En 2025, l’accent est mis sur l’expansion d’un tableau de bord central regroupant des règles de qualité des données mises en œuvre dans la plupart des entités du groupe, offrant une vue globale de la qualité des données. Dans un premier temps, l’attention a été portée sur les règles de qualité des données ayant un impact sur la livraison à temps (OTD – On-Time Delivery).
Freelance

Mission freelance
CONSULTANT MOA / DATA QUALITY

Publiée le
Microsoft Excel
Python
SQL

12 mois
400-550 €
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre d’un programme de mise en conformité réglementaire et d’amélioration de la qualité des données, la mission vise à renforcer la fiabilité du référentiel client et à assurer sa cohérence avec les autres référentiels du groupe. Objectifs principaux Identifier et formaliser les améliorations techniques et opérationnelles à mettre en œuvre pour fiabiliser le référentiel. Définir et piloter les actions fonctionnelles (MOA) en coordination avec les équipes IT et métiers. Intégrer et suivre les indicateurs de qualité produits par les équipes Data et les programmes de gouvernance. Exploiter les outils d’analyse et de reporting (bases de données, Python, Excel, Business Object, Tableau) pour produire les indicateurs de pilotage de la qualité. Participer aux instances de gouvernance : préparation des réunions, rédaction de comptes rendus, synthèses et supports. Produire la documentation fonctionnelle et procédurale (spécifications, procédures, guides utilisateurs). Profil recherché Consultant MOA / Data Quality disposant d’une solide expérience en gestion de référentiels et gouvernance de données. Bonne connaissance des processus de qualité et d’intégrité des données dans un environnement réglementaire (type Bâle III, conformité groupe, etc.). Maîtrise des outils de pilotage et d’analyse de données : SQL, Python, Excel, Business Object, Tableau ou équivalents. Capacité à interagir avec des interlocuteurs variés (IT, métiers, data management) et à formaliser des besoins fonctionnels complexes . Excellentes compétences rédactionnelles (spécifications, procédures, synthèses de réunions). Esprit analytique, rigueur, autonomie et sens de la coordination. ASAP ANGLAIS
Freelance

Mission freelance
Data Analyst (CRM Microsoft Dynamics & Power BI)

Publiée le
CRM

6 mois
400 €
Paris, France
Télétravail partiel
Intitulé du poste Data Analyst – Microsoft Dynamics & Power BI Missions principales Maîtriser l’environnement CRM Microsoft Dynamics et comprendre les modèles de données métiers associés. Assurer la maintenance évolutive et corrective des dashboards Power BI existants (optimisation, mises à jour, qualité des visuels). Concevoir et développer de nouveaux tableaux de bord adaptés aux besoins métiers, en intégrant les indicateurs clés de performance (KPI). Mettre en place des outils et règles de contrôle garantissant la qualité, la cohérence et la fiabilité de la donnée, tant dans le CRM que dans les tableaux de bord. Collaborer avec les équipes métiers pour comprendre leurs enjeux, traduire les besoins en spécifications analytiques et assurer un pilotage par la donnée fiable. Participer à l’amélioration continue du modèle de données et des processus d’alimentation du CRM et de Power BI. Livrables attendus Dashboards Power BI fonctionnels, documentés et maintenables. Documentation data (dictionnaire, mapping, règles de gestion, contrôles qualité). Rapports réguliers sur les KPI et analyses ad hoc. Plans d’actions data quality et suivi de leur mise en œuvre. Compétences techniques Microsoft Dynamics CRM : niveau expert Microsoft Power BI : expert (DAX, Power Query, modélisation, datasets) Conception et reporting KPI : expert Maîtrise de la pensée analytique : confirmé Connaissance des bonnes pratiques de data quality et gouvernance Compétences transverses Rigueur analytique & sens critique Capacité à vulgariser et restituer clairement des insights métier Autonomie dans la gestion des besoins et délais Aptitude à collaborer avec des équipes non techniques Langues Français : bilingue Anglais : opérationnel / requis Profil recherché Expérience confirmée en Data Analysis, idéalement dans un environnement CRM Capacité à travailler sur des sujets mêlant process métier, CRM et Business Intelligence Confort avec des environnements data complexes et des enjeux de qualité de données
Freelance
CDI

Offre d'emploi
Business Analyst IFRS9 (H/F)

Publiée le
Business Analyst
IFRS 9
Workday

2 ans
40k-47k €
400-500 €
75019, Paris, Île-de-France
Télétravail partiel
Nous cherchons un (e) Business Analyst IFRS9 capable de coordonner les équipes Risque, Finance, Data et IT pour la mise en œuvre, la maintenance et l’évolution des processus liés à la norme IFRS9, au risque de crédit et au reporting réglementaire (COREP / Bâle III / Bâle IV). Le poste garantit la qualité, la cohérence et la conformité des données utilisées pour le calcul des provisions IFRS9 et des RWA. Responsabilités principales Analyser et formaliser les besoins métiers IFRS9, risque de crédit et reporting prudentiel (COREP, FINREP, Bâle III/IV) Rédiger les spécifications fonctionnelles et User Stories (Agile / Scrum) Participer aux ateliers fonctionnels avec les équipes métier : Risque, Finance, Modélisation, Data Définir et contrôler les règles de gestion pour PD, LGD, EAD et provisions IFRS9 Contrôler la qualité, la complétude et la traçabilité des données (data lineage, data quality) Préparer et exécuter les tests de recette : fonctionnelle, intégration, non-régression Valider les résultats avant mise en production (MEP) et assurer le support post-déploiement Contribuer à la production et à la fiabilité des reportings réglementaires (COREP / RWA) Participer à l’amélioration continue des processus IFRS9 / Bâle et à la veille réglementaire Environnement technique et fonctionnel Réglementaire : IFRS9, Bâle III / IV, COREP, FINREP Risque de crédit : PD, LGD, EAD, RWA, Stages 1/2/3, ECL Méthodologie : Agile / Scrum (backlog, sprints, user stories, tests, MEP) Outils : SQL, SAS, Python (contrôles et extractions), JIRA, Confluence, Excel avancé Data : Datawarehouse Risque/Finance, data quality, automatisation reporting
Freelance

Mission freelance
Data ingénieur (H/F)

Publiée le
Microsoft Fabric
Python

12 mois
Paris, France
Télétravail 100%
Teksystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur (H/F) Missions principales : o Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires o Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric o Observabilité, data quality, tests, CI/CD et documentation technique o Optimisation coûts/performance, sécurité et conformité o Collaboration étroite avec Data Analysts et équipes métiers
Freelance
CDI

Offre d'emploi
Data Analyst

Publiée le
Google Cloud Platform (GCP)
PL/SQL
Python

1 an
Paris, France
Télétravail partiel
OBJECTIF Le projet est actuellement lancé avec une mise sous contrôle qualité des données critiques et des plans d’action de remédiation avec les systèmes informatiques de gestion. Le département nécessite l’expertise d’un Data Analyst afin d’améliorer l’analyse des données au sein de l’entreprise. Ce poste est essentiel pour interpréter et analyser la qualité des données clés du business et du métier, tout en collaborant étroitement avec les équipes métiers et IT. Le Data Analyst sera en charge de la mise en oeuvre des analyses pour élaborer les contrôles de qualité de données et les KPIs, d’assurer le maintien et les évolutions du Data Quality Dashboard, de participer aux plans d’action de remédiation, en collaboration avec l’équipe Data du département, et avec les responsables informatiques / métiers des applications.
Freelance

Mission freelance
Data analyst

Publiée le
SQL

12 mois
400-500 €
Paris, France
Télétravail partiel
Cherry pick est à la recherche d'un Data analyst pour l'un de ses clients dans le secteur de l'énergie. 🎯 Objectifs de la mission Travailler en collaboration directe avec le Data Lead TGP , les BPO , les Data Domain Owners et les équipes achats afin de : Développer et maintenir le backlog des cas d’usage Data Quality . Paramétrer l’outil Tale of Data pour identifier les anomalies, rapprocher les données provenant de différents systèmes achats et produire les outputs attendus. Suivre et améliorer en continu le niveau de qualité des données à l’aide d’indicateurs fiables et automatisés. Accompagner les équipes dans la conduite et le pilotage des campagnes de nettoyage . Être force de proposition sur l’amélioration des processus, formats et traitements des données. 📌 Responsabilités & Livrables attendus 1. Gestion des cas d’usage Data Quality Identifier et co-construire les cas d’usage avec les BPO et Data Domain Owners. Maintenir et prioriser le backlog (nouveaux besoins, évolutions, corrections). 2. Paramétrage de l’outil Tale of Data Configurer les règles de contrôle qualité (contrôles automatiques, seuils, business rules). Réaliser les rapprochements de données entre les différents outils achats. Produire les livrables opérationnels : listes d’erreurs, fichiers de référentiels, exports de données, emails d’alertes automatiques. 3. Production de KPI Data Quality Définir et documenter les indicateurs de qualité par périmètre. Construire des dashboards permettant le suivi régulier de la qualité des données. 4. Support aux campagnes de nettoyage Préparation et communication des jeux de données à nettoyer. Suivi de l’avancement et relances auprès des équipes concernées. Consolidation des résultats et reporting. 5. Amélioration continue & Expertise Recommander des améliorations sur la structuration des données, les processus de traitement ou la gouvernance. Proposer des optimisations sur l’utilisation de l’outil Tale of Data.
Freelance

Mission freelance
Expert Talend / Talend Data Integration Specialist

Publiée le
ETL (Extract-transform-load)
Talend

12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
27 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous