Trouvez votre prochaine offre d’emploi ou de mission freelance okta à Paris
Votre recherche renvoie 220 résultats.
Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance
Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud
12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Mission freelance
Architecte Talend / Senior Data Management - PLUS DE 10 ANS D'EXPERIENCE
NEXTWYN
Publiée le
Data management
Enterprise Service Bus (ESB)
ETL (Extract-transform-load)
12 mois
Paris, France
Description du poste Dans le cadre de notre accord-cadre, nous recherchons un Architecte / Consultant Senior spécialisé en Data Management , avec une expertise confirmée sur l’écosystème Talend. La mission s’inscrit dans un environnement technique existant et nécessite une capacité d’intervention en totale autonomie , sans phase de montée en compétence préalable. Le consultant interviendra sur : la conception et l’architecture des flux de données , l’optimisation des traitements et de la qualité des données, la mise en place et l’évolution des solutions d’intégration, la restitution et la valorisation des données. Il participera également activement aux échanges techniques , à l’ animation des réunions projets et à la production de livrables d’architecture .
Mission freelance
[LFR] Data Engineer TERADATA ET DATAVIZ, Sénior à Paris - 1456
ISUPPLIER
Publiée le
5 mois
300-405 €
Paris, France
Modélisation de données • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata, développements sous Teradata • Dataviz : Power BI et MSBI • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel, Shell • TPT – réalisation de scripts • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Création de chaînes de déploiement DEVOPS • Mise en production de composants applicatifs avec livrables documentaires associés (DTA, feuille de route, ...) Sofskills : Sens du service. Bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie.
Offre d'emploi
Data Steward
ONSPARK
Publiée le
RGPD
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Steward pour accompagner nos clients grands comptes. Vous interviendrez dans des environnements où la qualité, la traçabilité et la conformité des données sont des enjeux majeurs, en lien avec les équipes Data et métier. Responsabilités Définir et appliquer les règles de gouvernance des données Maintenir le dictionnaire de données et les référentiels Assurer la qualité, la traçabilité et la conformité des données (RGPD) Sensibiliser et accompagner les équipes métier sur les bonnes pratiques Collaborer avec les Data Engineers et Data Architects
Mission freelance
Chef de Projet Data (F/H)
CELAD
Publiée le
Big Data
DORA
Google Cloud Platform (GCP)
12 mois
450-470 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Chef de Projet Data pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Piloter des projets IT orientés Data de bout en bout, de la phase de cadrage jusqu’à la mise en production Recueillir et analyser les besoins métiers, en lien étroit avec les équipes Communication et les parties prenantes Coordonner les équipes techniques (développeurs, architectes, production, sécurité) et assurer le bon déroulement des projets Garantir le respect des engagements en termes de qualité, coûts, délais et sécurité Participer à la conception technique et à la rédaction des spécifications détaillées Superviser les phases de développement, de tests et de recette Assurer la mise en production des solutions dans un environnement CI/CD Piloter la documentation projet (dossiers d’architecture, ISP, exigences réglementaires DORA) Gérer la relation avec les différents interlocuteurs internes et externes Accompagner le changement et assurer le support auprès des utilisateurs
Offre d'emploi
Data Architect
ONSPARK
Publiée le
Cloudera
Hadoop
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Architect pour accompagner nos clients grands comptes. Responsabilités Concevoir et faire évoluer l'architecture globale de la plateforme de données Définir les standards et bonnes pratiques de modélisation Accompagner les équipes techniques dans leur mise en œuvre Assurer la cohérence entre les besoins métier et les choix techniques Veiller à la sécurité et à la conformité des architectures (RGPD, ISO 27001)
Mission freelance
Chef de Projet Data (F/H)
CELAD
Publiée le
1 an
450-470 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e Chef de Projet Data pour intervenir chez un de nos clients dans le secteur bancaire . Voici un aperçu détaillé de vos missions : Piloter des projets IT orientés Data de bout en bout, de la phase de cadrage jusqu’à la mise en production Recueillir et analyser les besoins métiers, en lien étroit avec les équipes Communication et les parties prenantes Coordonner les équipes techniques (développeurs, architectes, production, sécurité) et assurer le bon déroulement des projets Garantir le respect des engagements en termes de qualité, coûts, délais et sécurité Participer à la conception technique et à la rédaction des spécifications détaillées Superviser les phases de développement, de tests et de recette Assurer la mise en production des solutions dans un environnement CI/CD Piloter la documentation projet (dossiers d’architecture, ISP, exigences réglementaires DORA) Gérer la relation avec les différents interlocuteurs internes et externes Accompagner le changement et assurer le support auprès des utilisateurs
Offre d'emploi
Consultant AMOA Data / Recette fonctionnelle
Mon Consultant Indépendant
Publiée le
Gestion de projet
40k-50k €
Paris, France
Je recherche un(e) consultant(e) pour intervenir chez l'un des clients, acteur majeur du secteur assurance / protection sociale, engagé dans un programme de transformation Data structurant. Vous intervenez directement chez le client, intégré(e) à l'équipe projet de la direction métier concernée. Vous êtes le relais opérationnel entre les équipes métier, les équipes Data et la DSI sur l'ensemble des chantiers Data qui vous sont confiés. Ce que fait le client : Le client déploie une feuille de route Data ambitieuse : structuration des référentiels, fiabilisation des flux, consolidation d'une plateforme de données, montée en qualité de la donnée. Plusieurs dizaines de projets sont en cours simultanément, à différents stades d'avancement. La direction métier qui porte ces projets a besoin de renfort pour tenir la cadence sur le cadrage des besoins, la formalisation des spécifications, la documentation des flux et surtout la recette fonctionnelle. Ce que vous faites concrètement : Vous prenez en charge, en binôme avec l'équipe projet interne, plusieurs chantiers Data de bout en bout côté MOA. En phase de cadrage, vous animez les ateliers avec les métiers et la DSI, vous formalisez les expressions de besoin, vous documentez les flux de données (sources, transformations, règles de gestion, contrôles qualité, destinations), vous produisez les dossiers de cadrage et les cahiers des charges. En phase de recette — et c'est le cœur du poste — vous concevez les plans de test, définissez les cas de test et les jeux de données, exécutez les campagnes UAT, qualifiez les anomalies, en assurez le suivi jusqu'à résolution, validez la conformité des livrables et produisez les PV de recette. En transverse, vous participez aux instances de pilotage, produisez le reporting d'avancement, identifiez les risques et facilitez la circulation de l'information entre métier, Data et IT. Ce qu'on attend de vous : Sur le plan technique : · Vous savez manipuler et analyser des données. SQL est un outil quotidien pour vous, pas un mot-clé sur un CV. · Vous comprenez les architectures de données, les flux d'échange (ETL, APIs, XML, JSON), les modèles de données et les schémas de flux. Vous savez les lire, les questionner, les documenter. · Vous maîtrisez les concepts de qualité de données : contrôles, fiabilisation, réconciliation, cohérence entre référentiels. Sur le plan fonctionnel : · Vous avez une expérience solide en rédaction de spécifications fonctionnelles et techniques. · Vous avez déjà piloté et exécuté des recettes fonctionnelles complexes sur des projets Data. Pas survolé le sujet : réellement conçu les plans de test, joué les cas, qualifié les anomalies, tenu le suivi jusqu'au bout. · Vous savez naviguer entre des interlocuteurs métier qui raisonnent en règles de gestion et des interlocuteurs techniques qui raisonnent en modèles et en flux. Vous faites le lien sans déformer. Sur le plan comportemental : · Vous êtes rigoureux dans la production documentaire. La mission génère beaucoup de livrables : expressions de besoin, comptes-rendus, cahiers de recette, PV, reporting. Chacun doit être exploitable. · Vous êtes autonome. Vous n'attendez pas qu'on vous dise quoi faire sur chaque sujet. Vous comprenez le contexte, vous avancez, vous alertez quand c'est nécessaire. · Vous communiquez clairement, aussi bien en atelier qu'en comité de pilotage. Ce qui fait la différence : · Une connaissance du secteur assurance, protection sociale ou d'un environnement réglementé comparable. · Une expérience sur des projets de type DataPlatform ou impliquant des volumes importants de flux et de référentiels. · Une familiarité avec des dispositifs comme la DSN, la MSA, le SNGI ou l'AGIRA. Cadre de la mission : · Démarrage : mai 2026 · Durée : jusqu'à fin décembre 2026 · Charge : temps plein · Localisation : Paris intra-muros, avec possibilité de distanciel partiel selon organisation convenue avec le client
Mission freelance
INGENIEUR DATA BI - GENIO
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Migration data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
IAM
3 mois
550-700 €
Paris, France
Expert Data Engineer GCP — Tilt Migration data Migration d'une dataplateforme legacy vers un socle full GCP pour un client. Vous portez spécifiquement la migration des pipelines, modèles et traitements data. Contexte plateforme data en binôme avec un autre expert GCP. Même niveau d'exigence, même capacité à tout couvrir, un partage des référents. Missions - Porter pipelines et modèles data legacy sur BigQuery / Dataplex, avec tests de parité et non-régression. - Arbitrer les politiques de partitioning, clustering, coûts BigQuery. - Écrire et compléter les modules Terraform du socle. - Contribuer aux DAG Composer et au cut-over sans double run. - Poser et transmettre les standards qualité data (fraîcheur, volumes, tests). Stack (maîtrise attendue sur l'ensemble) BigQuery, SQL avancé, Python, Terraform, GCS, IAM GCP, Airflow / Composer, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Offre d'emploi
Data Scientist
ONSPARK
Publiée le
Cloudera
Hadoop
Python
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Scientist pour accompagner nos clients grands comptes. Vous travaillerez sur des données massives et complexes, et contribuerez à des cas d'usage à fort impact : modèles de prévision, simulateurs, analyses statistiques avancées, détection de tendances, dans un environnement Big Data on-premise (Cloudera CDP, Cloudera Machine Learning) avec accès à des IDE modernes (Jupyter, RStudio, VSCode). Responsabilités Concevoir et entraîner des modèles de Machine Learning et Deep Learning Analyser des jeux de données complexes et volumineux Collaborer avec les Data Engineers pour la mise en production des modèles Accompagner les équipes métier dans l'interprétation des résultats Contribuer aux cas d'usage IA et NLP de la plateforme
Offre d'emploi
Data Analyst
ONSPARK
Publiée le
Microsoft Power BI
Python
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Analyst pour accompagner nos clients grands comptes. Responsabilités Extraire, nettoyer et analyser des données issues de sources variées Produire des rapports et tableaux de bord à destination des équipes métier Identifier des tendances et formuler des recommandations Collaborer avec les Data Engineers pour l'accès aux données Contribuer à l'amélioration de la qualité des données
Offre d'emploi
Consultant Data SQL / MSBI
UCASE CONSULTING
Publiée le
Cognos
Microsoft SSIS
3 ans
50k-55k €
500-600 €
Paris, France
Bonjour à tous 👋 Dans le cadre d’une mission longue en environnement bancaire, je recherche un consultant Data expérimenté sur SQL / T-SQL / SSIS , pour intervenir sur une mission stratégique. Il aura pour rôle central de consolider, fiabiliser et valoriser les données clients afin de produire des analyses stratégiques et des indicateurs clés pour l’entreprise. Il intervient sur des projets à fort impact : lancement de produits, consolidation financière, analyses de risques, pilotage de l’activité, et contribue directement à la prise de décision. Au cœur de l’écosystème data, il collabore étroitement avec les équipes Data Engineering, Data Science, Architecture, ainsi qu’avec les experts métiers Finance, Risque, Marketing. Il sera en charge de vulgariser ses analyses, comprendre les enjeux business et proposer des solutions adaptées. Livrables attendus : Challenge, cadrage, chiffrage et priorisation des besoins métiers. Exploration, analyse et fouille de données Développement et industrialisation de traitements data. Suivi opérationnel du RUN et amélioration continue. Rédaction et mise à jour de la documentation technique et fonctionnelle.
Mission freelance
Data Migration & Integration Lead
Montreal Associates
Publiée le
30 mois
600-650 €
75001, Paris, Île-de-France
Bonjour, 🚫 𝐏𝐀𝐒 𝐃𝐄 𝐒𝐎𝐔𝐒-𝐓𝐑𝐀𝐈𝐓𝐀𝐍𝐂𝐄!🚫 Je recherche actuellement pour un de mes clients un profil : 🔔 𝐋𝐞𝐚𝐝 𝐃𝐚𝐭𝐚 𝐌𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 & 𝐈𝐧𝐭𝐞́𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐴𝑦𝑎𝑛𝑡 𝑑𝑒 𝑏𝑜𝑛𝑛𝑒 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑𝑒 𝑙𝑎 𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛 𝑆𝐴𝑃 𝑆𝑜𝑙𝑖𝑑𝑒 𝑒𝑥𝑝𝑒́𝑟𝑖𝑒𝑛𝑐𝑒 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛𝑛𝑒𝑙𝑙𝑒 𝑒𝑡 𝑡𝑒𝑐ℎ𝑛𝑖𝑞𝑢𝑒 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑑𝑜𝑛𝑛𝑒́𝑒 𝑀𝑎𝑖𝑡𝑟𝑖𝑠𝑒 𝑑𝑒𝑠 𝑜𝑢𝑡𝑖𝑙𝑠 𝑑𝑒 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 (𝐿𝑆𝑀𝑊, 𝑀𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝐶𝑜𝑐𝑘𝑝𝑖𝑡, 𝐸𝑇𝐿) 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑖𝑛𝑡𝑒́𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑆𝐴𝑃 (𝐼𝐷𝑂𝐶...) 𝐵𝑜𝑛𝑛𝑒 𝑐𝑜𝑚𝑝𝑟𝑒́ℎ𝑒𝑛𝑠𝑖𝑜𝑛 𝑑𝑒𝑠 𝑝𝑟𝑜𝑐𝑒𝑠𝑠𝑢𝑠 𝑚𝑒́𝑡𝑖𝑒𝑟 : 𝐹𝐼 𝐶𝑂, 𝑆𝐷 𝑀𝑀, 𝐻𝑅 🎯 𝐌𝐢𝐬𝐬𝐢𝐨𝐧 𝐈𝐧𝐭𝐞𝐫𝐯𝐞𝐧𝐢𝐫 𝐝𝐚𝐧𝐬 𝐮𝐧 𝐞𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐜𝐨𝐦𝐩𝐥𝐞𝐱𝐞, 𝐢𝐧𝐭𝐞𝐫𝐧𝐚𝐭𝐢𝐨𝐧𝐚𝐥, 𝐦𝐮𝐥𝐭𝐢-𝐬𝐲𝐬𝐭𝐞̀𝐦𝐞 (𝐒𝐀𝐏 & 𝐬𝐨𝐥𝐮𝐭𝐢𝐨𝐧𝐬 𝐭𝐢𝐞𝐫𝐜𝐞𝐬) 𝐚𝐯𝐞𝐜 𝐝𝐞𝐬 𝐞𝐧𝐣𝐞𝐮𝐱 𝐟𝐨𝐫𝐭𝐬 𝐚𝐮𝐭𝐨𝐮𝐫 𝐝𝐞 𝐥𝐚 𝐜𝐨𝐧𝐭𝐢𝐧𝐮𝐢𝐭𝐞́ 𝐛𝐮𝐬𝐢𝐧𝐞𝐬𝐬 𝐞𝐭 𝐥𝐚 𝐪𝐮𝐚𝐥𝐢𝐭𝐞́ 𝐝𝐞 𝐝𝐨𝐧𝐧𝐞́𝐞𝐬. - Assurer la cohérence et la fiabilité des intégrations - Piloter les activités de migration de données et de cutover - Garantir la continuité des processus métiers (Finance, RH...etc.) - Avoir un rôle de référent transverse 🔊 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐜𝐨𝐮𝐫𝐚𝐧𝐭 obligatoire 📍𝐈𝐃𝐅 - 2/3j semaine sur site 🕐 ASAP - 3 𝐦𝐨𝐢𝐬 𝐫𝐞𝐧𝐨𝐮𝐯. Montreal Associates is acting as an Employment Business in relation to this vacancy.
Mission freelance
Data Analyst
Root-MENU
Publiée le
Analyse
6 mois
520-720 €
Paris, France
Nous recherchons un(e) Data Analyst pour rejoindre notre équipe et contribuer à la valorisation des données de l’entreprise. Vous serez en charge de collecter, analyser et interpréter des données afin d’aider à la prise de décision stratégique. Vos missions: ➜ Extraire et traiter des données provenant de différentes sources ➜ Concevoir des tableaux de bord et rapports (KPI, indicateurs de performance) ➜ Identifier des tendances et formuler des recommandations ➜ Collaborer avec les équipes métiers pour comprendre leurs besoins
Offre d'emploi
Expertise Kafka / DATA ENGINEERING
Digistrat consulting
Publiée le
Apache Kafka
ELK
3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Expert kafka 💡Description détaillée Le contexte de la mission : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA 💡Principales technologies utilisées : • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
220 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois