L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 790 résultats.
Mission freelance
Data Engineer / Développeur Talend
ARGANA CONSULTING CORP LLP
Publiée le
Data governance
Data Lake
Data modelling
12 mois
400-460 €
Paris, France
Nous recherchons un Développeur Talend confirmé / Data Engineer pour renforcer une équipe existante, en appui direct au Tech Lead, afin d’augmenter la capacité de delivery sur les projets data. 🧠 Compétences requises 🔴 Compétences impératives Talend (ETL) : niveau confirmé (3 à 6 ans) Développement de pipelines d’intégration de données Maintenance et évolution de flux existants (MCO) 🟠 Compétences importantes Data engineering (modélisation, qualité de données) Intégration de données multi-sources Compréhension des architectures data (Data Lake, ETL) 🟡 Compétences appréciées Gouvernance data / bonnes pratiques Sécurité des données Outils de versioning et CI/CD Documentation technique 🎓 Formation & expérience Bac +2 à Bac +5 (informatique / data) Expérience : 3 à 6 ans minimum Expérience significative sur Talend obligatoire 📋 Fiche de poste – Missions 🎯 Objectif principal Renforcer l’équipe data pour : Développer de nouveaux pipelines d’intégration Assurer la maintenance des flux existants Garantir la qualité, la sécurité et la performance des données 🔧 Missions principales 🏗️ Développement & intégration Concevoir et développer des flux Talend Réaliser : Modélisation Paramétrage Développement Tests Implémenter de nouveaux pipelines data 🔄 Maintenance & exploitation (MCO) Assurer le maintien en condition opérationnelle des pipelines Corriger les anomalies et optimiser les performances Superviser les traitements de données 🧩 Data engineering Structurer et organiser les données (formats, modèles) Garantir la qualité des données (nettoyage, validation) Participer à l’alimentation du Data Lake 🛠️ Gouvernance & bonnes pratiques Appliquer les normes et standards de développement Contribuer à : L’architecture data Les bonnes pratiques de développement La gestion de configuration Documenter les développements 🤝 Support & collaboration Accompagner les équipes projet (SI, data, métiers) Travailler en collaboration avec le Tech Lead Participer à la montée en compétence de l’équipe 🔐 Sécurité & conformité Garantir la sécurité des flux de données Respecter les règles de gouvernance data 📦 Livrables attendus Développements Talend (jobs, pipelines) Documentation technique Dossiers d’architecture data Cartographie des flux et données Indicateurs de qualité des données
Mission freelance
Expert Data Gouvernance (H/F) – Secteur Bancaire
CELAD
Publiée le
1 an
Paris, France
Contexte Dans le cadre d’une mission pour l’un de nos clients, acteur majeur du secteur bancaire, nous recherchons un Expert Data Gouvernance afin d’accompagner la structuration et l’optimisation de la gestion des données. Vous interviendrez dans un environnement exigeant, au cœur des enjeux stratégiques liés à la qualité, la sécurité et la valorisation des données. Vos missions Définir et déployer la stratégie de gouvernance des données Mettre en place les politiques, standards et processus de gestion des données Assurer la qualité, la fiabilité et la traçabilité des données (data quality, data lineage) Piloter les dispositifs de conformité (notamment réglementaires) Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts, etc.) Mettre en place et animer les comités de gouvernance Définir les rôles et responsabilités (Data Owner, Data Steward…) Accompagner la conduite du changement et la sensibilisation des équipes Suivre les indicateurs de performance liés à la data gouvernance
Offre d'emploi
Data Engineering - DBT / SQL Junior (350€ MAX)
BEEZEN
Publiée le
DBT
6 mois
28k-35k €
280-350 €
Île-de-France, France
La prestation s’inscrit au sein de l’équipe technique et participe à l’industrialisation des flux de données. Ses missions principales sont : ● Ingestion Multi-sources : Développer des connecteurs et des scripts pour collecter des données via API (SaaS, partenaires) ou extractions de bases de données. ● Transformation (ETL/ELT) : Nettoyer, enrichir et structurer les données brutes dans BigQuery pour les rendre exploitables par les analystes et Data Scientists. ● Automatisation & Orchestration : Déployer et monitorer les chaînes de traitement (DAGs) pour garantir la disponibilité et la qualité des données au quotidien. Livrables : ● Pipelines de données opérationnels et documentés. ● Scripts de transformation SQL et Python. ● Confi guration des orchestrateurs (Composer/Airfl ow). ● Documentation des schémas de données cibles." ● Maîtriser DBT pour la transformation et l’orchestration des données. ● Travailler sur des environnements Data et Cloud, notamment GCP. ● Exploiter BigQuery et SQL avancé sur de gros volumes de données. ● Manipuler et analyser les données en SQL. ● Utiliser DBT pour structurer les pipelines data
Offre d'emploi
QA DATA
KOUKA
Publiée le
CI/CD
Cypress
JIRA
40k-45k €
Île-de-France, France
La définition et la mise en œuvre de stratégies de tests sur les flux de données La validation des données (contrôles SQL, cohérence, complétude, intégrité) La rédaction et l’exécution de cas de tests fonctionnels et techniques L’automatisation des tests (API, UI, data pipelines) La collaboration avec les équipes Data, Dev et Produit Le suivi des anomalies et leur résolution Langages / Data : SQL Gestion des tests : JIRA / XRAY Méthodologie : BDD – Gherkin Tests automatisés : Cypress Tests API : Postman / Newman CI/CD : GitLab Versioning : Git
Offre d'emploi
Data Solution Architect
LEVUP
Publiée le
Azure
12 mois
Bruxelles, Bruxelles-Capitale, Belgique
L’architecte de solutions Data guide les activités et les livrables d’analyse, de conception et techniques tout au long d’un projet. Il définit l’architecture de la solution en tenant compte des normes existantes et des exigences du système. Il veille à proposer une solution technique conforme aux besoins du client ainsi qu’à la vision de l’architecture d’entreprise cible. L’architecte de solutions Data fournit au chef de projet toutes les informations nécessaires concernant les activités d’analyse, de conception et de développement, ainsi que sur les enjeux architecturaux, techniques et opérationnels. Il est responsable de bout en bout de la définition et de la mise en œuvre de la solution, et veille à trouver le bon compromis entre les différentes exigences (meilleure solution possible). Créer et maintenir l’architecture de la solution via le document d’architecture de solution (SAD) et obtenir sa validation par le comité d’architecture (Architecture Review Board) Identifier les technologies qui seront utilisées pour le projet en collaboration avec les architectes applicatifs et d’entreprise Recommander les méthodologies de développement, frameworks et règles de codage en tenant compte des standards d’architecture et des besoins métier (fonctionnels et non fonctionnels), et en assurer l’application Fournir la conception globale et la structure de l’application S’assurer que la solution finale respecte l’architecture définie Identifier les tâches d’ingénierie logicielle pour le chef de projet Accompagner et guider les autres membres techniques de l’équipe (développeurs et concepteurs) et les aider sur les tâches complexes Assister le chef de projet dans l’estimation des coûts et des bénéfices du projet, notamment sur les aspects techniques Collaborer avec les équipes de test pour identifier les besoins en infrastructure et en support Veiller à ce que les décisions techniques soient prises et documentées Maximiser la réutilisation des actifs existants et des bonnes pratiques dans le cadre du projet
Mission freelance
Ingénieur Infrastructure Expert Zabbix & Réseau (H/F)
emagine Consulting SARL
Publiée le
Grafana
InfluxDB
Monitoring
36 mois
Guyancourt, Île-de-France
Dans le cadre d’un programme de transformation IT au sein d’un grand groupe, vous intervenez en tant qu’expert sur les sujets d’observabilité et de supervision. Vous contribuez à la convergence des outils vers une solution centralisée basée sur Zabbix, tout en accompagnant les équipes sur des problématiques réseau. Vous participez aux choix d’architecture, à l’industrialisation des solutions et à l’amélioration continue des plateformes. Vous intervenez à la fois sur des activités BUILD (mise en place, évolution) et RUN (support expert, optimisation). Vous êtes également force de proposition sur les sujets d’automatisation, de performance et de fiabilité des systèmes dans un environnement critique et à forte volumétrie.
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
PROPULSE IT
Publiée le
Azure
BI
Cloud
24 mois
200-400 €
Paris, France
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Offre d'emploi
Data Engineer Big Data / BI
adbi
Publiée le
Apache Hive
Apache Spark
Cloudera
12 mois
38k-46k €
Paris, France
Data Engineer Big Data / BI – Scala, Spark, SQL, Hive, Cloudera (H/F) 💼 Contrat : CDI 🏢 Entreprise : ADBI – Expert en Data Management et transformation digitaleContexte du poste Dans le cadre de l’évolution de ses plateformes Big Data et décisionnelles, ADBI recherche un(e) Data Engineer pour intervenir sur des projets d’intégration, de transformation et d’industrialisation de données. Vous participerez à la migration et à l’optimisation d’environnements Big Data (Cloudera, Spark, Hive, Scala) et contribuerez à la mise en place de solutions BI performantes et scalables.
Offre d'emploi
Expert Big Data / Lead Tech Big Data
ONSPARK
Publiée le
Cloudera
Hadoop
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Expert / Lead Tech Big Data pour accompagner nos clients grands comptes. Vous interviendrez en tant que référent technique au sein d'environnements Big Data on-premise matures (Cloudera CDP), avec de fortes exigences en matière de performance, de sécurité (ISO 27001, RGS) et de qualité. Responsabilités Définir les orientations techniques de la plateforme Big Data Encadrer et accompagner les équipes Data Engineering Optimiser les performances des traitements distribués (Spark, Hadoop) Assurer une veille technologique active et contribuer à la roadmap technique Garantir la sécurité, la fiabilité et l'évolutivité de la plateforme
Offre d'emploi
Consultants MS BI Confirmés H/F
MGI Consultants
Publiée le
Azure Data Factory
Microsoft Power BI
Paris, France
Notre client, leader de la transformation urbaine bas carbone, est un groupe français présent sur l’ensemble des métiers de l’immobilier (logement et bureaux ; activités dans les énergies renouvelables, les Datacenters et l’investissement immobilier). Avec sa capacité à porter de grands projets mixtes, il s’impose comme le premier développeur immobilier des territoires en France. Au sein de la Direction des Systèmes d’Information, le Pôle Data recherche un Consultant Microsoft BI confirmé. Sa mission principale sera de prendre en charge les développements liés au projet de reporting pour l’activité énergies renouvelables. Objectifs de la mission Concevoir des modèles de données adaptés Créer et optimiser des bases de données et entrepôts de données (SQL Server principalement) Prendre en charge les développements de rapports Power BI Prendre en charge les développements de scripts SQL/Procédures Prendre en charge les développements des pipelines Azure Data Factory Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality) Être force de propositions sur les optimisations de traitement Rédaction de la documentation (spécifications techniques), recettes Gestion du code source via Microsoft Devops et déploiement CI/CD Préparation des livrables pour les mises en production
Offre d'emploi
Data manager sur Tours
EterniTech
Publiée le
3DEXPERIENCE (3DX)
3 mois
Tours, Centre-Val de Loire
je cherche pour un de mes clients un Data manager sur Tours Poste : Data Manager Nombre de poste : 1 Expérience : 5 ans Localisation : TOURS - 8 Rue de Boutteville (2jours de TTV par semaine) Démarrage : ASAP Le TITULAIRE s’engage à ce que ses intervenants aient, dès le début de la prestation, les connaissances suffisantes : o dans le domaine du nucléaire (en particulier dans les domaines de l’installation générale, du fonctionnement, du génie civil et de la sûreté), o sur 3DX ou a minima un PLM équivalent. data management - impératif connaissance de l’outil 3DX - impératif Connaissance de 3DX Connaissance des outils E3D et ALLPLAN ou appétence pour montée en compétence rapide sur ces outils
Offre d'emploi
Data Modelisation sur Paris
EterniTech
Publiée le
BigQuery
Merise
3 mois
Paris, France
e cherche pour un de mes clients un Data Modelisation Description du besoin : OBJET DE LA PRESTATION : DATA MODELER - PROGRAMME DE TRANSFORMATION DATA B2B NOM DU PROJET : TRANSFORMATION DATA B2B Senior Data Analyst / Data Modeler (B2B) Cadre et environnement (Contexte général du projet) Dans le cadre du programme de transformation de la Data B2B (Agite Data), le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir, en mode agile, le socle technique et les données de référence (RCU, Pivots) qui serviront ensuite aux Squads Métiers pour bâtir leurs cas d'usages Définition de la prestation (Objet & Périmètre de la prestation) Le Prestataire agira en tant que Référent Modélisation & Connaissance de la Donnée. Il fera le lien entre les Experts Métiers et le Lead data engineer agile. 1) Conception du "Core Model" : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) en cible sur BigQuery (Modèles en étoile / Data Vault). 2) Règles de Gestion RCU : Définir et prototyper (en SQL) les règles de rapprochement (Matching/Merging) permettant de lier les données techniques (ex: ND) aux données légales (SIREN/SIRET). 3) Archéologie de la Donnée : Analyser les sources Legacy (Oracle) pour identifier les règles implicites et cartographier les écarts avec la cible. 4) Gouvernance & Dictionnaire : Rédiger les définitions fonctionnelles directement dans le Data Catalog d'AIDA (Métadonnées BigQuery) et le Data Catalog Métier (ODG = Open Data Guide) pour garantir l'autonomie des futures Squads. 5) Support aux Squads : Préparer des "Data Sets" certifiés pour faciliter le travail des Data Scientists et Analystes des Squads Métiers. Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Modélisation Cible Modèles Logiques de Données (MLD) validés par le Tech Lead. Mapping Source-to-Target détaillé. Itératif : 1er Draft RCU mi-Mars 2026 Définition du RCU (Vision 360) Spécification SQL des règles d'unicité client (Clés de réconciliation). Matrice de gestion des cas particuliers (Multi-comptes, Flottes). MVP RCU : Fin Mars 2026 Gouvernance des Données Dictionnaire de données (Business Glossary) intégré dans AIDA et ODG Règles de Qualité (DQ Rules) définies pour chaque objet métier Continu Exploration & Prototypage Requêtes SQL d'analyse d'impact. Datasets de test pour validation métier. A la demande Domaines de compétences et savoir faire de la société prestataire, nécessaires à la bonne réalisation de la prestation : Indispensable : Modélisation de Données Expert : Maîtrise des concepts théoriques (Merise, 3NF) et dimensionnels (Star Schema, Kimball). Capacité à simplifier des modèles complexes. SQL Avancé : Capacité à manipuler la donnée (Requetage complexe, Window Functions) pour valider ses propres modèles (pas de spécifications "papier" uniquement). Analyse Fonctionnelle : Capacité à dialoguer avec le Métier (Marketing, Finance) pour extraire les règles de gestion. Expérience avérée dans un cadre de travail Agile / Scrum. Connaissance su secteur B2B/ TELECOM : Compréhension des notions de Hiérarchie de comptes, Parcellaire, SIRET/SIREN. Connaissance de l’environnement BIGQUERY Savoir-être : Esprit de synthèse. Force de proposition (ne pas attendre que le métier dicte le modèle). Pragmatisme (livrer de la valeur incrémentale).
Offre d'emploi
Data Ingénieur - spécialisé ODM / IA
VISIAN
Publiée le
IA
1 an
Nantes, Pays de la Loire
Contexte Intégration au sein de l'IA Factory en qualité de Data Ingénieur spécialisé ODM, avec pour objectif de renforcer les capacités de modélisation et d'automatisation des règles métier. Dans le cadre de l'accélération de l'intelligence artificielle au sein de la banque commerciale en France d'une grande banque internationale. Missions Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée. Responsable de la mise en œuvre du pipeline d’ingestion des données brutes (Data Lake ou autre). Assurer l'industrialisation, la supervision et l'intégration des solutions ou des données en garantissant l'engagement de service de l'environnement de production. Rédaction et formalisation des règles métier. Test, recette et validation des règles métier développées. Maintenance et évolution des règles au sein des outils de Rule Designer et Décision Center. Analyse des besoins fonctionnels et modélisation des processus décisionnels. Assistance au PO proxy (aide pour planifier les ateliers, rédaction de certains documents projets…). Animation et structuration des ateliers de travail, rédaction des comptes rendus et livrables associés.
Offre d'emploi
Chef de projet réseau H/F
iDNA
Publiée le
Firewall
LAN
Load Balancing
12 mois
61k-67k €
480-500 €
Île-de-France, France
Nous Connaitre : Créé en 2011, iDNA est un cabinet de conseil indépendant qui accompagne ses clients sur les domaines clés de l’IT et les aide à créer de la valeur grâce à leur système d’information. Nous intervenons auprès des plus grandes entreprises françaises. Après 15 années de développement dans la cybersécurité des environnements IT et OT, iDNA devient une filiale de NXO France tout en conservant son identité, son autonomie opérationnelle et ses équipes. Une alliance fondée sur des valeurs communes, la complémentarité des expertises et une ambition partagée : créer toujours plus de valeur pour nos clients. Contexte :Pour l’un de nos clients (secteur bancaire), nous recherchons un(e) Chef(fe) de Projets réseau chargé(e) de piloter des projets réseaux dans un contexte international. Vous intégrerez l’équipe Build, MCO et RUN sur les équipements d'infrastructure sécurité. A cet effet, vos missions consisteront à : · Assurer le suivi des projets, apporter conseil et assistance à l'équipe · Assurer le suivi des projets, imprimer le rythme des évolutions, coordonner et faciliter les échanges avec les autres équipes, effectuer un reporting d'avancement · Participer au dispatch des tâches de RUN (tickets de demande, d'incident, etc ...) dans un objectif de qualité, de productivité et de sécurité. · Suivre particulièrement le projet de migration VPN (coordination, relances) et remonter les points de blocage · Participer à la structuration de la documentation et assurer le suivi de son évolution. · Participer à la veille technologique, · Vérifier l'application des normes (sécurité informatique, qualité) et les contrôles permanents · Participer à la gestion du « capacity planning » notamment en aidant à la conception de Dashboard · Assurer le suivi de l'obsolescence de nos assets · Assurer le suivi des tâches déléguées à l'équipe INX Vos responsabilités : - Pilotage de projets techniques complexes - Supervision de l'ensemble du cycle de vie des projets (cadrage, conception, réalisation, déploiement) - Garantit du respect des délais, des budgets et de la qualité - Gestion des arbitrages techniques et fonctionnels - Coordination des équipes et des parties prenantes - Encadrement des chefs de projet, architectes, développeurs, intégrateurs, etc - Animation des comités de pilotage et de suivi - Expertise technique et choix d'architecture - Validation des choix technologiques et des architectures proposées - Amélioration continue et innovation - Suivi budgétaire et gestion des risques - S'assurer de la cohérence technique avec le système d'information existant - Assurer la communication entre les équipes techniques, métiers et direction - Anticiper les impacts techniques et sécuritaires des projets - Élaborer et suivre les budgets projets - Identifier les risques (techniques, humains, organisationnels) et mettre en place des plans de mitigation - Assurer la conformité aux normes internes et réglementaires - Capitaliser sur les retours d'expérience pour améliorer les pratiques de gestion de projet - Promouvoir l'innovation technologique au sein des projets - Participer à la veille technologique et à la transformation digitale de l'entreprise - Participer à la veille et l'évaluation prospective technologique sur les produits ; Avantages & PerspectivesLocalisation : IDF, possibilité de distanciel à définir avec le clientDémarrage : dès que possibleTJM : +/-500 euros selon profilPossibilité d’intervenir en Heures Non Ouvrables (HNO)
Mission freelance
Expert Looker Core (BI / Big Data)
Signe +
Publiée le
Looker Studio
8 mois
900 €
Paris, France
Dans le cadre d’une étude autour d’un outil de datavisualisation cloud, la mission consiste à évaluer et accompagner l’usage de Looker Core (GCP) pour des cas d’usage métier et techniques. L’objectif est de : Déployer et accompagner des POC Looker Évaluer la capacité de l’outil à répondre aux besoins de self-service analytics Explorer les usages avancés (IA / conversational analytics) Contribuer à l’architecture cible dans un contexte cloud 🧠 Mission principale Le consultant interviendra en tant qu’ expert Looker Core pour : Accompagner les équipes métiers dans la construction de POC Former et guider les utilisateurs sur Looker Apporter une expertise sur : l’architecture Looker l’intégration GCP / BigQuery la sécurité et les bonnes pratiques les enjeux FinOps Collaborer avec les équipes IT (architectes, ops, data engineers, métiers)
Offre d'emploi
Consultant Senior Data & Finance – Étude de Faisabilité SI Finance
VISIAN
Publiée le
Architecture
Data management
3 ans
40k-44k €
450-490 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un programme stratégique de transformation des systèmes d’information Finance, une organisation internationale souhaite étudier l’intégration de données financières issues de multiples entités opérationnelles vers des datamarts Finance Groupe. L’environnement est caractérisé par : une forte hétérogénéité des systèmes (multi-ERP), des niveaux de maturité variables selon les entités, une gouvernance des données décentralisée. La mission s’inscrit dans une phase de cadrage stratégique, exclusivement orientée analyse et aide à la décision (aucune activité de développement ou de build). Missions Analyser les processus Finance (comptabilité fournisseurs, clients, grand livre) au sein de différentes entités Identifier les besoins métiers liés à l’alimentation de datamarts Finance Évaluer la qualité, la disponibilité et la cohérence des données existantes Étudier les architectures SI et data en place (ERP, flux, stockage) Identifier et comparer différents scénarios d’intégration des données (batch, API, cloud) Analyser les contraintes techniques, organisationnelles et réglementaires Évaluer les modèles de gouvernance et les règles de gestion des données Identifier les risques, dépendances et proposer des plans de mitigation Construire des scénarios de faisabilité (coûts, complexité, scalabilité) Produire une recommandation argumentée pour orienter la décision (Go / No Go) Contribuer aux comités de pilotage et aux reportings d’avancement Livrables attendus Analyse des processus Finance (AP / AR / GL) Cartographie des systèmes (ERP et data) Évaluation de la qualité et de la structure des données Scorecards de faisabilité par périmètre Étude des patterns d’intégration Schémas d’architecture cible (niveau macro) Analyse des risques et contraintes Scénarios comparatifs de mise en œuvre Rapport de faisabilité consolidé avec recommandation Supports de pilotage projet Environnement technique ERP : multi-environnements (type SAP, Sage, IFS, Navision) Data : plateformes data groupe / data cloud Intégration : batch, API, flux inter-systèmes, cloud-to-cloud Gouvernance : standards data et cybersécurité groupe
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5790 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois