L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 089 résultats.
Offre d'emploi
Administrateur système et réseau H/F
PROXIEL
Publiée le
Administration réseaux
Administration système
LAN
3 ans
32k-38k €
300-350 €
Bagnols-sur-Cèze, Occitanie
Nous recherchons pour notre client situé sur Bagnols sur Cèze (30) un Administrateur système et réseau H/F. Missions : Dans le cadre du renforcement de son équipe IT, notre client, acteur majeur du secteur industriel, recherche un(e) Administrateur(trice) Systèmes & Réseaux pour intervenir sur un environnement technique exigeant et sécurisé : · Administration des serveurs (Windows / Linux) · Gestion des infrastructures réseau (LAN/WAN, VLAN, routage, Wi-Fi) · Supervision et maintien en condition opérationnelle des systèmes · Gestion des incidents niveau 2 et 3 · Mise en œuvre des politiques de sécurité (sauvegardes, antivirus, firewall, droits d’accès) · Participation aux projets d’évolution et de modernisation du SI · Rédaction de la documentation technique · Support technique aux utilisateurs Profil : Formation Bac+3 à +5 en informatique, vous détenez minimum 5 ans d’expérience. Vous avez une bonne maîtrise des réseaux LAN/WAN ainsi que sur MCS. Une expérience en secteur industriel sensible est appréciée. Avantages : Mutuelle entreprise – Prévoyance - Tickets restaurants - Prime de vacances- Télétravail - Prime de Partage de la Valeur (PPV).
Mission freelance
Ingénieur réseau/cyber spécialisé Fortinet(F/H)
ODHCOM - FREELANCEREPUBLIK
Publiée le
Cybersécurité
Fortinet
Réseaux
12 mois
550-750 €
Toulouse, Occitanie
Mission dans le secteur des télécommunications Nous recherchons un ingénieur réseau/cyber spécialisé Fortinet, avec une forte dimension intégration et automatisation, capable de construire des solutions standardisées dans un environnement Agile et international. Contexte : Le client développe des produits de cybersécurité standardisés basés sur l’écosystème Fortinet (notamment FortiGate, FortiManager, FortiAnalyzer). L’objectif n’est pas de faire du projet spécifique client, mais de : - créer des solutions “industrialisées” - réutilisables par les différentes BU - facilement déployables à grande échelle (logique de “productification”) Environnement Technique & Fonctionnel : Focus fort sur FortiManager (centralisation / automatisation). Intégration dans des pipelines CI/CD. Logique d’automatisation et standardisation : templates de configuration (Jinja), gestion de configuration, contrôle & cohérence des déploiements. Enjeu principal : Construire un système : standardisé, robuste, réutilisable, scalable, MAIS PAS exploitation, ni maintenance, ni run. Profil attendu : Exp : 5 -10 ans Capacité : comprendre des besoins métier, construire une solution technique standardisée, intégrer des outils dans un écosystème industrialisé
Offre d'emploi
Data Governance Lead
Gentis Recruitment SAS
Publiée le
Data Mesh
6 mois
51k-91k €
560-1k €
Luxembourg
Nous recherchons un(e) Data Governance Lead pour piloter la mise en place et l’industrialisation de la gouvernance des données à l’échelle du Groupe, dans un contexte de transformation data stratégique. Rattaché(e) au Chief Data, Analytics & AI Officer (CDAO) , vous serez responsable de définir et déployer un cadre de gouvernance garantissant la qualité, la conformité et la valorisation des données . Vous interviendrez sur des sujets clés tels que les modèles de responsabilité (Data Mesh), la qualité des données, la gestion des métadonnées, la traçabilité et le cycle de vie des données. Vous collaborerez étroitement avec les équipes BI, Data, IA et IT afin d’assurer une utilisation fiable, éthique et performante des données. Vous jouerez également un rôle central dans la mise en conformité avec les réglementations (RGPD, Solvabilité II, CSSF, etc.) et dans l’animation des instances de gouvernance.
Offre d'emploi
Consultant Senior Data & Finance – Étude de Faisabilité SI Finance
VISIAN
Publiée le
Architecture
Data management
3 ans
40k-44k €
450-490 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un programme stratégique de transformation des systèmes d’information Finance, une organisation internationale souhaite étudier l’intégration de données financières issues de multiples entités opérationnelles vers des datamarts Finance Groupe. L’environnement est caractérisé par : une forte hétérogénéité des systèmes (multi-ERP), des niveaux de maturité variables selon les entités, une gouvernance des données décentralisée. La mission s’inscrit dans une phase de cadrage stratégique, exclusivement orientée analyse et aide à la décision (aucune activité de développement ou de build). Missions Analyser les processus Finance (comptabilité fournisseurs, clients, grand livre) au sein de différentes entités Identifier les besoins métiers liés à l’alimentation de datamarts Finance Évaluer la qualité, la disponibilité et la cohérence des données existantes Étudier les architectures SI et data en place (ERP, flux, stockage) Identifier et comparer différents scénarios d’intégration des données (batch, API, cloud) Analyser les contraintes techniques, organisationnelles et réglementaires Évaluer les modèles de gouvernance et les règles de gestion des données Identifier les risques, dépendances et proposer des plans de mitigation Construire des scénarios de faisabilité (coûts, complexité, scalabilité) Produire une recommandation argumentée pour orienter la décision (Go / No Go) Contribuer aux comités de pilotage et aux reportings d’avancement Livrables attendus Analyse des processus Finance (AP / AR / GL) Cartographie des systèmes (ERP et data) Évaluation de la qualité et de la structure des données Scorecards de faisabilité par périmètre Étude des patterns d’intégration Schémas d’architecture cible (niveau macro) Analyse des risques et contraintes Scénarios comparatifs de mise en œuvre Rapport de faisabilité consolidé avec recommandation Supports de pilotage projet Environnement technique ERP : multi-environnements (type SAP, Sage, IFS, Navision) Data : plateformes data groupe / data cloud Intégration : batch, API, flux inter-systèmes, cloud-to-cloud Gouvernance : standards data et cybersécurité groupe
Mission freelance
BA Référentiel Data/Asset Management
Cherry Pick
Publiée le
Finance
12 mois
570-620 €
Paris, France
Dans le cadre du développement de ses systèmes de gestion, le client doit recourir à une prestation externe pour fournir assistance au support des outils de reporting et à la conduite des projets liés à la mise à disposition des données produits, via tous types de supports (reportings, interfaces web, fichiers, emails…) OBJET DE LA PRESTATION Les principaux objectifs de la prestation sont les suivants : Description des processus métier, les challenger, et proposition d’améliorations/simplifications et implantation dans les outils correspondants. Contribution à la conception de l’architecture des systèmes d’information et propositions de solutions partagées. Rédaction des use cases en fonction des besoins clients. Rédaction des études de faisabilité, production des spécifications fonctionnelles, évaluation des travaux à prévoir et validation des développements. Formalisation et explication des besoins fonctionnels en tâches et améliorations techniques en vue du développement par la MOE. Gestion de la conduite de projet (proposer les plannings des projets, des lots éventuels et des échéances, organiser et animer les projets). Participation active aux réunions, au reporting d’activité et comités projets. Garantie du bon fonctionnement au quotidien de la plateforme et du support niveau 2
Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance
Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud
12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Offre d'emploi
Data manager sur Tours
EterniTech
Publiée le
3DEXPERIENCE (3DX)
3 mois
Tours, Centre-Val de Loire
je cherche pour un de mes clients un Data manager sur Tours Poste : Data Manager Nombre de poste : 1 Expérience : 5 ans Localisation : TOURS - 8 Rue de Boutteville (2jours de TTV par semaine) Démarrage : ASAP Le TITULAIRE s’engage à ce que ses intervenants aient, dès le début de la prestation, les connaissances suffisantes : o dans le domaine du nucléaire (en particulier dans les domaines de l’installation générale, du fonctionnement, du génie civil et de la sûreté), o sur 3DX ou a minima un PLM équivalent. data management - impératif connaissance de l’outil 3DX - impératif Connaissance de 3DX Connaissance des outils E3D et ALLPLAN ou appétence pour montée en compétence rapide sur ces outils
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
PROPULSE IT
Publiée le
Azure
BI
Cloud
24 mois
200-400 €
Paris, France
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Offre d'emploi
Data Modelisation sur Paris
EterniTech
Publiée le
BigQuery
Merise
3 mois
Paris, France
e cherche pour un de mes clients un Data Modelisation Description du besoin : OBJET DE LA PRESTATION : DATA MODELER - PROGRAMME DE TRANSFORMATION DATA B2B NOM DU PROJET : TRANSFORMATION DATA B2B Senior Data Analyst / Data Modeler (B2B) Cadre et environnement (Contexte général du projet) Dans le cadre du programme de transformation de la Data B2B (Agite Data), le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir, en mode agile, le socle technique et les données de référence (RCU, Pivots) qui serviront ensuite aux Squads Métiers pour bâtir leurs cas d'usages Définition de la prestation (Objet & Périmètre de la prestation) Le Prestataire agira en tant que Référent Modélisation & Connaissance de la Donnée. Il fera le lien entre les Experts Métiers et le Lead data engineer agile. 1) Conception du "Core Model" : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) en cible sur BigQuery (Modèles en étoile / Data Vault). 2) Règles de Gestion RCU : Définir et prototyper (en SQL) les règles de rapprochement (Matching/Merging) permettant de lier les données techniques (ex: ND) aux données légales (SIREN/SIRET). 3) Archéologie de la Donnée : Analyser les sources Legacy (Oracle) pour identifier les règles implicites et cartographier les écarts avec la cible. 4) Gouvernance & Dictionnaire : Rédiger les définitions fonctionnelles directement dans le Data Catalog d'AIDA (Métadonnées BigQuery) et le Data Catalog Métier (ODG = Open Data Guide) pour garantir l'autonomie des futures Squads. 5) Support aux Squads : Préparer des "Data Sets" certifiés pour faciliter le travail des Data Scientists et Analystes des Squads Métiers. Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Modélisation Cible Modèles Logiques de Données (MLD) validés par le Tech Lead. Mapping Source-to-Target détaillé. Itératif : 1er Draft RCU mi-Mars 2026 Définition du RCU (Vision 360) Spécification SQL des règles d'unicité client (Clés de réconciliation). Matrice de gestion des cas particuliers (Multi-comptes, Flottes). MVP RCU : Fin Mars 2026 Gouvernance des Données Dictionnaire de données (Business Glossary) intégré dans AIDA et ODG Règles de Qualité (DQ Rules) définies pour chaque objet métier Continu Exploration & Prototypage Requêtes SQL d'analyse d'impact. Datasets de test pour validation métier. A la demande Domaines de compétences et savoir faire de la société prestataire, nécessaires à la bonne réalisation de la prestation : Indispensable : Modélisation de Données Expert : Maîtrise des concepts théoriques (Merise, 3NF) et dimensionnels (Star Schema, Kimball). Capacité à simplifier des modèles complexes. SQL Avancé : Capacité à manipuler la donnée (Requetage complexe, Window Functions) pour valider ses propres modèles (pas de spécifications "papier" uniquement). Analyse Fonctionnelle : Capacité à dialoguer avec le Métier (Marketing, Finance) pour extraire les règles de gestion. Expérience avérée dans un cadre de travail Agile / Scrum. Connaissance su secteur B2B/ TELECOM : Compréhension des notions de Hiérarchie de comptes, Parcellaire, SIRET/SIREN. Connaissance de l’environnement BIGQUERY Savoir-être : Esprit de synthèse. Force de proposition (ne pas attendre que le métier dicte le modèle). Pragmatisme (livrer de la valeur incrémentale).
Offre d'emploi
Ingénieur Réseau et sécurité H/F
OBJECTWARE
Publiée le
Aruba
Cisco
1 an
50k-60k €
400-470 €
Nantes, Pays de la Loire
Nous recherchons un Ingénieur réseau et sécurité H/F pour une mission à Nantes. Vous contribuez aux projets d’évolution (Build – 80%) et assurez le support technique de niveau 3 (Run– 20%). Activités Concevoir et faire évoluer les architectures réseau Réaliser les études techniques, chiffrages et livrables associés Analyser les besoins, challenger les solutions et participer aux mises en production Identifier les enjeux de sécurité Gérer les incidents complexes (N3) et accompagner les équipes N1/N2 Collaborer avec les experts, éditeurs et opérateurs Reporting et contribution à l’amélioration continue
Offre d'emploi
Architecte Data - IBM InfoSphere DataStage PX
CAT-AMANIA
Publiée le
CI/CD
Exadata
Kubernetes
40k-73k €
Île-de-France, France
Offre d'emploi : Architecte Solution Data / Référent Technique Plateforme Dans le cadre du déploiement récent d'une infrastructure Data Factory d'envergure, comprenant un entrepôt de données transversal et un écosystème de services associés, un profil d'expert technique est recherché pour assurer la pérennité et l'évolution de la plateforme. Missions principales Le titulaire du poste agit en tant que référent sur l'ensemble des choix technologiques et architecturaux de la plateforme. Les responsabilités s'articulent autour des axes suivants : Conception et Architecture : Traduire les besoins métier en solutions fonctionnelles et techniques. Analyser les besoins, définir les solutions et valider les nouveaux cas d'usage. Gouvernance Technique : Identifier les écarts entre les besoins spécifiques et les fonctionnalités de la plateforme mutualisée. Maintenir la documentation technique (cartographies, dossiers d'architecture, principes d'éligibilité). Expertise Data : Garantir la qualité de la modélisation des données, du lignage et de la qualité des flux. Coordination : Assurer l'interface entre les référents IT (Projet/Production) et les interlocuteurs métier (CDO, utilisateurs finaux) pour définir les priorités et les trajectoires d'évolution. Accompagnement : Faciliter le travail des équipes de développement tout au long du cycle de vie des projets et garantir le respect des standards d'architecture. Compétences techniques requises Une maîtrise approfondie des environnements data complexes est indispensable, avec une expertise particulière sur les technologies suivantes : ETL : IBM InfoSphere DataStage PX (compétence critique). Bases de données : Oracle Exadata au sein d'une architecture de type "Data Mesh" multi-instances. Orchestration et CI/CD : AutoSys, Ansible, Jenkins. Environnement Cloud : Kubernetes. Développement et Monitoring : Notions en Java/Angular et utilisation de Dynatrace. Profil recherché Le candidat doit démontrer une capacité à prendre de la hauteur sur des problématiques complexes et à s'imposer comme un garant des choix d'architecture. Une aptitude à influencer les décisions stratégiques et une rigueur méthodologique dans la gestion du lignage et de la qualité des données sont essentielles. Ce poste s'adresse à un profil expérimenté possédant une vision transverse de la chaîne de valeur de la donnée, de l'ingestion à l'exposition.
Mission freelance
Data Engineer – Tracking & Analytics
Nicholson SAS
Publiée le
BigQuery
Google Tag Manager
Looker Studio
7 mois
340 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d'une refonte majeure des outils de mesure d'audience, nous recherchons un Data Engineer pour accompagner la migration de l'écosystème analytics (transition de Adobe Analytics vers Piano Analytics ). Intégré(e) au département Solutions Digitales au sein d’une équipe agile, vous serez le garant de la collecte, de la transformation et de la restitution des données issues des canaux digitaux. La mission repose sur une exploitation avancée de la suite Google Data (GTM, BigQuery, Looker Studio). Missions principales 1. Implémentation & Tracking Accompagner les métiers dans la définition des besoins en tracking et des KPI associés. Assurer le paramétrage via Google Tag Manager (GTM) . Réaliser la recette des données lors des phases de test et après mise en production des features. 2. Engineering & Data Pipeline Concevoir et maintenir les flux d'ingestion de données vers BigQuery . Développer des scripts de transformation et d'ingestion (principalement en Node.js et Python ). Assurer le monitoring quotidien des flux (interventions et correctifs si nécessaire). Intégrer de nouvelles sources de données pour enrichir le pilotage global du projet. 3. Restitution & Analyse Fiabiliser et mettre à disposition les données dans Looker Studio . Analyser les données produites pour en extraire des enseignements actionnables. Contribuer à l'amélioration continue des processus et des méthodes de l'équipe. 4. Collaboration Agile Interagir étroitement avec les différents corps de métier (PO, UX, Architectes, Développeurs, Testeurs) pour la co-construction des fonctionnalités. Participer activement aux rituels du train Agile. Modalités pratiques Lieu : Niort (79) – Présence sur site obligatoire 3 jours/semaine . Démarrage : ASAP. Durée : Jusqu'au 31/12/2026. Budget d'achat max : 340 € HT / jour.
Offre d'emploi
Data Ingénieur - spécialisé ODM / IA
VISIAN
Publiée le
IA
1 an
Nantes, Pays de la Loire
Contexte Intégration au sein de l'IA Factory en qualité de Data Ingénieur spécialisé ODM, avec pour objectif de renforcer les capacités de modélisation et d'automatisation des règles métier. Dans le cadre de l'accélération de l'intelligence artificielle au sein de la banque commerciale en France d'une grande banque internationale. Missions Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée. Responsable de la mise en œuvre du pipeline d’ingestion des données brutes (Data Lake ou autre). Assurer l'industrialisation, la supervision et l'intégration des solutions ou des données en garantissant l'engagement de service de l'environnement de production. Rédaction et formalisation des règles métier. Test, recette et validation des règles métier développées. Maintenance et évolution des règles au sein des outils de Rule Designer et Décision Center. Analyse des besoins fonctionnels et modélisation des processus décisionnels. Assistance au PO proxy (aide pour planifier les ateliers, rédaction de certains documents projets…). Animation et structuration des ateliers de travail, rédaction des comptes rendus et livrables associés.
Offre d'emploi
Développeur Full Stack H/F
ASTERIA
Publiée le
Angular
Data Lake
Data Warehouse
6 mois
Monaco
Nous recherchons, pour l'un de nos Clients basés sur Monaco, un Développeur Full Stack H/F. VOTRE MISSION : Notre Client recherche un Développeur Full Stack H/F capable d’intervenir sur l’ensemble de la chaîne applicative, de l’interface utilisateur jusqu’aux services backend, dans un environnement cloud natif et containerisé permettant de valoriser des volumes de données complexes. Il devra concevoir et développer des applications intégrant des interfaces utilisateurs modernes et réactives qui s'appuieront sur des API performantes et scalables pour des cas d'usage Data/IA. Il travaillera en étroite collaboration avec les équipes data/IA pour proposer des solutions innovantes et performantes. Il participera également à l'optimisation des flux de travail de données (Data Pipelines Airflow) en collaboration avec l'équipe Data Engineering. Missions principales : Participer à l’analyse des besoins avec le chef de projet et les parties prenantes (UX/UI, métiers) Concevoir, développer et déployer des applications et chaînes de traitements autour de la Data et l'IA Rédiger et maintenir la documentation technique et fonctionnelle Réaliser les tests unitaires, d’intégration et fonctionnels Mettre en place et maintenir des pipelines CI/CD Collaborer étroitement avec les équipes Data & IA et plateforme Assurer le respect des critères qualité, délais, coûts et satisfaction utilisateur Participer aux revues de code et aux bonnes pratiques de développement Contribuer à l’amélioration continue des processus et outils de développement Veiller à la sécurité des applications et à la conformité des données personnelles
Mission freelance
Senior Data Engineer
Signe +
Publiée le
DBT
12 mois
400-580 €
Vélizy-Villacoublay, Île-de-France
🎯 MISSIONS Concevoir et déployer des pipelines ETL/ELT performants (complets, incrémentaux, historiques) Construire et maintenir des Data Warehouses, Data Marts et cubes décisionnels Intégrer des données via API, transferts de fichiers, Data Lakes Optimiser les performances SQL et gérer les incidents en production Contribuer aux phases de cadrage / data discovery avec les parties prenantes Appliquer les bonnes pratiques dev, tests et déploiement en Agile Livrables attendus : Composants data développés et déployés (code source) Documentation technique et fonctionnelle Modèles de données documentés Rapports de tests/recette + transfert de connaissances 🛠️ ENVIRONNEMENT TECHNIQUE Obligatoire : SQL Server (Database Engine, SSIS, SSAS) Power BI / Reporting Services SQL avancé, DAX, MDX Talend et/ou SSIS (ADF apprécié) CI/CD : Azure DevOps, GitLab Architecture : Data Warehouse, Data Lake, Médaillon Apprécié : DBT, Trino, MinIO GCP (BigQuery, GCS, Dataproc) 👤 PROFIL RECHERCHÉ Senior Data Engineer avec expertise confirmée Microsoft SQL Server Expérience solide en ETL industrialisé (Talend / SSIS) Bonne maîtrise des architectures data modernes Anglais courant indispensable Méthode Agile maîtrisée
Offre d'emploi
Data Engineer TERADATA ET DATAVIZ
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions sous technologie Teradata, en étroite collaboration avec les autres membres de la squad et de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage, traitement et usages, mise à disposition : une expérience des environnements Unix, une forte expertise SQL et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous interviendrez à la fois sur des activités projet mais aussi sur du RUN (suite des traitements de production, analyse/résolution d’incidents, optimisations, amélioration continue). Ces interventions sont primordiales, chaque membre de la squad participe au traitement des incidents et à l’amélioration continue du périmètre applicatif.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6089 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois