Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 648 résultats.
Mission freelance
Administrateur Data Domain Senior
ALLEGIS GROUP
Publiée le
Big Data
EMC
3 ans
Montreuil, Île-de-France
Dans le cadre du renforcement de ses équipes infrastructure, notre client recherche un Administrateur Data Domain senior pour intervenir sur des plateformes de sauvegarde et de protection des données à forts enjeux de disponibilité, performance et sécurité. La mission s’inscrit dans un contexte enterprise , avec des environnements Data Domain / PowerProtect avancés. Vos missions Administrer et exploiter les systèmes Dell EMC Data Domain (physiques et virtuels) Configurer et gérer : interfaces réseau, MTrees, snapshots systèmes de fichiers à déduplication Assurer les opérations de : sauvegarde, restauration, réplication PRA / Disaster Recovery Administrer DDMC et DDSM Superviser les performances, flux de données et capacités Mettre en œuvre les fonctionnalités avancées : DD Boost, Fast Copy, options sous licence Gérer les opérations de : sanitisation de données migration stockage gestion SISL Configurer les accès sécurisés, Fibre Channel et Secure Remote Service (SRS) Diagnostiquer et résoudre les incidents complexes Contribuer à l’amélioration continue de l’architecture de protection des données
Mission freelance
Consultant Senior Data Governance / Collibra
adbi
Publiée le
Collibra
Data governance
Groovy
12 mois
400-590 €
Île-de-France, France
Dans le cadre du déploiement et de l’industrialisation de sa démarche de gouvernance des données , un grand groupe recherche un Consultant Senior en Data Governance, expert Collibra . La mission s’inscrit dans un programme structurant visant à renforcer : le catalogage des données la traçabilité (data lineage) la qualité des données la conformité réglementaire (Data Privacy) Le consultant intégrera l’équipe Data Governance du pôle Data et interviendra sur l’ensemble de la chaîne de valeur de la donnée, de l’acquisition à la restitution. 🛠 Responsabilités principales Le consultant aura un rôle d’expert fonctionnel et technique autour de Collibra et interviendra notamment sur : Gouvernance & Cadrage Animation d’ateliers métiers et IT Recueil des besoins et rédaction des spécifications fonctionnelles et techniques Définition et mise en œuvre des politiques et processus de gouvernance Implémentation Collibra Configuration et administration de la plateforme Développement de workflows de validation Mise en place du data catalog (glossaire métier, dictionnaire de données) Modélisation et déploiement du data lineage Paramétrage des règles de Data Quality Implémentation des processus Data Privacy (registre de traitements, PIA…) Qualité & Pilotage Mise en place des indicateurs de qualité des données Suivi et pilotage des rejets de qualité Création de reportings Power BI Animation & Conduite du changement Animation de la communauté des Data Owners et Data Stewards Formation et acculturation des équipes à la Data Governance Contribution à la mise en place des référentiels de données (MDM) Livrables attendus Expressions de besoins et documents de cadrage Roadmaps Data Governance (Connaissance / Qualité / Accessibilité) Workflows Collibra configurés Catalogues de données alimentés Lineage modélisé et documenté Règles de Data Quality implémentées Indicateurs et tableaux de bord de suivi Supports de formation et documentation projet Référentiels de données via une solution MDM (Semarchy, Informatica…)
Mission freelance
Architecte Technique Senior - SI
Codezys
Publiée le
Big Data
DevOps
Java
6 mois
Paris, France
a mission s'inscrit au sein du département Architecture d'un organisme majeur de la protection sociale. Nous recherchons un Architecte Technique Senior (15-25 ans d'expérience) pour rejoindre le pôle Accompagnement et Conformité. Le consultant aura pour responsabilité de faire évoluer l'architecture du SI pour répondre aux besoins utilisateurs tout en assurant l'interopérabilité des nouvelles solutions avec l'environnement existant. Il travaillera en étroite collaboration avec l'Architecture d'Entreprise (Urbanistes) et les équipes d'experts techniques (socles, systèmes, réseaux). Objectifs et livrables Objectifs principaux : La mission consiste principalement à accompagner les projets dans la définition de leur architecture technique en cohérence avec les politiques techniques de l'organisme. Détail des activités : Support aux projets (70% de l'activité) : Accompagner l'élaboration des Dossiers d'Architecture Technique (DAT), contribuer à l'instruction et aux revues d'architecture, et réaliser des études d'impact pour les nouvelles technologies. Démarche d'architecture et conformité : Définir des solutions techniques conformes aux standards et assurer la cohérence avec les briques de production (Gateway, Kubernetes, Middleware...). Collaboration et expertise : Valider les solutions avec les experts techniques et suivre les évolutions des socles. Transformation SI : Accompagner les transformations vers le Cloud et les projets BI / Big Data. Environnement technique : Socle applicatif : JAVA (JEE, Spring, Hibernate), API/SOA (REST, SOAP) Infrastructure & Cloud : Kubernetes, Openshift, Ansible, VMWare, Architecture Microservices. Data (Atout) : Big Data, Spark, Kafka, ELK. Bases de données : PostgreSQL, Oracle, Cassandra. Livrables attendus : Dossiers d'Architecture Technique (DAT). Schémas d'architecture (modélisation Archimate). Architecture Decision Records (ADR) pour la traçabilité des choix. Comptes rendus des comités d'architecture. Analyses de marché et supports de veille technologique.
Mission freelance
Data Scientist (h/f)
emagine Consulting SARL
Publiée le
36 mois
350-400 €
France
Profil : Data Scientist Séniorité : Junior Description de la mission : Rattaché.e au département Data, votre mission consistera à faire évoluer nos modèles de Machine Learning pour notre solution de maintenance prédictive. Vous serez amenés à travailler dans un environnement cloud de Google. Enfin, des sujets d'IA générative pourront vous être proposés au cour de votre mission. Responsabilités : Évoluer les modèles de Machine Learning pour la maintenance prédictive. Travailler dans un environnement cloud de Google. Mettre en place des solutions cloud. Participer à des projets d'IA générative. Collaborer avec l'équipe Data/AI. Prérequis : Machine Learning Python Pandas Scikit-learn Environnement cloud IA générative autres détails : 2 jours sur site. Mission longue durée
Mission freelance
Expertise DataViz et DataScience
Codezys
Publiée le
Azure
CI/CD
Data science
12 mois
Paris, France
La Data & IA Factory (DIAF) de la Direction Data & IA a pour mission : Opérationnaliser les offres de services Servir de centre d’expertise pour outils, méthodes et technologies Concevoir et maintenir (Build & Run) des solutions Data & IA (ex : OneDataLake, InfoCentres, Polaris) Optimiser le cycle de vie des données, processus et outils Définir l’architecture Data Administrer l’environnement technique BGPN sur site et cloud Objectif principal : concevoir, industrialiser et exploiter des solutions Data & IA performantes, sécurisées et résilientes, adaptées aux usages et à la migration vers le cloud. Expertises opérationnelles : Gestion technique des livrables logiciels Leadership, suivi d’activités, satisfaction client Respect des standards de maintenabilité, exploitabilité et sécurité Communication claire sur l’avancement, risques et difficultés Expertises techniques : Architecture Data : Médaillon, Data Mesh Outils de dashboarding : Tableau, PowerBI Plateformes : Dataiku, Azure, DataBricks, Microsoft Fabric Gestion de la QoS : disponibilité, scalabilité, SLA, monitoring Architecture orientée services, automatisation via CI/CD Méthodologies Agile, SAFe, SCRUM Objectifs et livrables Industrialisation des solutions Data & IA Concevoir, construire et exploiter des solutions robustes et performantes sur le long terme. Opérationnalisation de l’offre Data & IA Transformer en services et produits facilement déployables, réutilisables par différents métiers. Expertise technologique : Encadrer en définissant standards, outils et méthodes Data & IA. Architecture et socles Data : Définir une architecture cohérente, évolutive et pérenne pour plateformes et flux de données. Gestion du cycle de vie des données : Assurer ingestion, qualité, traçabilité et exploitation optimale des données. Exploitation technique : Administrer et faire évoluer les environnements Data & IA, garantissant disponibilité, sécurité et performance. La DIAF souhaite renforcer ses compétences en data visualisation et data science, notamment avec PowerBI, Tableau, Dataiku, DataBricks et Azure, pour définir et industrialiser l’offre Self Service et soutenir le déploiement de la Plateforme DataCloud, tout en améliorant la qualité en environnement on-premise. Une expérience minimale de 10 ans dans des missions similaires est requise pour accompagner l’équipe dans la conception, le développement, le test, la documentation, le support et la communication liés à cette offre Self Service.
Mission freelance
DATA Analyst architecture Medallion
Net technologie
Publiée le
Data analysis
3 mois
400-550 €
France
Nous recherchons un consultant DATA Analyst (expérience architecture Medallion mandatory) en Full remote. Dans le cadre du lancement d’un projet data stratégique à dimension internationale, notre client souhaite renforcer ses équipes avec un profil clé pour accompagner les équipes Sales via un outil de pilotage data-driven centralisé. Missions : ➡️ Recueil des besoins métiers Sales / Sales Ops ➡️ Conception du modèle de données (Medallion, Canonical / Shared Data Model) ➡️ Cadrage des pipelines ETL et des règles de qualité ➡️ Mise en place de l’historisation et de la data lineage ➡️ Traduction des besoins business en KPIs, cas d’usage et vues analytiques ➡️ Référent data entre métiers, data & IT
Offre d'emploi
Data Analyste Expert Dataiku
VISIAN
Publiée le
Dataiku
1 an
40k-45k €
400-560 €
Paris, France
Descriptif du poste La mission se déroulera au sein de l'équipe de la direction pour prendre en charge la modélisation sous Dataiku d'un programme data pour la Direction Finance. La mission nécessite une expertise forte sur Dataiku en data analyse (minimum 5 ans de développement sous Dataiku) pour maintenir un flux complexe existant, l'optimiser et développer et automatiser de nouveaux flux suite à l'évolution du projet. Par ailleurs, le Métier Finance impose un respect de jalons de livraison très précis (clôtures comptables régulières notamment) et une réactivité très forte dans la correction des anomalies. Vos principales responsabilités seront : Développement sous Dataiku pour répondre à un cahier des charges précis demandé par la Direction Finance (format de sortie imposé) Maintenance du flux déjà développé et optimisation des différentes étapes Proposition de features innovantes pour optimiser le flux Mise en production dans l'automation node, paramétrage avancé des scénarios d'automatisation qui peuvent utiliser des steps custom en Python Mise en place de contrôles et de checks automatisés Animation d'atelier, participation au Comité de pilotage du projet (en binôme avec un autre data analyste)
Mission freelance
Chef de projet Data - Chécy
Signe +
Publiée le
Clarity
ETL (Extract-transform-load)
JIRA
6 mois
340-380 €
Chécy, Centre-Val de Loire
La mission consiste à gérer les projets et la maintenance sur le périmètre métier «Décisionnel» en délégation du pilote de projets référent du domaine. Il interviendra en tant qu’interlocuteur privilégié de l’AMOA Décisionnel pour l’exécution des projets et de la maintenance applicative du domaine. Le chef de projet participera à toutes les phases, du cadrage à la préparation de la mise en production. Il prendra en charge la mise à jour hebdomadaire du planning, le suivi des charges et le reporting associé. Il assurera la préparation et le passage en Comité d’architecture en collaboration avec l’équipe d’architectes Thélem. Il assurera également le pilotage quotidien de l’avancement auprès des équipes de réalisation et de recette, préparera et animera les ateliers et instances de pilotage (COMOP, daily, …). 🎯Localisation : Chécy, 2 jours de TT apres 3 mois de full présentiel
Offre d'emploi
EXPERT INNOVATION, DATA & PROTOTYPAGE
SQUARE ONE
Publiée le
API REST
AWS Cloud
Large Language Model (LLM)
3 ans
40k-45k €
400-550 €
La Défense, Île-de-France
1. Contexte de la mission Une organisation de premier plan dans le domaine des services numériques et de la gestion de données engage une démarche d’innovation visant à explorer, concevoir et valider de nouveaux usages technologiques. Dans ce cadre, elle souhaite s’appuyer sur un expert capable d’accompagner ses équipes innovation dans la réalisation de Proofs of Concept (POC) et de prototypes à forte valeur ajoutée. 2. Objectifs de la mission La mission a pour objectif de : Contribuer à l’idéation et à la définition de concepts innovants, Évaluer la faisabilité technique des solutions envisagées, Concevoir et développer des prototypes et POC, Tester et valider les usages auprès d’utilisateurs finaux, Préparer le passage vers des équipes en charge de l’industrialisation, Assurer une veille technologique active sur les sujets data, cloud et intelligence artificielle. 3. Périmètre et activités principales Le consultant interviendra notamment sur les activités suivantes : Participation aux phases d’idéation et de cadrage des projets, Choix techniques et technologiques en lien avec les enjeux des projets, Développement de prototypes et POC, Évaluation de solutions proposées par des acteurs externes, Documentation technique (architecture, flux, données, code), Organisation de sessions de passation et de support, Contribution à l’amélioration des processus de l’équipe innovation. 4. Environnement technique La mission s’inscrit dans un environnement technologique moderne incluant notamment : Cloud public (PaaS / IaaS), Services de stockage, API, fonctions serverless, Langages de programmation orientés backend, Environnements data processing et data science, Outils d’infrastructure as code et de gestion de versions. 5. Organisation et durée Mission réalisée en collaboration étroite avec une équipe innovation, Durée : mission de longue durée, renouvelable , selon les besoins des projets, Démarrage : à définir. 6. Cadre de la mission Intervention dans un cadre expérimental et innovant, Respect des règles de sécurité et de protection des données personnelles, Les traitements de données éventuels sont limités aux besoins stricts des prototypes et POC.
Mission freelance
Consultant Lead Tech Expert Data IA
ALLEGIS GROUP
Publiée le
Big Data
IA
IA Générative
1 an
Paris, France
Dans le cadre de projets IA à forte valeur ajoutée, notre client recherche un Consultant Lead Tech Expert Data IA pour intervenir sur des travaux de cadrage et de pilotage de projets transformants. Le consultant interviendra au sein d’un dispositif existant autour de projets IA stratégiques, avec une forte autonomie et une capacité à coordonner différents acteurs. Une expertise Data / IA orientée delivery et cadrage est attendue. Missions principales Intégrer le dispositif existant sur les projets Data & IA en cours Piloter et sécuriser les phases de cadrage, EO, MVP et démarrage des développements Apporter une expertise Lead Tech Data IA sur des projets transformants à dominante Marketing Contribuer à l’alignement stratégique et technique des solutions IA proposées Coordonner les différents acteurs internes (équipes Data, IT, métiers, partenaires) Challenger les choix technologiques et méthodologiques liés à l’IA Garantir la qualité du delivery et le respect des jalons projet Participer à la structuration des priorités et de la feuille de route IA Apporter une vision marché et bonnes pratiques Data / IA Accompagner la mise en œuvre de solutions IA performantes, sécurisées et industrialisables
Offre d'emploi
Data Engineer / BI (H/F)
HAYS France
Publiée le
Master Data Management (MDM)
Microsoft SQL Server
Microsoft SSIS
46k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons pour notre client un Data Engineer / BI (H/F) Contexte : Consolidation de l’environnement existant, Projets, Axes de développement sur moyen et long terme. · Vous intégrez une équipe à taille humaine. · Véritable bras droit du manager, vous êtes amené à superviser l’équipe, gérant les priorités ainsi que les escalades. · Ce qui vous attend ? Du support opérationnel, de la Qualité & Conformité, du Reporting ainsi qu’une participation active dans l’Amélioration continue. Responsabilités principales : Modélisation de données, ETL, Data gouvernance… La mission consiste à garantir la continuité, la fiabilité et la conformité des activités Data & Business Intelligence, tout en pilotant les projets d’intégration, de reporting et d’optimisation au service des décisions stratégiques de l’entreprise. · Support opérationnel — Assurer le suivi des projets Data (ETL, data warehouse, dashboards) et veiller à la disponibilité des services BI. · Qualité et conformité — Maintenir les standards de qualité des données et garantir le respect des règles de sécurité et de conformité. · Reporting — Produire, contrôler et diffuser les KPI, tableaux de bord et analyses destinés aux directions métiers. · Amélioration continue — Identifier et mettre en avant les pistes d’optimisation des processus Data et BI. · Communication — Assurer le rôle d’interlocuteur privilégié auprès des parties prenantes internes et externes. · Coordination — Encadrer l’équipe Data en l’absence du manager, organiser les priorités et gérer les escalades. Environnement technique : Microsoft SQL Server, SQL, ETL, MS BI (SSIS, SSAS, SSRS), PowerBI, Data Modeling, Master Data Management (MDM), Cloud privé.
Offre d'emploi
Responsable d'application RUN - DATA
OBJECTWARE
Publiée le
Control-M
Oracle
PL/SQL
12 mois
40k-60k €
100-520 €
Nanterre, Île-de-France
La Squad Core Data (équipe opérationnelle ~20 personnes) de la Tribe Data France est composée de 5 applications de type "batch" Cette Squad dont l'organisation est full agile (sprints, daily, jira …) et avec l'aide de notre TMA a vocation à : Maintenir et sécuriser au quotidien ces applications Mettre en œuvre sur ce périmètre les évolutions (réglementaire, métier, technique …) ~20-30 projets/an Domaine / Environnement technique : Culture "bach" : perf/volumétrie, gestion de différent type de fichiers (séparateurs, formats fixes, xml …), rejets, manipulation des données … Détails de la prestation : La mission consiste à assurer le suivi et le maintien en condition opérationnelle des applications de la squad Core Data (Bases Commerciales, Interfaces Délégataires ...) - Suivi des traitements batch en production - Support de niveau 2 en cas d'incident en production - Assistance auprès des utilisateurs - Analyse des dysfonctionnements et collaboration avec la TMA qui assure les corrections - Pilotage des plans d'actions pour la résolution des problèmes de fond (incidents récurrents, incidents critiques) - Pilotage opérationnel des trains de maintenance - Application des processus TDI (Traitement des Demandes et Incidents) en vigueur chez BNP Paribas Cardif - Production des indicateurs de performance (taux de disponibilité des applications, suivi du stock de fiches d'assistance) - Gestion/Renouvèlement des certificats Compétences fonctionnelles : Aucune Compétences techniques : - Oracle, SQL, PL-SQL (très présent) - Informatica Powercenter - Linux - Ordonnanceur Control-M - CFT - GIT (Toolchain) Une forte appétence technique est nécessaire afin de pouvoir discuter, être en support et challenger nos différents acteurs : développeurs, experts, centre de test, exploitant …
Mission freelance
Data Manager Lead
STHREE SAS pour COMPUTER FUTURES
Publiée le
Business Intelligence
6 mois
Paris, France
Piloter le projet de renforcement BI & Analytics (BIGUP), incluant la rationalisation du périmètre métier, la standardisation, l’amélioration du modèle de delivery et l’opérationnalisation du modèle opératoire. Gérer la gouvernance BI & Analytics en mode BAU (run). Faire appliquer la stratégie Data en veillant à ce que les standards Data soient définis et mis en œuvre. Les standards minimum requis sont : la politique de gouvernance des données, le cadre de Data Quality et le cadre Data By Design, supportés par la documentation des données. Mettre en place et accompagner le processus Data By Design avec les Data Architects, le Data Privacy Officer et les autres parties prenantes. Soutenir les Business Data Owners et Data Stewards dans leurs activités de gestion des données, y compris la mise en œuvre des frameworks Data dans leur domaine.
Offre d'emploi
Data Analyst
INFOGENE
Publiée le
50k-70k €
Neuilly-sur-Seine, Île-de-France
Il s’agit d’un poste hautement technique, orienté développement, conçu pour un expert qui considère la donnée comme du code. Vous serez responsable de transformer des conceptions financières complexes, fournies par les Business Product Owners, en produits performants, évolutifs et sécurisés. Vous interviendrez dans un environnement multi‑projets, nécessitant une rigueur technique exemplaire et une communication fluide aussi bien avec les équipes data engineering qu’avec les parties prenantes métiers, dans un contexte de finance d’entreprise à l’échelle du groupe. Responsabilités principales Advanced Analytics Engineering : Construire et optimiser la couche sémantique via une maîtrise experte du LookML. Concevoir des modèles BigQuery en tant que sources de données Looker, en appliquant des principes d’ingénierie logicielle : modularité, réutilisabilité et maintenabilité. Exécution & Qualité : Transformer des spécifications en data products robustes, garantissant performance, optimisation des coûts et conformité aux meilleures pratiques architecturales long-terme. Solutions embarquées & API : Architecturer l’intégration de Looker dans des applications web via les APIs/SDKs Looker, pour relier données et interfaces personnalisées. Sécurité & Gouvernance : Maîtriser les concepts et protocoles de sécurité afin de gérer des données financières sensibles. Gestion multi‑projets : Naviguer entre plusieurs flux simultanés, assurer une livraison ponctuelle et une communication proactive sur les blocages techniques ou choix architecturaux. Esprit d’innovation : Promouvoir l’usage de l’IA pour booster l’efficacité. Exploiter proactivement les outils GenAI pour accélérer l'écriture de code, l’optimisation SQL et la documentation automatique. Stack technique principale Looker : Maîtrise experte du LookML (approche modulaire via refinements et extends), connaissance des APIs Looker, maîtrise des architectures sémantiques. GCP / BigQuery : Expertise SQL avancée, optimisation performance/coûts, et solides compétences en data modeling.
Mission freelance
Data Platform Engineer
Phaidon London- Glocomms
Publiée le
Apache Spark
AWS Cloud
CI/CD
6 mois
400-550 €
Paris, France
Support Technique et Expérience Développeur Assurer un support quotidien aux ingénieurs et data scientists. Identifier et contribuer à la gestion de la dette technique ; fournir des outils d'automatisation et de test. Collaborer avec les équipes plateforme pour optimiser l'expérience développeur globale. Adoption de la plateforme et bonnes pratiques Promouvoir l'utilisation efficace des outils et fonctionnalités de la plateforme. Se tenir informé(e) des tendances du secteur et des technologies cloud/données pertinentes. Développement des compétences et animation de la communauté Évaluer les compétences de l'équipe et dispenser des formations ciblées. Animer une communauté de pratique pour présenter les améliorations et partager les bonnes pratiques. Produire de la documentation technique et des supports de formation. Retours d'information et évolution de la plateforme Recueillir les retours des utilisateurs et contribuer à l'amélioration du produit. Valider les livrables d'ingénierie de la plateforme par des tests alignés sur des cas d'utilisation réels. Défendre les intérêts des ingénieurs et des data scientists en interne.
Offre d'emploi
Business Analyst / Data Analyst
R&S TELECOM
Publiée le
Apache Airflow
Azure Logic Apps
ETL (Extract-transform-load)
1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Pour l’un de nos clients, cette mission consistera par l’accompagnement du lancement d’un projet interne stratégique destiné à doter ses équipes commerciales d’un outil de pilotage centralisé axé sur la donnée. Tâches à réaliser : Recueillir et formaliser les besoins métier des équipes Sales / Sales Ops (indicateurs, rapports, cas d’usage). Analyser les sources de données existantes (dont Salesforce) et comprendre le business data model actuel. Concevoir et faire évoluer le modèle de données dans une logique Medallion / Canonical / Shared Data Model. Cadrer et spécifier les pipelines de données (ETL / workflows) avec les outils en place : Fabric Pipeline, dbt, Alteryx, Airflow, LogicApps, PowerAutomate, etc. Définir les règles de transformation et de qualité de données (nettoyage, harmonisation, gestion des doublons, référentiels). Mettre en place et documenter l’historisation et la data lineage de bout en bout (de la source jusqu’aux vues analytiques). Rédiger la documentation fonctionnelle et le dictionnaire de données pour les équipes data et métiers. Jouer le rôle de “go-to person” / référent data pour l’équipe projet, en répondant aux questions et en arbitrant les choix fonctionnels. Accompagner les utilisateurs (explication des KPIs, démonstration des vues, recueil de feedbacks) et proposer des améliorations continues.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Client final, ESN et société de portage filiale de l'ESN
- URSSAF micro-entreprise : factures impayées, encaissement et facture groupée
- Mon ESN me demande de baisser mon TJM de 100 euros
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- Root-MENU ressemble à une arnaque
- Un Avis sur votre activité
1648 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois