L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 641 résultats.
Mission freelance
LEAD Business Analyst (et non Business Analyst classique)
STHREE SAS pour HUXLEY
Publiée le
12 mois
400-550 €
Niort, Nouvelle-Aquitaine
Contexte : Le SI B2B a entammé une transformation de son SI depuis 2022, afin de mettre à disposition les nouvelles brioques d'un SI commun. L'année 2026 marque une accélération significative de ce plan de transformation, visant à permettre de tenir les jalons clés de ce plan (décommissionnement des anciens SI et poursuite des convergences). Dans ce cadre, la tribu Contrats B2B a pour objectif de maintenir et faire évoluer les outils pour assurer la souscription et la gestion des contrats B2B, ainsi que de fournir les outils nécessaires à la tarification des produits. Elle est composée de 4 Squads (GVC, GAE, Souscriptions et RCS) qui ont la responsabilité de fournir un service de qualité et travaillent en forte contribution avec les autres tribus du SI B2B et du groupe. Le client souhaite renforcer la Squad RCS en s'adjoignant l'expertise d'un Lead BA disposant d'une expérience confirmée en environnement agile à l'échelle -porter la cohérence fonctionnelle du domaine, -accompagner les PO/BA des différentes squads, -challenger et consolider la trajectoire SI avec les métiers, les architectes et le Business Owner, -sécuriser la qualité fonctionnelle des solutions produites. Le Lead BA interviendra sur un périmètre transverse incluant notamment : -Catalogue produit -Souscription & gestion de contrats -Gestion du compte sociétaire -Référentiels B2B -Processus transverses et trajectoire de convergence
Offre d'emploi
Consultant Data (profil Qlik Snowflake)
AGH CONSULTING
Publiée le
Qlik Sense
Snowflake
40k-45k €
Rueil-Malmaison, Île-de-France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake , pour renforcer des équipes BI/Data existantes. Missions principales Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView Analyser les besoins métiers et les traduire en solutions BI pertinentes Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) Participer à l’amélioration des modèles de données et des performances des reportings Collaborer avec les équipes Data (BI, Data Engineers, métiers) Environnement technique BI / Data Viz : Qlik Sense / QlikView Data Warehouse : Snowflake (niveau compréhension / usage) Langages & outils : SQL, notions ETL, environnements Data modernes Méthodologie : projets BI, travail en équipe agile ou hybride
Mission freelance
Governance & Data Management Lead
Intuition IT Solutions Ltd.
Publiée le
IA
Microsoft Power BI
Qlikview
6 mois
500-550 €
Paris, France
La mission principale est : • Piloter et coordonner la collecte, la gestion et le reporting des cas d'utilisation des données de sécurité et de l'IA entre les entités, en garantissant la conformité, l'engagement des parties prenantes et la gouvernance au niveau de la sécurité du groupe. Les activités de service connexes sont : • Piloter le processus de collecte de la posture de sécurité des entités sur une base trimestrielle. Préparer, exécuter et tester les activités en coordination avec l'equipe off shore (en Inde) tout en apportant un soutien aux entités et aux propriétaires de données. • Servir de contact principal pour les parties prenantes de la sécurité afin de suivre et de suivre les exigences liées à la collecte de données et au développement de tableaux de bord, aux cas d'utilisation de l'IA, à coordonner l'exécution avec l'équipe en mode agile • Gérer la communication avec les entités et les équipes de sécurité concernant les délais de reporting et les améliorations • Fournir les rapports nécessaires aux comités et conseils d'administration • Organiser et diriger le conseil de gouvernance des données et de l'IA au niveau de la sécurité du groupe, assurer l'alignement avec le GO Data Office et contribuer aux communautés Data & AI • Améliorer le niveau de maturité de la gestion des données dans les différents départements de la sécurité du groupe, coordonner la revue de la documentation incluant le dictionnaire de données, le glossaire et les cartes d'identification des cas d'utilisation au sein de l'équipe • Coordonner le processus annuel d'examen d'accès pour le champ d'action du Security Data Hub
Mission freelance
Développeur Mobile React Native avec compétences Data
Comet
Publiée le
Apache Spark
Databricks
React Native
200 jours
490-520 €
Châtillon, Île-de-France
Développeur Mobile React Native / Data Engineer Objectif global Renforcer une équipe projet avec un profil hybride Développeur Mobile React Native / Data Engineer, intervenant à la fois sur une application mobile et sur des traitements data. - Présence sur site : 3 jours par semaine obligatoires Livrables attendus : - Évolutions et corrections applicatives - Code documenté, maintenable et industrialisé - Tests unitaires et rapports de tests - Documentation technique associée Compétences techniques requises : - React Native : Expert – impératif - Databricks : Confirmé – impératif - Spark : Confirmé – impératif - SQL : Confirmé – impératif Description de la mission : Dans le cadre d’un projet de transformation digitale, nous recherchons un profil hybride associant développement mobile et data engineering. La mission porte principalement sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail sur la partie front, le consultant pourra également intervenir sur la partie back/data, notamment sur : - les pipelines de données, - les notebooks Databricks, - les traitements Spark et SQL sur environnement Cloud (Azure). Activités détaillées : - Analyse - Participation à l’analyse fonctionnelle détaillée des besoins utilisateurs - Contribution aux ateliers de définition des spécifications - Étude de faisabilité technique et estimation des charges Conception et développement : - Contribution au design technique et aux frameworks applicatifs - Développement et prototypage des composants applicatifs - Structuration et exploitation des bases de données - Revue croisée des développements - Documentation technique et préparation à la mise en production - Harmonisation et industrialisation des composants Tests et recette : - Conception et réalisation des tests unitaires - Identification et correction des anomalies - Contribution aux tests d’intégration - Rédaction des rapports de tests Maintenance : - Réalisation de la maintenance corrective et évolutive - Analyse et résolution des incidents en production Profil recherché : - Expérience significative en React Native en production - Solide compétence en Data Engineering (Databricks, Spark, SQL) - Maîtrise des APIs REST - Utilisation courante de Git - Sensibilité aux pratiques DevOps / CI-CD appréciée
Mission freelance
Product Owner Data GCP
LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud
12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Mission freelance
Product Manager / Product Owner technique – API & Data Platform (H/F)
TEOLIA CONSULTING
Publiée le
API
API REST
JSON
12 mois
400-550 €
Paris, France
Dans le cadre d’une mission à fort enjeu sur un produit cœur de système d’information , nous recherchons un(e) Product Manager / Product Owner à forte culture technique , capable d’intervenir sur une plateforme transverse exposant des services via API . Vous intégrerez un environnement complexe, structurant et à forte volumétrie de données, impliquant de nombreux consommateurs (équipes internes, produits aval, partenaires). Votre rôle consistera à piloter la vision produit , à structurer les flux de travail et à garantir la valeur délivrée, en étroite collaboration avec les équipes de développement et les parties prenantes techniques. Vous interviendrez notamment sur : Le pilotage produit de services exposés via API REST La gestion et l’évolution de modèles de données complexes Le cadrage, la priorisation et la structuration du backlog Le recueil de besoin via des approches de discovery (interviews, mapping, analyse d’usages) L’amélioration continue de l’organisation produit (flux, indicateurs, visibilité) L’adaptation des pratiques agiles aux contraintes opérationnelles (Kanban, flux continus, feature teams) Ce poste nécessite une forte proximité avec les équipes techniques et une réelle capacité à dialoguer avec des développeurs backend et data sur des sujets structurants.
Offre d'emploi
expert réseau sécurité (H/F)
STORM GROUP
Publiée le
Cisco
F5
Fortinet
3 ans
45k-50k €
400 €
Toulouse, Occitanie
Nous sommes à la recherche d'un expert réseau sécurité pour une mission de longue durée. Celui-ci devra être expert Fortinet, avec de fortes connaissances en automatisation. Nous gérons les infrastructures Datacenter mais PAS les politiques de sécurité. Nous sommes à la recherche d'un expert réseau sécurité pour une mission de longue durée. Celui-ci devra être expert Fortinet, avec de fortes connaissances en automatisation. Nous gérons les infrastructures Datacenter mais PAS les politiques de sécurité.
Offre d'emploi
Expert EasyVista F/H
AIS
Publiée le
EasyVista
1 mois
38k-45k €
225-450 €
Niort, Nouvelle-Aquitaine
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grands comptes vos missions seront les suivantes : Au sein d'un collectif agile et sous la responsabilité d'un PO, les principales missions sont : - Administrer, maintenir et faire évoluer les solutions de ticketing : EasyVista - Garantir la cohérence du paramétrage des produits en responsabilité - Collaborer avec les équipes IT et les autres collectifs pour adapter ces outils aux processus de l'entreprise - Accompagner le changement vers les « utilisateurs » - Réaliser une veille technologique active et proposer de nouveaux usages - Apporter le support de niveau 3 sur les incidents et les problèmes
Offre d'emploi
Développeur Data & IA (Python & Dataviz) - Lyon
STHREE SAS pour COMPUTER FUTURES
Publiée le
API
Confluence
DevOps
6 mois
36k-40k €
360-390 €
Lyon, Auvergne-Rhône-Alpes
Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz destinées aux équipes de développement et DevSecOps. Le consultant contribuera également à : l’intégration d’usages IA dans les outils du développeur augmenté , l'accompagnement et la montée en compétences des équipes internes Responsabilités principales 1. Développement & Industrialisation Data / IA (activité dominante) Développer des composants logiciels Python : scripts, services, APIs, traitements batch. Construire et optimiser des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Concevoir, industrialiser et maintenir des solutions Data & IA au service des équipes de développement Contribuer à l’intégration d’usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, observabilité, analyse). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations destinées au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation & qualité Rédiger et maintenir la documentation technique. Alimenter les référentiels de connaissances (Confluence). Contribuer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement & formation des équipes internes Appuyer les équipes internes lors de la prise en main des solutions développées. Animer des formations, démonstrations et sessions d’acculturation (ex. : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité Data/IA. 5. Pilotage & coordination opérationnelle Suivre le backlog et collaborer avec les équipes projets, produits et outillage. Produire un reporting régulier d’avancement, d’activité et de difficultés éventuelles.
Offre d'emploi
Ingénieur test et logiciel (H/F)
Amiltone
Publiée le
32k-38k €
Niort, Nouvelle-Aquitaine
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant qu'Ingénieur de test et validation logiciel (H/F), vous assurerez les missions suivantes : · Mettre en place des stratégies de tests · Rédiger et exécuter des scénarios de tests · Assurer la non-régression d'un produit · Piloter et suivre l'exécution des tests · Identifier les anomalies et définir un scénario de reproduction · Créer des rapports d'anomalie et en assurer le suivi · Réalisation de démonstrations produit · Organiser des sessions de bêta-tests avec les utilisateurs finaux La stack technique : · Selenium · Postman ou équivalent · Langage SQL · Format Gherkin
Offre d'emploi
Senior Data Scientist
LIANEO
Publiée le
ClickHouse
Kubernetes
Python
55k-75k €
75009, Paris, Île-de-France
Au sein d'un acteur à la pointe de l'innovation dans le secteur des médias de détail, en tant que plateforme SaaS pionnière. Votre mission 👇 Vous intégrerez la nouvelle équipe data basée à Paris et serez chargé(e) de concevoir les premiers algorithmes d'apprentissage profond qui rendront les produits plus intelligents. La plateforme traite des milliards de logs par jour et alimente un data mart partagé entre toutes les équipes. Les produits de données sont déployés sur un cluster Kubernetes qui orchestre les tâches Python, en collaboration avec un cluster ClickHouse. Vous aurez l'opportunité de travailler en partant de zéro, sans contraintes ni dépendances vis-à-vis des systèmes existants, dans un environnement dynamique et ouvert où votre contribution sera significative. Vous collaborerez avec un ingénieur de données déterminé à développer les outils et solutions nécessaires au fonctionnement de nos algorithmes. Ce que vous ferez ✏️ Mettre en place les premiers composants d'apprentissage automatique et statistiques de la plateforme de science des données Traduire les problèmes commerciaux et les besoins en fonctionnalités en problèmes d'apprentissage automatique Ont un impact important sur la mise en œuvre des modèles ainsi que sur leur déploiement. Mettre en place des pipelines de formation continus Déployer et surveiller les modèles et mettre en œuvre les bonnes pratiques en matière d'apprentissage automatique
Mission freelance
POT8928 - Deux Data Steward (Confirmé et Sénior) sur Tours
Almatek
Publiée le
SharePoint
6 mois
220-400 €
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients Deux Data Steward (Confirmé et Sénior) sur Tours. *** Profil confirmé (4 à 5 ans) *** Analyse des politiques de catalogage -Alignement entre politiques -Rapports de cohérence et suivi des écarts Appui aux data owners -Identification des datasets manquants -Définition des métadonnées -Animation de très nombreux ateliers -Mise à jour de l’outil de catalogage (manuel + injections de masse) Qualité du catalogage -Définition d’indicateurs qualité -Détection et résorption des écarts -Développement de code (outillage qualité) Gestion de l’outil de catalogage -Améliorations, habilitations, recettes -Outils complémentaires Conduite du changement & formation -Documentation, supports -Sessions de formation et d’acculturation *** Profil Sénior(> à 7 ans) *** Analyse des politiques et écarts qualité -Notes d’analyse -Roadmap annuelle des chantiers qualité -Mise en place d’un processus d’analyse de risques hebdomadaire Définition des règles qualité -Ateliers avec data owners -Reformulation des règles dans les documents métiers -Capitalisation dans les outils Implémentation des contrôles qualité -Définition et suivi des contrôles -Tableaux de bord qualité -Synthèses adaptées aux publics cibles Outillage -Amélioration des outils existants -Développement d’outils complémentaires (dont analyse de risque) Conduite du changement -Formation, supports, acculturation Environnement technique : Sharepoint 2016 - Windows 11 - Office 365 - PowerBI online – Chrome Localisation : TOURS + 3jrs TT/ semaine
Mission freelance
Data Engineer - Secteur Assurance et Prévoyance (H/F)
EASY PARTNER
Publiée le
Apache NiFi
Bash
Gitlab
230 jours
420-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Dans le cadre d'un projet de refonte de son SI, notre Groupe renforce son dispositif Data au sein de la Direction des Systèmes d’Information. L’objectif est de concevoir, développer et maintenir des flux de données fiables et industrialisés au service des équipes métiers Épargne et Services Financiers. Le poste est rattaché au DAS Épargne & Services Financiers et s’inscrit dans un environnement orienté data, qualité et automatisation. Missions Missions principales En tant que Data Engineer, vous interviendrez sur la conception, le développement et l’industrialisation des flux de données, dans un contexte finance / assurance à forts enjeux de qualité, de traçabilité et de performance. Concevoir et implémenter le socle data du Master Data Management (MDM) Intégrer et transformer les données issues de différentes sources Sécuriser et industrialiser les flux dans le respect des standards de qualité et de traçabilité attendus Mettre en œuvre des traitements de données (collecte, transformation, stockage) Garantir la qualité, la fiabilité et la performance des flux Travailler en lien étroit avec les équipes métiers et IT Contribuer aux bonnes pratiques de développement, d’automatisation et de CI/CD Stack technique Compétences requises (niveau confirmé) Data & traitement : Apache NiFi, requêtage et traitement de données (SQL / NoSQL) Connaissance des formats et protocoles : JSON, XML, CSV, REST API Base de données & stockage : PostgreSQL, Stockage objet (S3) DevOps & industrialisation : GitLab, GitLab CI, Pratiques CI/CD Compétences appréciées Langages & scripting : Python, Bash
Mission freelance
ACHETEUR Domaine Market Data/s
WorldWide People
Publiée le
Pilotage
12 mois
Paris, France
ACHETEUR Domaine Market Data . Démarrage ASAP Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
Mission freelance
Workday Data Lead
INVESTIGO
Publiée le
600-700 £GB
Angleterre, Royaume-Uni
We are seeking an experienced Workday Data Lead to oversee all data-related activities for a greenfield Workday implementation covering HCM, Financials (FINS), and Professional Services Automation (PSA). The role will be accountable for defining and delivering the end-to-end data strategy, ensuring data quality, integrity, and overall readiness across all Workday modules. Working closely with functional leads, reporting, integrations, security teams, and business stakeholders, the Data Lead will provide leadership across data conversion, validation, testing, and go-live phases of the programme. Required Skills & Experience Proven experience operating as a Workday Data Lead or Senior Data Manager on large-scale Workday implementations. Strong hands-on expertise across Workday HCM, Workday Financials, and Workday Professional Services Automation (PSA). Demonstrated experience delivering greenfield Workday implementations from initiation through go-live. Deep understanding of Workday data models, data governance, and data conversion strategies. Strong leadership, communication, and stakeholder management capabilities. Experience identifying, managing, and mitigating data-related risks within complex, multi-stream programmes. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at weareinvestigo.com.
Offre d'emploi
Chef de projet Data (Expert Power BI)
AVALIANCE
Publiée le
Agile Scrum
Alteryx
DAX
Nanterre, Île-de-France
Description de la mission : Globalement votre mission pourra être de plusieurs niveaux : - Participer aux différents sujets ayant traits à Power BI - Accompagner les métiers dans l’assistance, avec animation formation au besoin, sur Power BI - Organiser des ateliers de best practices avec les métiers sur Power BI - Contribuer à enrichir et consolider le socle Power BI Et plus précisément : - Maîtrise et pratique de SQL sous Oracle indispensable - Participer et réaliser les développements sur Power BI (où vous serez également force de proposition) - Développement des Datasets sous Power BI - Modélisation des tables de faits/Dimensions et optimisation de scripts et modèles de données - Utilisation du langage DAX pour l’ajout des champs calculés et le calcul des mesures (KPI) - Gestion des sécurités et des habilitations dans Power BI - Collaborer au quotidien avec les autres développeurs de notre équipe - Rédaction des documents des spécifications techniques et livrables - Assister les utilisateurs internes pour gérer leurs demandes (analyse et traitement de données, rapports…) Compétences en Chefferie de Projet & Gouvernance DATA : - Proposer et Harmoniser un cycle de vie des développements sur power BI - Coordonner et animer réunions, ateliers et comités liés à la DATA - Concevoir des supports (présentations, synthèses, reportings) - Gérer l’organisation complète des réunions et le suivi d’actions - Faire preuve d’autonomie et être force de proposition - Participer activement à la gouvernance DATA et promouvoir les bonnes pratiques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5641 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois