L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 360 résultats.
Mission freelance
IP2025045 Expert technique DEVOPS avec 5 ans d'exp
Publiée le
DevOps
24 mois
250-500 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Offre d'emploi
Lead data gouvernance H/F
Publiée le
55k-60k €
63370, Lempdes, Auvergne-Rhône-Alpes
Votre rôle s'articule autour de trois grands axes : 1. Définir le cadre de gouvernance : - Établir des standards et principes communs pour la gestion des données : Documentation et qualité des données Master Data Management Politiques d'accès et sécurité sur la plateforme data Clarification des rôles et responsabilités Garantir une mise en œuvre cohérente dans les différentes entités. 2. Accompagner la mise en œuvre opérationnelle : Piloter l'application des règles de gouvernance Animer et fédérer la communauté des référents data Coordonner les initiatives locales avec la vision centrale Mettre en place des outils, rituels et tableaux de bord pour le suivi. 3. Soutenir les projets stratégiques : Apporter votre expertise sur les projets data pour assurer la conformité aux bonnes pratiques Contribuer à la définition des critères de qualité et de responsabilité pour les cas d'usage à fort impact (IA, R&D, MDM, etc.). LocalisationPoste basé sur plusieurs sites en région (possibilité de télétravail partiel).
Offre d'emploi
DATA ENGINEERING sur KAFKA
Publiée le
Apache Kafka
API REST
Elasticsearch
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Pour notre client dans le secteur bancaire, nous recherchons un expert Kafka : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Les principales technologies utilisees • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Offre d'emploi
Chef de projet Technique - Data Azure + Databricks + Power BI (H/F)
Publiée le
Azure
Databricks
Microsoft Power BI
1 an
Paris, France
Télétravail partiel
Mission longue durée – Paris / Aix-en-Provence / Lausanne (Suisse) Secteur d’activité : Horlogerie de luxe Missions Pilotage complet du projet : planning, jalons, risques, reporting, animation des comités. Suivi financier : budget, consommés, prévisionnels, arbitrages, revues internes/client. Coordination et validation des livrables techniques et fonctionnels. Leadership technique sur Azure (IAM, architecture cloud), Databricks (pipelines, optimisation, ingestion), Power BI (modélisation, datasets, gouvernance). Gestion du relationnel client multi-acteurs, communication claire, gestion des attentes et décisions. Coordination d’une équipe pluridisciplinaire et diffusion des bonnes pratiques data & cloud . Compétences techniques Maîtrise de Microsoft Azure (Data Lake, Data Factory, SQL/Synapse, DevOps). Expertise Databricks (Spark, optimisation, CI/CD, ingestion/transformation). Très bon niveau Power BI (DAX, modélisation, datasets, gouvernance). Bonne compréhension des architectures data modernes et environnements CI/CD. Compétences gestion & relationnel Méthodologies Agile et cycle en V. Pilotage planning/risques/livrables, gestion budgétaire avancée. Leadership, communication, diplomatie, gestion de situations sensibles. Capacité à décider rapidement et à fédérer une équipe.
Offre d'emploi
Lead DevOps Expert Jenkins et Gitlab
Publiée le
Ansible
Apache Kafka
Atlassian
24 mois
45k-54k €
450-500 €
Montreuil, Île-de-France
Télétravail partiel
Localisation : Montreuil Télétravail : 50 % Durée de la mission : longue Intitulé du poste : Lead DevOps Expert Jenkins et Gitlab Descriptif du poste : Expert sur les 3 produits, pour gérer le produit et pas la production (géré par une autre équipe) : Volume : 12k users sur les services bots compris, architecture Gitlab Enterprise 10k, migration vers 25k à prévoir. Gestion / Administration Monté en version Relation éditeur Les missions sont: Expertise technique sur les produits Gitlab (incluant Gitlab-CI), Jenkins et les pratiques associées afin de gérer les montées de version, les changements d'architecture, Maitrise des socles Linux, Windows, Docker et Openshift. Documentation les solutions (How to, maintenance fonctionnelle et technique). En support du déploiement de la solution auprès des clients.
Mission freelance
Tech Lead DATABRICKS (Lyon)
Publiée le
Azure Data Factory
Java
1 an
500-650 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un leader technique. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
DBT
DevOps
Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Mission freelance
Data Analyste Confirmé SQL Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos
Publiée le
Microsoft Power BI
SQL
12 mois
390-400 £GB
Mer, Centre-Val de Loire
Télétravail partiel
Data Analyste Confirmé SQL Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos pour une mission sur MER. Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. Contexte : Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. Missions principales : Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. Compétences requises : - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). Connaissances métier : Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. La mission est sur Mer (proche d'Orleans) - Mission sur le long terme
Mission freelance
Web / Data Analyst Piano Analytics H/F/NB
Publiée le
Analyse
Google Cloud Platform (GCP)
Microsoft Power BI
210 jours
400-580 €
Île-de-France, France
Télétravail partiel
Leader des médias français , notre client recherche un Data Analyst expérimenté pour accompagner la transformation digitale de ses offres numériques. Rejoignez la Direction Data et contribuez à faire de la donnée un levier stratégique de croissance. 🚀 Vos missions : Pilotage & Reporting Créer et automatiser des dashboards Power BI pour les équipes Growth (CRM, Acquisition, Social) Recueillir les besoins métier et rédiger les cahiers des charges techniques Superviser la qualité des données et optimiser les performances des rapports existants Analyse & Insights Analyser les données Piano Analytics, Nielsen/eStat Streaming Étudier les parcours utilisateurs et la consommation vidéo (Web/App/TV) Produire des analyses mensuelles et recommandations actionnables Collaborer avec l'équipe Études pour approfondir la connaissance utilisateur Formation & Accompagnement Former et coacher les équipes internes sur Piano Analytics et les outils d'analyse Sensibiliser à l'intégration de la data dans les processus de décision Vulgariser les concepts techniques pour des équipes non-techniques Stratégie Data Définir et harmoniser les KPIs transverses pour les équipes Growth, Produit et Métiers Spécifier les prérequis de tracking pour les analyses futures Contribuer au déploiement du marqueur interne sur de nouveaux produits
Offre d'emploi
Architecte Réseau Datacenter (H/F)
Publiée le
Cisco
Data Center
F5
1 an
80k-85k €
540-570 €
Yvelines, France
Télétravail partiel
Ce poste s’adresse à un expert réseau ayant une solide maîtrise des technologies Datacenter modernes (Cisco Nexus, VXLAN EVPN, ACI, NSX-T). VOS RESPONSABILITES PRINCIAPLES : 1. Conception & architecture réseau Datacenter Définition d’architectures Datacenter complexes (multi-DC, fabrics) Design underlay/overlay en VXLAN EVPN Conception backbone DC sous Cisco NX-OS / IOS-XR Contribution aux choix techniques & roadmap réseau Intégration SDN (ACI, NSX-T) 2. Implémentation & intégration Mise en œuvre des nouveaux composants réseau Intégration des applications / services / environnements DevOps dans le réseau DC Configuration fabrics (ACI policies, overlays NSX-T…) 3. Supervision, MCO & optimisation Support expert sur incidents critiques Troubleshooting avancé Optimisation routage (BGP, OSPF) Participation aux astreintes (HNO) Suivi des performances & capacity planning 4. Sécurité & continuité d’activité Participation aux démarches PRA / PCA Contribution aux stratégies de segmentation & micro-segmentation (NSX-T) Relations étroites avec équipes sécurité & workplace 5. Documentation & gouvernance Rédaction HLD / LLD , procédures & standards Participation aux comités d’architecture Capitalisation & amélioration continue
Mission freelance
Data Analyst - Part-time (DBT - GitLab- Looker- BigQuery)
Publiée le
BigQuery
Data analysis
Data cleaning
6 mois
350-470 €
Genève, Suisse
Télétravail 100%
Cette mission est en Mi-Temps Nous recherchons deux data analyst pour une migration de modèles DBT afin de changer une partie du sourcing de la partie principale des Datamarts. Environnement & Contexte : Principalement pour les tables Client & Transactions, mais aussi d’autres modèles (Campaign, Clienteling), nous souhaitons ne plus nous sourcer sur un Datalake central, mais sur des données préparées dans un Datamart par une autre équipe, ce qui permettra de simplifier les scripts et supprimer les transformations. Il est crucial d’assurer la consistance des Data à tous les niveaux. Une analyse de gap sur les outputs principaux (Transaction, Client) a déjà été effectuée, avec un presque alignement au niveaux du nombre de record par Primary Key, mais au cours de la migration, il y aura forcément des différences relevées sur les dimensions/mesures, que vous allez devoir analyser, investiguer et remonter. Le Data Engineer aura pour mission principales : Revoir une bonne partie des modèles DBT dans notre Datamart Client qui contient environ 45 modèles finaux (et 60 modèles intermédiaires), pour modifier le sourcing (au lieu de sources brutes, se reposer sur un Datamart qui contient déjà certains indicateurs que nous préparions de notre côté) Simplifier et supprimer les transformations du script Client pour en simplifier la maintenance, et les investigations. Test de non regression sur le modele final, pour garantir que les outputs sont ISO (ou très proches, avec investigations des écarts et remontée/échanges avec l’équipe en charge du Datamart) Validation dans les outils finaux (explores/dashboards Looker) de la consistance des chiffres. Mise à jour de la documentation des modèles (SQL, Yaml, Confluence, Data Model)
Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Offre d'emploi
Data Analyste
Publiée le
Réseaux sociaux
Technologies de l'information et de la communication (TIC)
1 an
40k-45k €
310-420 €
Île-de-France, France
Télétravail partiel
Prestation de Data Analyse pour la Direction de la Communication DigitaleInformations Générales Contexte de la Mission Pilotage de la réputation sur les réseaux sociaux et le web pour la Direction de la communication digitale : veille continue, analyses quantitatives/qualitatives, alertes et recommandations aux directions concernées. Activités Attendues Veille social listening en continu (sujets, tendances, crises) et suivi temps réel d'émissions en direct (soirées). Notes d'analyse rapides (quotidiennes, mensuelles, thématiques, ad hoc). Études réputationnelles liées à des opérations de marketing d'influence. Recommandations stratégiques & éditoriales pour la Direction de la com' digitale et les autres directions.
Offre d'emploi
Product OWNER DATA / BI (Compétence Salesforce Obligatoire)
Publiée le
Salesforce CPQ
3 ans
40k-55k €
380-530 €
Boulogne-Billancourt, Île-de-France
La Direction des Technologies d’un grand groupe média français conçoit, opère et fait évoluer les systèmes techniques (IT et diffusion) qui soutiennent l’ensemble de ses activités. Elle travaille en étroite collaboration avec les différents métiers du groupe (publicité, contenus, antennes, production, entertainment…) et intervient sur des enjeux clés de support et de transformation digitale . Avec plusieurs centaines de collaborateurs, cette direction accompagne chaque année de nombreux projets stratégiques, innovants et à fort impact business . Le Pôle Produits Publicitaires est en charge de la conception, du développement et de la maintenance des outils de la régie publicitaire, organisés autour de 7 grands produits structurants : Commercialisation : prospection, négociation, contractualisation Offre : catalogue, tarification, inventaire, optimisation Achat : commande, valorisation, arbitrage, programmation Diffusion : gestion des créations, panachage, conducteur Gestion financière : valorisation, prévisions de chiffre d’affaires, facturation Portail client : digitalisation de la relation client BI / Data : entrepôt, consolidation et diffusion des données Dans ce contexte de forte transformation digitale , le pôle recherche un Product Owner CRM – Data Client BtoB & Prospection pour piloter des produits au cœur de la stratégie commerciale et data. Vous êtes animé(e) par les enjeux CRM BtoB , la valorisation de la donnée client et l’optimisation des process de prospection ? Vous aimez faire le lien entre vision business, besoins métiers et delivery produit dans un environnement agile et exigeant ?
Offre d'emploi
Data Analyste (13)
Publiée le
Confluence
Piano Analytics
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'un groupe audiovisuel français. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. Description du poste La Direction Data recherche une prestation en Data Analyse pour accompagner les équipes produits et éditoriales dans l'analyse de la performance de la plateforme de streaming vidéo du groupe. La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes internes, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet) Le maintien du bon fonctionnement des dashboards existants sur Power BI L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne) La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul Le partage de son expertise afin de déployer le marqueur interne sur d'autres produits L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes
Mission freelance
Business Analyst Plateforme Data IA
Publiée le
Dataiku
SAS
1 an
500-550 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Business Analyst Plateforme Data IA. Compréhension fine des enjeux de développement de cas d'usages Data et déploiement de l'IA Gen pour les équipes du Client (développements privatifs et enjeux de communautarisation) Participer au suivi du projet d' IA Studio en appui au dispositif existant (apport d'expertise sur le choix de solutions, valeurs et contraintes d'environnement et d'architecture, participer à la feuille de route d'implémentation qui doit permettre l'ouverture des premières fonctionnalités en 2026 Capacité à anticiper, planifier les réunions nécessaires pour construction des livrables, Participation à la construction du dossier de cadrage (cadrage à terminer devant reprendre les éléments pertinents des séquences passées), aide à la construction des documents clés comex produits, ateliers PU/CR, documents préparatoires intermédiaires, échanges avec les parties prenantes des équipes du PP/PU Data et dans l'écosystème du Client (ex architecture...)/infogérant du Client en détaillant le retroplanning cadencé avec les jalons identifiés sur 2026. Connaissance plateforme Data dont SAS Viya (solution et intégration des capacités IA Gen...), Dataiku...
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2360 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois