L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 866 résultats.
Mission freelance
Chef de Projet Data & IA (H/F)
AGH CONSULTING
Publiée le
Data analysis
IA Générative
Méthode Agile
1 an
480-520 €
Montrouge, Île-de-France
Vous intégrerez l'équipe Gestion de Projets de notre client, pour réaliser les missions suivantes : - Avec l'ensemble des parties prenantes (métiers, IT, CISO, juridiques, Data Scientists, Data Engineer...), gérer des projets Data, IA et IA Générative répondant aux besoins des métiers, en respectant la méthodologie certifiée et labélisée du DataLab Groupe : o Etude d'opportunité et cadrage, o Pilotage de la réalisation jusqu'à la mise en production à l'échelle, en assurant un reporting auprès des sponsors et de votre Direction, o Suivi du déploiement et de l'utilisation des solutions par les utilisateurs finaux, o Accompagnement de la montée en compétences des équipes des entités. - Contribuer à l'amélioration continue de la méthodologie, - Participer à l'animation de la communauté des experts Data & IA (webinars, Clubs, Groupe de Travail...), et à l'acculturation des collaborateurs, managers et dirigeants du Groupe, et au rayonnement des réalisations Data et de l'IA du client au travers d'événements externes (salons, conférences, communautés...).
Offre d'emploi
Analyste de tests et validation expert
SARIEL
Publiée le
JIRA
Microsoft SQL Server
UFT One
12 mois
40k-60k €
350-490 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un analyste de test et validation expert (plus de 10 ans d’expérience) Objectif global - Tester Les application de gestion commerciale. Contrainte forte du projet Certification ISTQB, une certification SAFe est un gros plus. Le livrable est PV de recette, Documentation Confluence, plan de tests, ticket tests sous Jira Compétences techniques JIRA - Confirmé - Important SQL server - Confirmé - Important Retail - Junior - Souhaitable UFT - Junior – Appréciable Connaissances linguistiques Français Lu, écrit (Impératif) Anglais Notions (Secondaire) Description détaillée Dans le cadre des tests de nos applications de gestion commerciale, le candidat sera amené à travailler sur les évolutions du Legacy et de sa refonte. Le candidat doit être force de proposition et surtout être impliqué fortement. La refonte de nos applications engendrer une période de stress que le candidat devra supporter avec dynamisme. Enfin nous recherchons un profil pour une longue mission mais curieux, sérieux, ouvert sur les nouvelles technologies avec un bon esprit d'équipe. Définition du profil ORGANISATION ET CONCEPTION DES TESTS Contribue à l'élaboration de la stratégie de tests avec le Test Lead, en lien avec les Chefs de Projets et/ou Responsables d'applications Analyse les exigences utilisateurs et les spécifications fonctionnelles ou techniques fournies par le Responsable d'application Estime les charges DÉROULEMENT ET REALISATION DES TESTS En fonction de la stratégie établie, rédige les plans de tests, identifie les prérequis et spécifie les jeux de données (données de tests, résultats attendus) qu'il fait valider par le CP et/ou Responsable d'Application Réceptionne son environnement de tests et s'assure de sa conformité en termes de versions applicatives Exécute les tests manuellement ou en utilisant des outils d'exécution automatique des tests Consigne les résultats de tests et remonte les anomalies au Chef de Projet et/ou Responsable d'application Met à jour le référentiel de tests Peut coordonner une équipe d'analystes de test en tant que référent SYNTHESE DES TESTS Réalise un bilan des tests effectués Date de démarrage 27/04/2026 Lieu de réalisation Chatillon Déplacement à prévoir non Le projet nécessite des astreintes Non Nombre de jours souhaitables sur site 3 jours par semaine La sous-traitance (freelance, ESN ou autre) sur ce projet est Autorisée Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Data Engineer (3+ ans d'exp)
WINSIDE Technology
Publiée le
API
DBT
Google Cloud Platform (GCP)
1 an
43k-57k €
360-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer pour une grande entreprise française sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans d'expérience professionnelle à minima en tant que Data Engineer. tu as 2 ans d'expérience professionnelle à minima en dbt, Snowflake ET Semarchy. Missions : Concevoir et développer des pipelines pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Les petits plus du candidat idéale : Connaissances IPAAS Familiarité avec les outils de workflow (Airflow, PubSub). Connaissance développement IA (Python, RAG...) Connaissance GCP (Cloud Provider, nous n'avons pas de Big Query) Démarrage : rapide. TT : 1 jour par semaine. Durée : longue. Localisation : métropole lilloise. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Mission freelance
Data Architecte
Deodis
Publiée le
Kubernetes
Linux
Openshift
1 an
600-630 €
Île-de-France, France
Dans le cadre de l’administration et de l’évolution d’une plateforme IA, le Data Architecte intervient sur le maintien en condition opérationnelle (MCO) et l’optimisation continue des infrastructures Kubernetes supportant les workloads data et IA. La mission couvre la conception, le déploiement et l’exploitation de clusters on-premise, cloud ou hybrides, l’automatisation de l’infrastructure via IaC, ainsi que le renforcement de la supervision et de l’observabilité. L’objectif est de garantir la disponibilité, la performance, la sécurité et la résilience des services tout en accompagnant l’intégration de nouveaux modèles et l’optimisation des pipelines de data science.
Mission freelance
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES
WorldWide People
Publiée le
Semarchy
12 mois
360-390 €
Nantes, Pays de la Loire
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES 04/05/2026 1 an Nantes ( 2 jours de télétravail) Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell Build: conception et développement de nouvelles solutions socle data Run: MCO et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Développer des traitements ELT xDI Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Nous recherchons un data engineer confirmé. La maitrise de Semarchy xDi, SQL et GitLab CICD est nécessaire.
Offre d'emploi
Chef de projet CRM Mobile MEDIAS
YGL consulting
Publiée le
CRM
3 mois
Paris, France
Nous recrutons un Gestionnaire de projet CRM mobile (h/f) ayant une connaissance des médias, pour mener à bien les projets de notre client parisien. Prestation attendue : Gestion de projets CRM omnicanaux en coordination avec les équipes CRM, produit, data, technique, RGPD, du cadrage, recette, à leur mise en œuvre. Exemples de projets : Déploiement ou refonte de communications automatisées cycle de vie post installation d’application ou de réactivation dans l’outil de gestion de notifications, Déploiement de la personnalisation dans les push notifications, Campagnes de collecte pour optimiser le taux d’opt in, AB tests pour optimiser les performances, Mise en place de dashboards automatisés basés sur les données issues du datalake Recettes liées aux parcours CRM SUR APPLICATIONS MOBILES (de l’inscription post installation au paramétrage des alertes, à la bonne réception des alertes, à leur suppression & personnalisation). Vérification de la qualité des données, liées aux plans de marquage, remontées des performances dans nos outils, visites et l’outil de webanalytics. Analyses récurrentes des performances des campagnes & ad-hoc (ex : impact pression, corrélations…) dans le module analytics de l’outil de gestion des notifications et dans l’outil de Webanalytics ainsi que via des rapports Power BI existants et de futurs à déployer. Paramétrage & optimisation des communications cycle de vie automatisées avec une vision omnicanale. Back up sur la gestion opérationnelle dans l’outil de gestion des notifications mobiles des campagnes manuelles : paramétrages, planification, plan d’animation relationnelle, recommandations d’optimisation et analyses.
Mission freelance
Ingénieur Data à Niort (3 jours sur site)
NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)
24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
Offre d'emploi
Consultant Informatica H/F
TOHTEM IT
Publiée le
35k-45k €
Toulouse, Occitanie
Nous recherchons un(e) consultant(e) pour initier une équipe (jusqu’à 3 personnes selon les besoins) dédiée au maintien évolutif et correctif des applications décisionnelles RH d’un grand groupe du secteur bancaire. Tu seras en charge de prendre en main l’environnement, aussi bien sur les plans fonctionnels que techniques, et de poser les bases de cette future équipe. Tes missions Gérer le RUN des outils décisionnels RH. Piloter les évolutions (administration du personnel, paie, formation, recrutement, talent management), en lien avec les métiers et les éditeurs. Contribuer à la préparation des recettes fonctionnelles . Développer et maintenir les univers BO ainsi que les rapports associés. Participer à des projets stratégiques comme le Socle Data Groupe (GCP/IDMC). Apporter un support de proximité aux utilisateurs métiers. ️ Ton environnement tech Business Objects BI 4.3 SQL Developer : SQL, procédures stockées, fonctions Bases de données : Oracle , Hive , Indexima Informatica PowerCenter (projet de migration vers Informatica IDMC ) Power BI Google Cloud Platform (GCP) – BigQuery
Mission freelance
Chef de projet BI (F/H)
Experis France
Publiée le
3000 mois
Vitrolles, Provence-Alpes-Côte d'Azur
Analyste d'exploitation F/H - Niort Vous intervenez au cœur des enjeux majeurs de la gestion complète de la chaîne Data : infrastructure, gouvernance et Business Intelligence. Dans un contexte à forts enjeux métiers (ex. croissance externe, rachat d'entreprises), vous pilotez des projets BI stratégiques et contribuez à la valorisation de la donnée au service de la prise de décision. Vos missions : En tant que Chef de Projet BI , vous êtes responsable du pilotage et de la mise en œuvre de projets décisionnels end-to-end : Pilotage de projets BI et d'intégration de données Recueil et compréhension des besoins métiers Traduction des besoins fonctionnels en solutions techniques data conception développement tests mise en production Mise en place de flux d'intégration de données (ETL) Création et maintenance de tableaux de bord décisionnels Coordination des différents acteurs (métier, IT, partenaires) Exemple de contexte projet : intégration et harmonisation des données suite à un rachat
Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Airflow / Composer
Pickmeup
Publiée le
Apache Airflow
BigQuery
Composer
3 mois
550-700 €
Paris, France
Un client migre sa dataplateforme legacy vers un socle full GCP. L'architecture et le plan sont validés. On recherche un experts polyvalents, moteurs de la migration, pas des exécutants. Vous portez plus spécifiquement l'orchestration du projet. Contexte : Vous rejoignez le pôle plateforme data (5 pôles au total) en binôme avec un autre Data Engineer GCP expert. Vous êtes tous les deux capables de tout couvrir, vous tirez l'équipe, vous posez les standards. Missions - Piloter la migration de l'orchestration vers Cloud Composer 2. - Nettoyer, rationaliser, porter les DAG existants, industrialiser les standards (CI/CD, tests, observabilité). - Orchestrer le cut-over legacy → cible sans double run. - Contribuer à la migration des pipelines BigQuery et à l'IaC Terraform du socle. - Transmettre à l'équipe interne au fil de l'eau. Stack (maîtrise attendue sur l'ensemble) Airflow 2.x, Cloud Composer 2, Python, BigQuery, Terraform, GCS, IAM GCP, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Offre d'emploi
Data Engineer F/H
VIVERIS
Publiée le
40k-45k €
Belgique
Contexte de la mission: Dans le cadre du développement de nos activités data et de la montée en puissance de nos plateformes analytiques, nous recherchons un Data Engineer pour concevoir, construire et optimiser les pipelines de données alimentant nos applications métiers, nos plateformes analytiques et nos modèles d'intelligence artificielle.Vous rejoindrez une équipe Data pluridisciplinaire (Data Engineers, Data Scientists, Data Analysts, Architectes) et interviendrez sur toute la chaîne de traitement de la donnée : ingestion, transformation, structuration, optimisation, industrialisation et monitoring. Vos responsabilités: Vous serez en charge de: - Concevoir, développer et maintenir des pipelines de données robustes (batch & streaming) - Industrialiser la collecte, la transformation et la mise à disposition des données (ETL/ELT) - Assurer la qualité, la fiabilité et la disponibilité des datasets critiques - Participer à la modélisation et à la structuration des données (Data Lake, Data Warehouse) - Collaborer avec Data Scientists & Analysts pour fournir des données fiables et exploitables - Contribuer aux choix techniques et à l'évolution de l'architecture data - Documenter les pipelines, les schémas et les bonnes pratiques d'exploitation
Mission freelance
Directeur de Programme Data
CONCRETIO SERVICES
Publiée le
Data management
Jira Align
12 mois
400-600 €
Pays de la Loire, France
Dans le cadre d'une stratégie de digitalisation ambitieuse, notre client — un grand groupe financier — lance la Saison 2 d'un portefeuille de 15 solutions nativement digitales à déployer en 18 mois. L'objectif : mettre à disposition des clients des parcours de souscription et de gestion de produits 100% digitaux, à grande échelle. Un programme transverse qui mobilise 24 tribus, 10 Pôles Utilisateurs et plus de 12 entités du groupe. Une machine en mouvement, forte des succès de la Saison 1, qui cherche maintenant à accélérer. Votre mission Au cœur du dispositif de pilotage, vous êtes le garant de la delivery : Sécuriser le lancement de la Saison 2 : cadrage des Business Epics, structuration dans les outils (JIRA Align), embarquement des parties prenantes Piloter la fabrication en lien direct avec les Leaders de Tribu : planification, suivi des engagements délais/budget/qualité, arbitrages Animer la gouvernance : comités de pilotage, reporting Direction Générale, coordination faîtière Groupe Gérer les risques : identification, qualification, plans de mitigation, escalade si nécessaire Contribuer à la capitalisation : post-mortem, bonnes pratiques, recommandations pour les programmes futurs
Mission freelance
fullstack developer (data experience)
Hanson Regan Limited
Publiée le
Angular
Java
Python
12 mois
400-570 €
Paris, France
Hanson Regan recherche un développeur full stack pour une mission de 12 mois à Paaris. Projet axé sur les données et la visualisation de données. Nous recherchons un candidat justifiant d'une expérience professionnelle de plus de 4 ans pour une mission de longue durée à Paris. Ce poste s'inscrit dans le cadre d'un projet d'envergure et offre l'opportunité de collaborer au sein d'une équipe dynamique et reconnue. Compétences requises : Solide expérience en Python pour le développement backend et le scripting. Bonne connaissance de Java avec le framework Spring (Spring Boot de préférence). Expérience en Scala pour le développement d'applications évolutives et performantes. Maîtrise d'Angular 16+ pour le développement frontend moderne. Merci de nous contacter au plus vite si vous êtes intéressé ou si vous connaissez une personne correspondant à ce profil
Mission freelance
Mission freelance - Data / AI Engineer Snowflake - Toulouse
KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
Apache Spark
Python
1 an
300-480 €
Toulouse, Occitanie
Vos missions : Collaborer avec le métier pour concevoir des transformations data / AI pertinentes pour le business, Industrialiser et gérer des pipelines de traitement de données en production, Contribuer à l’implémentation d’évolutions des plateformes data de nos clients, Accompagnement du métier dans le cadrage et le delivery de leurs cas d’usage data Être force de proposition auprès du client dans l’évolution de sa plateforme data Participation éventuelle à des avant-ventes afin d’aider à la conception de solutions techniques pour nos futurs clients Qualifications ? Vos atouts pour nous rejoindre : Cloud Data / IA Platform : Snowflake Orchestrateur : Airflow Framework de calcul distribué : Spark Langage : Python, PySpark, Scala, Java Infrastructure As Code : Terraform CI/CD : GitlabCI, Jenkins Containers : Docker, Kubernetes Versioning : Git
Offre d'emploi
Data Engineer Streaming
KLETA
Publiée le
Apache Kafka
Apache Spark
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Proxy Product Owner Data Freelance
SURICATE IT
Publiée le
Dataiku
Finance
P2P
3 ans
Puteaux, Île-de-France
Proxy Product Owner Data Freelance – Corporate Finance Transformation 📍 Informations mission 👤 Expérience : 10 ans MINIMUM requis 🚀 Démarrage : ASAP ⏳ Durée : 3 ans 🏠 Télétravail : 1 jour par semaine (non négociable) 🌍 Anglais : bon niveau requis 💰 TJM : selon profil 🌍 Localisation : Puteaux Nous recherchons un Proxy Product Owner Data pour accompagner le programme de transformation Corporate Finance au sein du Group Data Office . Le rôle consiste à garantir que les initiatives de transformation Finance intégrant une dimension data sont correctement identifiées, structurées et alignées avec les standards data du groupe , tout en assurant une delivery efficace . Le poste agit comme un pont entre les équipes Finance, IT et Data afin de permettre une transformation data-driven des processus Finance. 🎯 Missions principales Identifier les initiatives Finance ayant un impact data Traduire les besoins métier Finance en exigences data et techniques Garantir l’alignement avec les standards et patterns d’architecture du Group Data Office Contribuer à l’ automatisation des processus Finance Coordonner les équipes Finance, IT et Data pour assurer la delivery Assurer le suivi des projets, reporting et gestion des parties prenantes Les initiatives portent notamment sur : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus Finance Use cases data et analytics 🌍 Environnement Rôle stratégique à l’interface entre Corporate Finance et Data , contribuant à accélérer la transformation data-driven des fonctions Finance dans un environnement international.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3866 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois