L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 670 résultats.
Mission freelance
Data engineer h/f
Freelance.com
Publiée le
Apache Airflow
Apache Spark
Cloud Provider
3 mois
400-580 €
Saint-Ouen-sur-Seine, Île-de-France
Dans le cadre du renforcement de son équipe Data, notre client – grand groupe international du secteur de la beauté et des cosmétiques – recherche un(e) Data Engineer Senior freelance pour une mission de 2 ans basée à Saint-Ouen. Conception et développement de pipelines de données batch et temps réel Intégration de sources de données hétérogènes (APIs, bases relationnelles, fichiers plats) Transformation, nettoyage et fiabilisation de la donnée (via dbt, Spark) Optimisation des flux de données : performance, scalabilité et maîtrise des coûts Mise en place et maintenance des outils d'orchestration (Airflow) Collaboration transverse avec les équipes Data (analystes, data scientists, architectes) La mission est au cœur de la stratégie data du groupe et nécessite un profil autonome, rigoureux et orienté solution.
Mission freelance
Expert Réseau & CI/CD - Paris H/F
GROUPE ARTEMYS
Publiée le
Ansible
Aruba
Cisco
24 mois
550-600 €
75010, Paris, Île-de-France
Qui sommes-nous ? On est une ESN spécialisée dans le domaine des infrastructures à taille humaine, avec plus de 30 ans d’histoire. Mais ce qui fait notre vraie différence ? On ne se contente pas de dire qu’on valorise nos collaborateurs, on le prouve au quotidien. Chez Artemys , on crée un univers où l’humain passe avant tout . Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. 📍 Le terrain de jeu ? Notre siège est situé au cœur du dynamique 10e arrondissement de Paris, mais nos opportunités de postes s'étendent dans tous les arrondissements parisiens et la proche banlieue. Votre mission (si vous l’acceptez) : Développer et maintenir des pipelines CI/CD dédiés aux infrastructures réseau. Mettre en place et améliorer des approches Infrastructure as Code (IaC) . Automatiser les opérations réseau via Ansible, Python et autres outils DevOps. Industrialiser les déploiements et standardiser les configurations réseau. Participer à la refonte et modernisation du LAN . Contribution aux projets SDN , NAC , segmentation, sécurisation réseau. Intégration et optimisation d’architectures complexes (Cisco, Aruba, Juniper). Accompagnement des équipes projet et partage de bonnes pratiques d’automatisation. Assurer un support de niveau 3 sur les infrastructures réseau. Rédiger et maintenir une documentation technique complète et structurée. Participer à une astreinte (selon organisation). L’environnement technique : Cisco , Aruba , Juniper Architectures LAN, WLAN, WAN, SDN Solutions NAC : ClearPass , Cisco ISE Ansible , Python , Terraform Environnements de versioning et CI/CD : Git , Jenkins Vous, notre perle rare : Vous avez 10 ans d’expérience (minimum) en environnement challengeant Vous avez déjà travaillé avec des grands comptes Vous parlez anglais (niveau conversationnel) Vous êtes rigoureux, agile, force de proposition et à l’aise à l’écrit Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 65 000 - 70 000 €/an (Selon votre expertise) 550 - 600 €/J Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Data Engineer Informatica Talend Power B.I SQL (F/H)
CELAD
Publiée le
Big Data
Informatica
Microsoft Power BI
12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Data Engineer – Plateforme Epargne Financière pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Sécuriser la gestion de l’actualisation de l’offre Epargne Financière en lien avec les équipes partenaires distributeurs et producteurs. - Faire évoluer la solution en respectant les standards à jour : implémentation de changements à valeur ajoutée pour le business et traitement de la dette technique. - Contribuer à la gestion du RUN et renforcer la robustesse de la solution. - Renforcer la supervision et la qualité des données.
Offre d'emploi
Urbaniste Data (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Kafka
PostgreSQL
54k-58k €
Roubaix, Hauts-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Manager expert modélisation de données (H/F)
Cherry Pick
Publiée le
Data analysis
Data quality
Snowflake
12 mois
600-630 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Manager expert modélisation de données(H/F), pour le compte de l'un de ses clients qui opère dans le domaine Hôtelier. Description 🎯 Contexte de mission Dans le cadre d’un programme stratégique au sein d’une direction Data, nous recherchons un Data Manager Senior intervenant en rôle transverse sur le domaine Customer et les autres domaines data. La mission vise à garantir la cohérence, la standardisation et la qualité long terme du paysage data , en assurant l’alignement entre les équipes métier, produit et techniques. 🚀 Missions principales et rôle Le Data Manager agit comme référent fonctionnel transverse , garant des standards de data management et facilitateur entre les équipes. 🏗️ 1. Cadrage & Design des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products Apporter une forte compréhension fonctionnelle des processus Customer Conseiller sur les choix de modélisation (complexité, faisabilité, impacts transverses) Garantir l’alignement avec l’architecture cible et les standards existants 📐 2. Standards & Gouvernance Data Définir et maintenir les standards de data management (règles de modélisation, conventions de nommage, documentation) Structurer les règles de qualité, contrôles et réconciliations Assurer la cohérence et l’adoption des standards au sein du domaine Customer Garantir la qualité de la documentation technique et de la data lineage Être le point de référence sur les pratiques de gouvernance 🌐 3. Urbanisation & Cohérence Transverse Assurer l’interopérabilité entre domaines data Identifier doublons, incohérences et fragmentation des concepts Customer Formuler des recommandations d’optimisation et de simplification Promouvoir la réutilisation et l’harmonisation des modèles Contribuer à la vision long terme de la qualité data 📦 Livrables attendus Support continu aux activités de data management Documentation technique des données (modèles, définitions, lineage) Mise en place et suivi des règles de qualité et de contrôle Coordination des parties prenantes Recommandations d’urbanisation et d’harmonisation
Offre d'emploi
Tech Lead Data (H/F)
Amiltone
Publiée le
30k-35k €
Bordeaux, Nouvelle-Aquitaine
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant que Tech Lead Data (H/F). Dans une organisation Agile, vous assurerez les missions suivantes : - Encadrer et accompagner l'équipe dans la réalisation des projets data - Optimiser les processus de delivery en s'appuyant sur les principes Lean - Garantir la performance, la scalabilité et la fiabilité des solutions data - Participer à la conception et à l'évolution de la plateforme data - Faciliter le partage de données avec les filiales du groupe et les clients B2B La stack technique : - Snowflake - SQL - Talend - DBT - Kafka - Python - PowerBI
Offre d'emploi
Chef de Projets Data H/F
JEMS
Publiée le
45k-60k €
Nantes, Pays de la Loire
Nous recherchons un Chef de Projets Data pour venir renforcer nos équipes Delivery. Vous serez responsable de la gestion complète des projets de déploiement de nos plateformes data chez nos clients, en garantissant le respect des délais, du budget et de la qualité des livrables. Nous attendons de vous des compétences fortes en Management et Leadership. Vous aurez la charge de : • Superviser l'ensemble du cycle de vie des projets en mode forfaitaire ou en mode dispositif à engagements, jusqu'au déploiement en production • Définir et formaliser les besoins clients en étroite collaboration avec les équipes techniques et les stakeholders • Chiffrer les différentes étapes du projet, identifier les compétences nécessaires, élaborer les plannings, définir le plan de charge (montée en charge des ressources nécessaires) • Assurer un suivi rigoureux des coûts, des délais et des risques, en identifiant et en gérant les éventuels écarts de périmètre • Initialiser et maintenir le plan d'assurance qualité à jour • Encadrer et animer les équipes projets, en motivant et en assurant un suivi efficace de la performance de l'équipe • Garantir la qualité des livrables en supervisant les tests, la validation des fonctionnalités et la conformité aux exigences spécifiées • Participer à l'amélioration continue des processus et méthodologies de gestion de projets (plan de progrès) • Préparer des rapports réguliers sur l'état d'avancement des projets et les résultats obtenus. Référence de l'offre : 9cf1ixdvzj
Mission freelance
DATA ENGINEER / TECH LEAD
Codezys
Publiée le
Conception
Informatica
Power BI Desktop
12 mois
450-550 €
Toulouse, Occitanie
Contexte de la mission Nous recherchons un(e) chef de projet technique / ingénieur data expérimenté(e), possédant des compétences avérées en SQL, ETL et outils de reporting. La mission concerne le domaine du datawarehouse de cargaison, spécialisé dans le chargement et la transformation de données pour les filiales AF&KL. La personne sélectionnée devra accompagner l’équipe dans la gestion des projets en cours ainsi que dans le développement de nouvelles fonctionnalités, en apportant son expertise pour les corrections et améliorations futures. Le poste s’inscrit au sein d’une équipe composée de huit membres, et la présence à Toulouse est obligatoire. Objectifs et livrables Contribuer à la maintenance et à l’évolution du datawarehouse cargo, en garantissant la qualité et la performance des données. Participer à la conception, au développement et à la mise en œuvre des nouvelles fonctionnalités et corrections. Collaborer étroitement avec l’équipe pour assurer la cohérence et l’efficacité des processus de chargement et de transformation des données. Fournir une documentation claire et précise des livrables réalisés. Conditions particulières Localisation : obligatoire à Toulouse. Veuillez fournir la matrice jointe détaillant les niveaux de compétence pour chaque profil proposé. Nous demandons uniquement la soumission de candidats correspondant strictement aux compétences requises, notamment pour les niveaux 3/4 ou 4/4 dans les compétences clés mentionnées.
Offre d'emploi
Data Analyst
KLETA
Publiée le
PowerBI
Reporting
3 ans
Paris, France
Dans le cadre d’un programme de transformation data et décisionnelle, nous recherchons un Data Analyst pour analyser, structurer et valoriser les données au service des décisions métiers. Vous travaillerez étroitement avec les équipes métiers pour comprendre leurs besoins, définir des indicateurs pertinents et proposer des analyses adaptées. Vous serez responsable de l’exploration des données, de la construction de modèles analytiques simples et de la création de tableaux de bord lisibles et actionnables via des outils tels que Power BI, Tableau, Qlik ou équivalents. Vous participerez à la définition et à la fiabilisation des KPIs, en collaboration avec les équipes Data Engineering pour garantir la qualité et la cohérence des données sources. Vous réaliserez des analyses ad hoc, identifierez des tendances et formulerez des recommandations basées sur les données. Vous contribuerez également à la documentation des analyses, à la structuration des reportings et à l’amélioration continue des usages data au sein de l’organisation.
Offre d'emploi
Data Engineer (F-H)
INFOGENE
Publiée le
40k-45k €
Lille, Hauts-de-France
En tant que Data Engineer , vous intervenez sur la conception, le développement et l’exploitation de pipelines de données cloud-native, principalement orientés ELT. Votre rôle est central dans la structuration, la transformation et la fiabilisation des données , avec une utilisation avancée de dbt. Vous intervenez sur l’ensemble du cycle de vie de la donnée, de la transformation à la mise à disposition analytique, avec une attention particulière portée à la qualité,la performance , la fiabilité et la traçabilité des données.
Mission freelance
Responsable Système d'Information
Castelis
Publiée le
Administration réseaux
Administration système
Azure
6 mois
490-550 €
Levallois-Perret, Île-de-France
Rattaché au DSI, vous intervenez comme référent opérationnel du SI sur la partie infrastructures et exploitation. Le poste est orienté IT run / infrastructures, avec une dimension pilotage, mais également une forte proximité terrain. Il ne s’agit pas d’un poste de DSI “gouvernance / COMEX”, mais d’un rôle central, opérationnel, qui demande de savoir arbitrer, structurer et faire avancer les sujets. Vos principales responsabilités seront les suivantes : Piloter le bon fonctionnement des infrastructures IT (réseau, systèmes, environnements hybrides). Assurer la disponibilité et la performance du SI, et intervenir dans la gestion des incidents critiques si nécessaire. Piloter les environnements cloud et leurs évolutions (résilience, optimisation, fiabilité). Structurer et faire évoluer les standards d’exploitation (process, supervision, documentation). Piloter des prestataires et garantir la qualité de service. Manager une équipe support basée à l’international. Participer à la roadmap IT sur les sujets infrastructures, en lien avec la direction IT. Travailler en étroite collaboration avec le RSSI sur les sujets de sécurité, conformité et gestion des risques.
Mission freelance
Concepteur/Rédacteur, Pôle Data & IA
Codezys
Publiée le
Conception
Intelligence artificielle
Rédaction
6 mois
Paris, France
Le prestataire aura pour mission principale d’assister la Responsable de la communication dans les activités suivantes : Activités principales : Recueil des besoins internes : Participer et animer des comités éditoriaux afin d’identifier les besoins et priorités internes. Collaborer avec différents interlocuteurs internes pour collecter des informations clés. Conception et rédaction de contenus : Identifier les thématiques pertinentes liées à la Data et à l’Intelligence Artificielle. Proposer des idées innovantes pour des contenus engageants et attractifs. Rédiger des articles, des publications pour les réseaux internes et divers supports de communication. Gestion et création de contenus multimédias : Produire des supports variés tels que articles, podcasts, vidéos, newsletters, Datalks, et événements. Traiter des demandes spécifiques en cohérence avec la stratégie de communication du Pôle. Concevoir et organiser des contenus adaptés à chaque canal pour optimiser leur impact. Organisation d'événements : Coordonner la planification et la logistique d’événements internes (Forum Data & IA, Datalks, etc.). Veiller à la qualité des interventions et au choix des thématiques, en collaboration avec les parties prenantes. Assurer la promotion des événements via les différents canaux de communication. Suivi de la production : Gérer la relation avec les prestataires externes (briefs, suivi, validations, etc.). Garantir le respect des délais et la qualité des livrables. Veille sectorielle : Rester informé des tendances et évolutions liées à la Data et à l’Intelligence Artificielle afin d’enrichir les contenus et d’ajuster la stratégie. Refonte de la newsletter interne : Imaginer, concevoir et piloter une refonte complète de la newsletter trimestrielle. Supports de communication à gérer : Le concepteur/rédacteur sera chargé de créer et d’administrer les contenus pour les supports suivants : Newsletter trimestrielle (tous les 3 mois) Newsletters thématiques (tous les 6 mois) Podcasts (tous les 2 mois) Datalks (tous les 2 mois) Portraits mensuels Forum Data & IA (événement annuel) Livre blanc (publication annuelle) Autres supports à développer en fonction des besoins du Pôle Data & IA
Offre d'emploi
Lead Data Engineer Dataiku & Python
OBJECTWARE
Publiée le
Dataiku
Python
3 ans
40k-79k €
400-550 €
Île-de-France, France
Prestations demandées RESPONSABILITES - Conception et implémentation des pipelines de données : • Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). • Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. • Travailler avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. - Industrialisation et automatisation des flux de données et des traitements : • Mettre en place des processus d’industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. • Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. • Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l’exploration à la production, en intégrant les modèles dans des pipelines automatisés. - Gestion des données et optimisation des performances : • Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d’architecture de stockage (raw, refined, trusted layers). • Assurer une surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l’intégrité des jeux de données. - Sécurité et gouvernance des données : • Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. • Travailler en collaboration avec le Data Office pour assurer l’alignement avec les politiques et processus définis. • Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées. COMPETENCES - Expérience confirmée en ingénierie des données : Solide expérience dans la conception, la mise en œuvre et l’optimisation de pipelines de données. - Maîtrise des technologies de traitement de données : Expertise dans l’utilisation d’outils et technologies tels que ELT, Spark, SQL, Python, Dataiku, et la gestion de data warehouses et data hubs. - Compétence en sécurité et gouvernance des données : Connaissance des enjeux de sécurité, de conformité réglementaire (GDPR), et de gouvernance des données, avec une capacité à implémenter des solutions adéquates. - Compétences en automatisation et industrialisation : Capacité à automatiser et industrialiser les flux de données et les traitements afférents, en assurant la transition fluide des projets data science vers la production. - Maîtrise de l’anglais : La maîtrise de l’anglais est indispensable pour interagir avec des parties prenantes
Mission freelance
Lead Automation & DevOps Infrastructure – Spécialisation Agentic AI & LLM
Deodis
Publiée le
Argo CD
AWS Cloud
Azure
1 an
450 €
Île-de-France, France
Nous recherchons un profil Lead Automation / DevOps Infrastructure disposant d’une solide expérience (>6 ans) dans la conception, l’industrialisation et l’automatisation d’environnements d’infrastructure modernes en production ou en laboratoire R&D. Le candidat doit maîtriser à un haut niveau les environnements Linux/Unix, les pipelines CI/CD, les déploiements Kubernetes, l’IaC (Terraform) et les pratiques DevSecOps dans des environnements soumis à des contraintes de sécurité et de conformité. Ce rôle requiert également une forte capacité à travailler en interface avec des équipes d’ingénierie IA / data pour intégrer, expérimenter et déployer des POC innovants autour d’agents autonomes et de modèles LLM appliqués à la supervision, à l’automatisation et à l’aide opérationnelle à la production. Une appétence pour les technologies émergentes (Agentic AI, LLMs, orchestrateurs, frameworks Python) est indispensable, même si l’expertise IA peut être renforcée sur place. Le profil idéal possède une culture DevOps + Cloud + Infra + Automatisation , complétée par des compétences d’ingénierie logicielle lui permettant de documenter, sécuriser, orchestrer et transmettre les spécifications d’industrialisation à des équipes produit. L’environnement étant international et pluridisciplinaire, une excellente communication en anglais est nécessaire, ainsi qu’une capacité à collaborer dans un contexte agile.
Mission freelance
Ingénieur Sécurité Akamai
SKILLWISE
Publiée le
Akamai Kona Site Defender
AWS Cloud
CI/CD
9 mois
Boulogne-Billancourt, Île-de-France
Au sein de l’équipe Sécurité de notre Client, vous intervenez sur la sécurisation du SI au quotidien et sur des projets structurants (cloud, workloads, CI/CD, diffusion media). Vous contribuez directement à l’amélioration du niveau de sécurité global, en vous appuyant sur un plan de remédiation défini et enrichi en continu. Vos principales missions : RUN Sécurité : Assurer le suivi et la gestion de la sécurité du SI au quotidien (suivi des alarmes, métriques de sécurité, gestion des événements). Répondre aux incidents de sécurité et contribuer à leur analyse et à leur résolution. Sécurité Vidéo : Piloter et suivre des projets de sécurisation de la diffusion vidéo (DRM, URL signing, green header, etc.). Participer à la sécurisation de la chaîne de streaming et des parcours de diffusion. Suivi de projets sécurité : Gérer des projets de mise en place d’outils de sécurité (SIEM, SSO, CNAPP, Workload Protection, etc.). Mener les projets de bout en bout : état de l’art, choix de solution, PoC, configuration, intégration, mise en production. Audits : Auditer régulièrement les produits afin d’alimenter et de prioriser un plan de remédiation global. Réaliser les audits techniques ou piloter des audits en cas de sous-traitance. Amélioration continue : Mettre en œuvre les actions du plan de remédiation (refactor on-premise, amélioration du filtrage réseau, compliance AWS, sécurisation CI/CD, sécurisation diffusion vidéo, etc.). Livrables attendus : Amélioration mesurable de la sécurité du SI via l’exécution et l’enrichissement du plan de remédiation. Déploiement et mise en production d’outils de sécurité (SIEM/SSO/CNAPP/Workload Protection…). Mise en œuvre de dispositifs de sécurisation de la diffusion vidéo (DRM, URL signing, etc.). Réalisation/pilotage d’audits et production des plans d’actions associés.
Mission freelance
Ingénieur Plateformes Kubernetes / OpenShift
Deodis
Publiée le
Docker
Kubernetes
Openshift
1 an
350-500 €
Annecy, Auvergne-Rhône-Alpes
(Merci de ne pas répondre si vous n'avez pas ces compétences !) Les taches de l’équipe sont les suivantes : · Suivi des architectures proposées par le pôle du client pour s’assurer qu’elles respectent le cahier des charges BPCR et les exigences du client final · Participation aux réunions d’adoption de nouvelles offres avec les mêmes responsabilités que le point précédent. · Participation aux upgrades des plateformes et exercices PSI (HNO). · Gestion capacitaire des plateformes. · Participation à la gestion des incidents sur les plateformes. · Support aux AppOps et aux utilisateurs sur l’utilisation des plateformes et des services proposés par l’équipe. · Création et MCO des images docker de référence utilisées sur les plateformes (Debian, alpine, Ubuntu). Un certain nombre d’images middleware (php, apache, JRE, python, Terradata) sont fournies s’intégrant directement à l’écosystème du client · Développement interne en python (script ou API) permettant de gérer les plateformes, fournir des dashboards, exposer des métriques, afficher le respect des règles de déploiement et configuration. (Technologies : FastApi, Gitlab, Gitlab-ci, python, Hugo, Gitlab Pages) · Création de dashboards Grafana pour suivre la plateforme et apporter de la visibilité aux utilisateurs finaux.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5670 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois