L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 779 résultats.
Offre d'emploi
Consultant Expert Power BI (Gouvernance & Administration)
Publiée le
Microsoft Power BI
ServiceNow
3 ans
Île-de-France, France
Télétravail partiel
Consultant Expert Power BI (Gouvernance & Administration) Contexte L’équipe Data & Intégration pilote l’ensemble des projets liés à la data, à l’analyse et aux intégrations applicatives, en lien étroit avec les équipes opérationnelles, les fonctions support et la DSI. Elle contribue à améliorer les processus, méthodes et outils avec des objectifs de simplification, standardisation, efficacité et transparence . Dans ce cadre, l’équipe assure l’administration d’un nœud Power BI Premium comprenant un nombre important de workspaces aux usages variés. Aujourd’hui, il n’existe pas de vision globale permettant d’évaluer la qualité des développements, les performances des rapports ou la consommation des ressources du nœud. Objectifs de la mission La mission vise à professionnaliser, sécuriser et standardiser l’administration du nœud Power BI Premium selon les bonnes pratiques ITIL, tout en anticipant les impacts d’une éventuelle migration vers Fabric. Le consultant aura pour responsabilités de : 1. Cartographie et analyse des environnements Recenser et documenter tous les workspaces du nœud Premium. Collecter les informations clés : propriétaires, usages, criticité, volumétrie, typologie des rapports, etc. 2. Mise sous contrôle des déploiements Structurer les processus de mise en production. Définir et outiller des Change Standard dans ServiceNow. Produire les guides, procédures et bonnes pratiques nécessaires. S’assurer de la conformité des déploiements effectués par toutes les équipes. 3. Gouvernance et sécurité Proposer un modèle de gestion des accès et rôles, commun à l’ensemble des équipes. Standardiser la gestion des demandes, droits d’accès, responsabilités et supervision. Garantir l’administrabilité de tous les workspaces, quel que soit leur propriétaire. 4. Audit, performance et optimisation Réaliser un audit global des usages, de la performance et de la consommation du nœud Premium. Identifier des quick wins immédiatement activables. Formuler des recommandations structurelles pour une amélioration durable. Profil recherché Expertise confirmée en administration Power BI, gouvernance BI et gestion de plateformes Premium. Solide expérience des bonnes pratiques ITIL et des processus de gestion des changements. Compétences en audit, optimisation de performances et structuration de modèles de gouvernance. Compréhension des enjeux liés à la sécurité, aux accès et à la standardisation des environnements BI.
Mission freelance
Administrateur Kafka
Publiée le
Apache Kafka
Automatisation
IAC
3 ans
Toulouse, Occitanie
Télétravail partiel
L’administrateur Kafka est responsable de l’installation, de la configuration et de l’exploitation des clusters Kafka. Il assure la supervision, la performance et la disponibilité de la plateforme, tout en garantissant sa sécurité via TLS, ACL et bonnes pratiques d’accès. Il gère le cycle de vie des topics, des partitions et des données, optimise les flux et automatise les opérations via des outils IaC. Il accompagne les équipes applicatives, résout les incidents liés aux producers/consumers et contribue à l’amélioration continue de l’écosystème Kafka (Connect, Schema Registry, monitoring).
Mission freelance
Développeur AWS Data et spark
Publiée le
API
AWS Cloud
AWS Glue
1 an
540-580 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un programme stratégique de pilotage financier, nous recherchons un Ingénieur Logiciel Data Cloud AWS confirmé (+7 ans d’expérience) pour rejoindre une équipe de développement et d’ingénierie orientée données et services cloud. Vous interviendrez sur la conception, l’implémentation et l’amélioration continue des services AWS nécessaires au traitement, à l’analyse et à la planification financière. Le contexte est exigeant : réglementaire, sécurité, performance, optimisation des coûts et démarche DevOps/DORA. Vous intégrerez une équipe de 9 personnes, dont un pôle cloud/data AWS déjà en place. Vos missions : Concevoir, développer et faire évoluer les services applicatifs AWS (Glue Spark, Lambda, Step Functions, Athena, S3, IAM). Intégrer les services aux différents écosystèmes techniques (plateforme Data, MDM, ZDP, Data Link, Anaplan). Proposer des optimisations, améliorer les architectures existantes, renforcer la robustesse et la performance. Prendre en compte les exigences métiers, réglementaires, sécuritaires et environnementales. Participer à une démarche d’amélioration continue (Lean, DevOps, DORA). Documenter les architectures, formaliser les conceptions, assurer un bon niveau de qualité. Implémenter les bonnes pratiques TDD / BDD. Collaborer en équipe dans un environnement cloud industriel avancé.
Mission freelance
[SCH] Data Engineer Spark / Scala - 1047
Publiée le
10 mois
350-390 €
Paris, France
Télétravail partiel
Au sein de la DSI Finance, vous interviendrez en tant que Data Engineer Spark / Scala confirmé sur le projet d’intégration du Datalake Finance, adossé à la distribution Hadoop HortonWorks. Ce datalake centralise les données issues des systèmes comptables et de synthèse afin de répondre aux besoins de reporting Finances & Risques (COREP, RWA, IFRS9, etc.). Missions principales : -Participer au développement et à l’intégration de nouvelles sources de données au sein du Datalake Finance. -Assembler et distribuer les données aux consommateurs métiers tout en garantissant la pérennité et la performance des pipelines existants. -Contribuer à la conception technique, l’implémentation et les tests des flux sous Spark / Scala. -Veiller à la non-régression et à la qualité du code dans le cadre des évolutions du socle. -Travailler en méthodologie Agile (Scrum / Kanban) avec les équipes métiers, data et maintenance. -Participer à la documentation technique et aux revues de code. Profil recherché : -5 à 6 ans d’expérience en environnement Big Data / Datalake. -Solide maîtrise de Spark / Scala et des paradigmes de programmation fonctionnelle (ZIO, Monix, Cats appréciés). -Connaissance des écosystèmes Hadoop, Hive, Kafka, HBase, Kerberos. -Expérience dans un cadre Agile (Scrum / Kanban) et outils associés (Jira, Confluence). -Esprit analytique, autonomie, rigueur et bon relationnel.
Mission freelance
Data BI Analyst (Power BI / GCP / ServiceNow) - Anglophone - 92 - Janvier
Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI
1 an
450-500 €
Nanterre, Île-de-France
Télétravail partiel
🚀 Data BI Analyst (Power BI / GCP / ServiceNow) - Anglophone - 92 🚀 𝗗𝗲́𝗺𝗮𝗿𝗿𝗮𝗴𝗲 𝗝𝗮𝗻𝘃𝗶𝗲𝗿 - 𝗧𝗲𝗺𝗽𝘀 𝗽𝗹𝗲𝗶𝗻 - 𝟯 𝗮𝗻𝘀 𝗱𝗲 𝗺𝗶𝘀𝘀𝗶𝗼𝗻 𝟵𝟮 - 𝟯 𝗷𝗼𝘂𝗿𝘀 𝘀𝘂𝗿 𝘀𝗶𝘁𝗲 𝗽𝗮𝗿 𝘀𝗲𝗺𝗮𝗶𝗻𝗲 Je recherche un BI Analyst pour rejoindre un grand programme de transformation au sein d’un groupe international. Objectif : transformer des datasets complexes en dashboards Power BI “pixel-perfect”, clairs, esthétiques et actionnables pour le pilotage projet & programme. 🔧 Environnement : Power BI • GCP • BigQuery • ServiceNow (ITBM/SPM) 🎯 𝗥𝗲𝘀𝗽𝗼𝗻𝘀𝗮𝗯𝗶𝗹𝗶𝘁𝗲́𝘀 Concevoir des dashboards Power BI avancés (UX, storytelling, interactions) Interroger & analyser les données dans BigQuery Exploiter en profondeur les données ServiceNow (must-have) Collaborer avec le Data Engineer & le Business Analyst Garantir une qualité de données irréprochable #Freelance #DataAnalyst #PowerBI #GCP #BigQuery #ServiceNow #BI
Offre d'emploi
Ingénieur Big Data / Bases de Données
Publiée le
AWS Cloud
BigQuery
Cassandra
40k-54k €
Paris, France
Télétravail partiel
Redlab cherche pour le compte d'un client grand compte , un ingénieur big Data /bases de données Expert des architectures data : bases de données SQL & NoSQL, Big Data, pipelines, gouvernance, performance, sécurité. Missions clés Administrer et optimiser bases SQL & NoSQL. Concevoir pipelines ETL/ELT sur données hétérogènes. Travailler sur Hadoop, Spark, Hive, Delta Lake. Mettre en place partitionnement, Mettre en place sharding, caches. Déployer en cloud (AWS/Azure/GCP). Forte maitrise des Bases de données
Offre d'emploi
Développeur Alteryx / Power BI – Secteur Bancaire (H/F)
Publiée le
Alteryx
Microsoft Power BI
10 jours
Île-de-France, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Dans le cadre du renforcement du Centre d’Expertise Alteryx / Power BI au sein de la Direction Finance Groupe , nous recherchons un Développeur Alteryx / Power BI pour intervenir sur des projets à forte valeur ajoutée.
Mission freelance
Data Integration Specialist H/F
Publiée le
Apache Kafka
API REST
Apigee
6 mois
500-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Integration Specialist pour rejoindre un grand groupe international du secteur Luxe & Cosmétique dans le cadre d’une mission stratégique visant à moderniser et optimiser ses flux d’intégration de données. Le consultant interviendra au sein d’équipes IT et métier exigeantes, dans un environnement fortement orienté qualité, performance et continuité de service. Localisation : Aulnay-sous-Bois Télétravail : 2 à 3 jours par semaine Démarrage : Janvier 2026 Durée : 6 mois renouvelables Description du poste Le Data Integration Specialist sera en charge de concevoir, développer et maintenir les flux d’intégration entre les différentes applications du groupe (SAP, Salesforce, plateformes internes, outils Data, etc.), en environnement temps réel et batch. Les principales responsabilités incluent : Concevoir, implémenter et optimiser des flux d’intégration basés sur APIs, événements et web services. Comprendre et analyser les besoins des équipes métier, puis les traduire en solutions techniques robustes. Développer et maintenir les modèles de données, mappings, schémas d’intégration et documentation associée. Superviser et exécuter les tests fonctionnels, techniques, de performance et de charge. Assurer le support de niveau avancé sur les flux existants, diagnostiquer les incidents et garantir leur résolution. Participer à l’amélioration continue des standards techniques, des pratiques d’intégration et des outils.
Mission freelance
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)
Publiée le
Apache
Apache NiFi
Apache Spark
12 mois
400-650 €
Paris, France
Télétravail partiel
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Mission freelance
Formateur Power BI sur site 2 jours en décembre
Publiée le
Formation
Microsoft Power BI
2 jours
Clermont-Ferrand, Auvergne-Rhône-Alpes
Public cible Utilisateurs métiers / débutants Power BI Aucun ou très faible niveau préalable requis Objectifs de la formation À l’issue des 2 journées, les participants devront être capables de : Comprendre les fondamentaux de Power BI Importer des données depuis différentes sources Nettoyer et transformer des données simples Créer des visualisations pertinentes Construire un premier tableau de bord fonctionnel Publier et partager des rapports Contenu indicatif Jour 1 : Introduction & prise en main Présentation de Power BI et de son écosystème Connexion aux sources de données Introduction à Power Query Nettoyage et préparation simple des données Premiers visuels (tableaux, graphiques, filtres) Jour 2 : Analyse & restitution Introduction aux notions de modélisation Création de mesures simples (DAX de base) Construction de tableaux de bord Bonnes pratiques de visualisation Publication et partage des rapports Profil recherché Formateur Power BI expérimenté Capacité à vulgariser des concepts techniques Très bon sens de la pédagogie Expérience avec des publics débutants Autonomie dans l’animation des formations Français courant requis Livrables attendus Support de formation Fichiers d’exercices Exemples de tableaux de bord Feuille d’émargement (si nécessaire)
Offre d'emploi
Lead Data Engineer / Data Engineer senior H/F
Publiée le
Ansible
Apache Airflow
Apache Kafka
6 mois
65k-80k €
650-760 €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons pour le compte de notre client un Lead Data Engineer / Data Engineer Senior H/F pour une mission en freelance ou portage salarial de 6 mois renouvelable à pourvoir dès que possible dans le département 92 (Ile-de-France). Un début de mission en janvier 2026 peut-être envisageable. Notre client propose 2 jours de télétravail maximum par semaine. Responsabilités principales : Mise en place de standards de développement et bonnes pratiques Expertise en performance, fiabilité et scalabilité Participation à la communauté des Tech Leads avec les différentes Lines of Business de notre client Développement de flux d’ingestion
Mission freelance
POT8787 - Un Lead Développeur Power BI expérimenté sur Saint-Denis
Publiée le
Microsoft Power BI
6 mois
Saint-Denis, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses client, Un Lead Développeur Power BI expérimenté sur Saint-Denis. Compétences techniques indispensables : • Expertise Power BI (Desktop & Service) • Maîtrise du DAX et de la modélisation de données (modèles en étoile, relations) • Connaissances avancées en SQL et bases de données • Maîtrise de la Power Platform : PowerApps, Power Automate, DataVerse, DataFlow, MS365 • Connaissance des normes de sécurité et gouvernance (RLS, gestion des accès) • Expérience en développement web et intégration agile • Veille technologique et optimisation des performances Power BI Compétences fonctionnelles et soft skills : • Aisance relationnelle et esprit d’équipe • Capacité à mentorer et former des développeurs juniors • Autonomie, rigueur, sens de l’analyse et esprit de synthèse • Capacité à gérer des projets multiples et à respecter les priorités et délais • Discrétion et respect de la confidentialité des données Missions principales • Accompagner et former les développeurs BI / Data Analysts • Recueillir les besoins utilisateurs, analyser la faisabilité et rédiger des spécifications • Concevoir, développer, déployer et maintenir des rapports et dashboards Power BI • Modéliser, transformer et enrichir les données via Power Query • Assurer la qualité et cohérence des données, tests DAX, optimisation des performances • Respecter les standards Microsoft, normes de sécurité et gouvernance • Documenter techniquement les modèles et indicateurs • Participer à la veille technologique et au support utilisateur
Offre d'emploi
Administrateur Hadoop Infra– MCO & Exploitation (H/F)
Publiée le
Google Cloud Platform (GCP)
Hadoop
HDFS (Hadoop Distributed File System)
6 mois
40k-45k €
400-550 €
Hauts-de-Seine, France
Télétravail partiel
Contexte Au sein de l’équipe Data, vous aurez la responsabilité d’assurer le bon fonctionnement, la fiabilité et la performance de l’écosystème Big Data de l’entreprise. Vous interviendrez sur un environnement Hadoop hybride, incluant des briques Cloud (GCP) et des services de Kubernetes-as-a-Service (KaaS). Missions principales Exploitation & MCO de la plateforme Big Data - Assurer la maintenance en conditions opérationnelles (MCO) de l’écosystème Hadoop. - Garantir la disponibilité, la performance et la sécurité des clusters. - Suivre l’état de santé des composants (HDFS, Yarn, Hive, Spark, Oozie, etc.). - Contribuer à la fiabilisation du socle technique et à la réduction des points de fragilité. Gestion des incidents et support de niveau 2/3 - Prendre en charge les incidents, réaliser les analyses, identifier les causes racines (RCA) et proposer des plans d’actions correctifs. - Assurer le suivi jusqu’à résolution complète. - Rédiger et maintenir la documentation technique associée. Amélioration continue & automatisation - Contribuer aux améliorations continues de la plateforme : performance, architecture, déploiements. - Mettre en place ou optimiser des scripts d’automatisation (Python, Shell, Ansible…). - Participer aux évolutions de l’écosystème et aux projets de transformation Big Data. Environnement Cloud (GCP) - Participer à l’exploitation et à l’évolution des services GCP liés au Big Data (BigQuery, Dataproc, Cloud Storage…). - Contribuer aux migrations, intégrations ou interconnexions entre Hadoop et GCP. - Assurer le monitoring, la gouvernance et l’optimisation des coûts dans GCP. Gestion et exploitation des plateformes KaaS - Administrer et exploiter les environnements Kubernetes-as-a-Service (GKE, Anthos, ou équivalent interne). - Déployer et maintenir les services Data ou applicatifs tournant sur KaaS. - Surveiller les clusters, gérer les ressources, les namespaces et la montée en charge. - Contribuer à la sécurisation et à la standardisation des déploiements. Collaboration & communication - Travailler en étroite collaboration avec les équipes Data Engineering, DevOps, Infrastructure et Sécurité. - Contribuer à garantir un niveau de service optimal pour les équipes métiers et projets. - Participer aux rituels opérationnels (briefs, comités, revues techniques…). Profil recherché Compétences techniques - Maîtrise de l’écosystème Hadoop. - Connaissance opérationnelle de GCP. - Expérience en Kubernetes / KaaS. - Compétences en automatisation (Python, Shell, Ansible…). - Connaissances en monitoring (Grafana, Prometheus, ELK…). - Compréhension des enjeux de sécurité et de gouvernance des données. Soft skills - Capacité d’analyse et résolution de problèmes complexes. - Bonne communication et esprit d’équipe. - Rigueur, sens du service et autonomie. - Proactivité dans l’amélioration continue.
Mission freelance
Consultant IDR – Data Replication & Kafka (H/F)
Publiée le
Apache Kafka
5 jours
France
Télétravail 100%
Nous recherchons un consultant senior pour accompagner l’évolution d’un modèle de réplication de données vers une architecture Publish & Subscribe dans un environnement IBM. Missions principales : Analyser l’architecture de réplication existante. Configurer et optimiser CDCRE for Kafka . Paramétrer les User Exit et propriétés Kafka. Assurer la publication au format key/value. Stabiliser la chaîne de réplication et documenter les bonnes pratiques. Conseiller sur les évolutions cibles et les modèles de réplication adaptés.
Mission freelance
Data Architecte H/F
Publiée le
Apache Airflow
Apache Spark
BigQuery
210 jours
510-770 €
Paris, France
Télétravail partiel
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps
Mission freelance
Architecte Technique Solution Data
Publiée le
Big Data
Cloudera
3 mois
400-690 €
Île-de-France, France
La Tribu DATA (DAT) construit et développe des applications sur la base de puissantes plates-formes DATA à des fins d’usages variés servant toutes les directions métiers de la banque. Pour répondre à ces usages, DAT est au cœur de la stratégie datacentric de LCL, et intervient aussi bien au niveau de l’architecture Data, sur les technologies data, Big data, IA, Teradata, SAS, ainsi que sur les solutions analytiques et de datavizualisation. Plus particulièrement dans le cadre de la squad Socles Data, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....). LCL SNI TPI PSP 19/09/2025 Page 1 Les solutions doivent être mises en place dans une optique de service performant et évolutif pour nos métiers et utilisateurs divers, prenant en compte l’écosystème informatique LCL actuel ainsi que la stratégie de modernisation future. Le profil recherché doit avoir une connaissance forte des solutions Data de l’écosystème LCL, ainsi qu’une expérience très significative en qualité d’architecte technique Data. Il doit également avoir quelques notions des nouvelles technologies présentées dans le cadre de la stratégie de modernisation de nos plates-formes et être capable de monter rapidement en compétences dessus. Description complémentaire du profil Softskills: Sens du service. Bonne gestion du stress et des priorisations Très bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie (
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2779 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois