Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks
Votre recherche renvoie 106 résultats.
Mission freelance
Chef de projet BI
Comet
Publiée le
Data Warehouse
Databricks
DAX
3 mois
400-610 €
Île-de-France, France
Contrainte forte du projet : Connaissance Power BI, MOA, modélisation datawarehouse Compétences techniques : Modélisation datawarehouse - Expert - Impératif Power BI - Expert - Impératif Gestion de projet - Expert - Impératif MOA - Expert - Impératif Connaissances linguistiques : Français Courant (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée : Dans le cadre de la modernisation de notre stack décisionnelle, nous lançons un projet d'envergure visant à migrer l'ensemble de notre écosystème SAP BusinessObjects vers Microsoft Power BI. Nous recherchons un(e) Chef de Projet capable de piloter cette transition stratégique, de la phase de cadrage jusqu'à l'adoption finale par les métiers. Les missions : Cadrage : Inventorier l'existant (Univers, rapports WebI), identifier les rapports critiques à migrer, ceux à supprimer et ceux à optimiser. Pilotage de la Migration : Définir le planning, gérer le budget, coordonner les ressources techniques (Analytics Engineers, développeur Power BI) et assurer le suivi des jalons. Conception de la Cible : Superviser la modélisation des nouveaux jeux de données (Datawarehouse, Datasets) et la création des dashboards sur Power BI Service. Gouvernance : Mettre en place les bonnes pratiques de développement, de sécurité et d'administration de la plateforme Power BI. Accompagnement au Changement : Animer les ateliers avec les utilisateurs métiers, rédiger les documentations et assurer la formation des utilisateurs. Profil recherché : Une forte expertise sur la BI est impératif ( modélisation d'un datawarehouse, méthode d'historisation, exploration de la donnée) Maîtrise des langages SQL et DAX est indispensable. Maitrise de databriks ou d'un outil équivalent (SQL Server, Snowflake). Connaissance BO et du développement de rapport. Maitrise du cycle en V et de la méthode Scrum. Pédagogie, esprit d'analyse, et capacité à traduire des besoins métiers complexes en solutions techniques simples sont attendus pour ce poste. Définition du profil : Il définit, met en oeuvre et conduit un projet BI dans le but d'obtenir un résultat optimal et conforme aux exigences métiers formulées et validées par ou pour le commanditaire en ce qui concerne la qualité, les performances, le coût, le délai et la sécurité.
Offre d'emploi
Data Engineer Azure & Databricks (H/F)
CITECH
Publiée le
Data Lake
Databricks
PySpark
12 mois
80k-90k €
550-650 €
Fos-sur-Mer, Provence-Alpes-Côte d'Azur
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Architect Azure & Databricks (H/F). 🏭 Entreprise reconnue dans le secteur de la sidérurgie, implantée dans de nombreuses villes en France, notre client est le plus important producteur d'acier au monde, et a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. Description du poste 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Configurer, structurer et mettre en œuvre l’environnement Azure Data Lake et Databricks afin de répondre aux besoins d’ingestion et de traitement des données. 🔸 Créer des pipelines d’ingestion robustes sous Apache NiFi , intégrant des sources industrielles variées et respectant les contraintes techniques de performance, de mémoire et de réseau. 🔸 Mettre en place et maintenir un Unity Catalog garantissant la gouvernance, la traçabilité et le Data self-service . 🔸 Veiller à la stabilité de l’environnement , à la qualité du code, à la performance des traitements et à la complétude de la documentation technique. 🔸 Promouvoir la solution auprès des utilisateurs, rédiger la documentation associée et contribuer activement au partage de connaissances au sein de l’équipe Data.
Offre d'emploi
Data Engineer Senior – Plateforme Data Cloud
VISIAN
Publiée le
AWS Cloud
Databricks
PySpark
3 ans
40k-50k €
500-540 €
Lyon, Auvergne-Rhône-Alpes
Data Engineer Senior – Plateforme Data Cloud (H/F) Lyon – Mission longue durée – Temps plein Nous recherchons un Data Engineer senior pour intervenir sur une plateforme data stratégique au sein d’un grand environnement industriel en transformation. La mission s’inscrit dans une équipe dédiée à l’industrialisation et à la performance des pipelines data, sur une architecture cloud moderne à forte volumétrie. Missions • Concevoir et optimiser des pipelines d’ingestion et de transformation de données • Garantir la performance, la fiabilité et la scalabilité de la plateforme • Mettre en place des mécanismes de contrôle qualité des données • Automatiser et superviser les traitements data • Participer à la gouvernance et au cycle de vie de la donnée • Contribuer à l’optimisation des infrastructures cloud • Supporter les utilisateurs de la plateforme • Participer à la veille technologique Environnement technique Databricks sur AWS PySpark, Python, SQL avancé Architecture Data Lake et pipelines industriels Outils DevOps / DataOps (Git, CI/CD, ticketing) Méthodologie Agile à l’échelle (SAFe) Profil recherché Minimum 5 ans d’expérience en data engineering Expertise Databricks, AWS et PySpark Expérience en industrialisation de pipelines data Rigueur technique et autonomie Bon esprit d’équipe Anglais professionnel Connaissance du secteur industriel ou énergie appréciée. Conditions Mission longue durée avec visibilité Projet à fort impact Équipe technique experte Environnement cloud avancé
Mission freelance
Data Analyst
CAT-AMANIA
Publiée le
Databricks
Google Sheets
Looker Studio
1 an
100-550 €
Lille, Hauts-de-France
Vous serez le garant de la qualité et de la cohérence des données pour nos tableaux de bord et audits. Analyse & Modélisation : Concevoir des modèles de données (fichiers plats/CSV) à partir de sources variées et définir les règles de transformation et d'agrégation. Reporting & Visualisation : Alimenter et optimiser les tableaux de bord sous Google / Looker Studio pour assurer un pilotage efficace. Consolidation Internationale : Collecter, vérifier et uniformiser les données de formation issues de différents pays (gestion des UUID, formatage CSV standardisé). Qualité & Documentation : Mettre en place des contrôles qualité rigoureux (audit, nettoyage), documenter les processus de transformation et maintenir le référentiel des règles de gestion. Approche Analytique : Traduire les problématiques business en questions analytiques claires et proposer des recommandations actionnables.
Mission freelance
Architecte DATA - Paris
SKILL EXPERT
Publiée le
Azure
Big Data
CI/CD
1 an
520-540 €
Paris, France
Mission : Analyser les besoins et usages en données des différents métiers de l’entreprise. Recommander des solutions de stockage et gestion de Big Data. Contribuer à la conception de l’architecture de la plateforme, Contribuer à l’observabilité de la plateforme, Implémenter la plateforme et les outillages associés, Assurer le maintien en condition opérationnelle de la plateforme, Assurer la sécurité des accès et de la plateforme, Mettre en place une stratégie de monitoring des coûts et d'optimisation des ressources Azure
Mission freelance
Data Engineer/DataOps - Maintenance prédictive - Python/Spark
Nicholson SAS
Publiée le
Ansible
Apache Airflow
Apache Spark
9 mois
300 €
Toulouse, Occitanie
Bonjour, Dans le cadre de ce besoin, nous recherchons un Data Engineer / DataOps – Maintenance prédictive (Python / Spark) pour intervenir sur un environnement technique exigeant et à forte valeur ajoutée. 📍 Informations clés Localisation : Toulouse (3 jours/semaine sur site) TJM max : 300 € Démarrage : 01/04/2026 Fin de mission : 31/12/2026 🚀 Contexte & mission Vous interviendrez au sein d’une équipe en charge d’un service de maintenance prédictive , dans un environnement hybride combinant : On-premise : Python, Airflow, Docker, GitHub CI/CD Cloud Azure : Databricks, PySpark, Azure Data Factory Service Platform : application web dédiée aux compagnies aériennes Dans ce cadre, vos principales responsabilités seront : Assurer le MCO des environnements (développement & production) Superviser et monitorer les environnements Databricks / Spark Concevoir, industrialiser et maintenir des pipelines de données en production Accompagner le déploiement d’algorithmes de maintenance prédictive (optimisation performance & coûts) Améliorer les processus d’ intégration, de versioning et de déploiement au sein de la Service Platform 🛠️ Environnement technique Langages & Data : Python, SQL, Pandas, Spark Cloud & Data : Azure (Databricks, Data Factory) Orchestration & pipelines : Airflow CI/CD & DevOps : GitHub, Docker, Terraform, Ansible Systèmes : Linux (RHEL / Ubuntu) Bonnes pratiques : PEP, industrialisation, monitoring 🎯 Profil recherché Data Engineer / DataOps avec minimum 3 ans d’expérience Solide expérience sur les environnements Python / Spark / Azure Capacité à évoluer sur des environnements production critiques (MCO, monitoring, performance) Bonne culture DevOps / CI-CD / automatisation Anglais professionnel requis
Mission freelance
Collibra Senior Support & Configuration
Nicholson SAS
Publiée le
AWS Cloud
Collibra
Databricks
3 mois
550 €
Nantes, Pays de la Loire
Missions : Assurer le support technique de niveau 3, la configuration et l'administration de la plateforme Collibra. Le rôle couvre la gestion des métamodèles, la conception et l'optimisation des flux de travail, l'intégration avec les systèmes internes ainsi que l'accompagnement des entités dans leur intégration et leur adoption de la plateforme. Administration avancée de la plateforme : Gérez les utilisateurs, les rôles, les groupes, les autorisations et les domaines. Maintenir et faire évoluer le métamodèle. Surveillez les performances de la plateforme. Diagnostiquer et résoudre les incidents complexes (support niveau 3). Assurer le suivi technique auprès de l'éditeur si nécessaire. Intégration et automatisation : Intégrez Collibra aux systèmes internes. Configurer et maintenir les connecteurs. Tirer parti des API REST de Collibrapour automatiser les processus. Développer des scripts Python pour automatiser l’ingestion et la mise à jour des métadonnées. Configurer et maintenir les flux de travail. Mettre en œuvre des mécanismes d'automatisation et d'optimisation continue (Exemple : automatiser le chargement des données Collibra Insights sur CDH). Accompagnement des entités : Assurer le support fonctionnel et technique N3 via JIRA . Adapter les aménagements et le modèle opérationnel . Création de tableaux de bord personnalisés (avec HTML) . Diriger des sessions d'intégration, des démos et des formations ciblées . Accompagner les entités dans leur onboarding . Être le référent technique Collibra pour les entités et les équipes Data Gouvernance
Mission freelance
Analytics Engineer – Migration DataBoost (SAP BO → Power BI)
SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks
3 mois
230-680 €
Paris, France
Dans le cadre du projet DataBoost , nous recherchons un Analytics Engineer pour participer à la migration des rapports SAP Business Objects vers Power BI . Ce projet vise à décommissionner SAP BO en industrialisant l’intégration des données dans une architecture lakehouse moderne (Bronze → Silver → Gold), et à construire un référentiel analytics centralisé pour l’ensemble des datamarts. Vos missions consisteront à : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory (POC avec Airflow). Développer des pipelines d’intégration de données en PySpark (Spark Declarative Pipeline). Transformer et optimiser les flux de données en SQL avec le framework DBT . Développer de nouveaux indicateurs de qualité de données sur DBT. Garantir la qualité du code et le respect des normes de développement. Implémenter des tests unitaires pour assurer la fiabilité des solutions. Maintenir les outils de monitoring pour suivre les performances. Ce poste est idéal pour un professionnel souhaitant contribuer à une transformation majeure des outils BI et travailler sur une architecture data moderne .
Mission freelance
Analytics Engineer – Data & BI
SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks
3 mois
100-600 €
Paris, France
Nous recherchons un Analytics Engineer pour rejoindre une équipe dédiée à la centralisation et à la fiabilisation des données dans un environnement data-driven. Votre mission consistera à concevoir et maintenir des pipelines de données (Azure Data Factory, Databricks, Spark SQL) pour alimenter un datamart utilisé par les métiers via des outils self-BI (Power BI, BusinessObjects). Vos missions principales : Concevoir et développer des pipelines d’ingestion via Azure Data Factory , en assurant leur robustesse et leur évolutivité. Transformer et optimiser les données en utilisant Spark SQL (Databricks) pour répondre aux besoins métiers. Maintenir et améliorer les indicateurs de qualité des données , en garantissant leur cohérence et leur fiabilité. Implémenter des tests unitaires pour sécuriser les pipelines et assurer la stabilité des solutions. Collaborer avec les équipes techniques et métiers pour affiner les besoins et proposer des améliorations continues. Participer à la maintenance des outils de monitoring pour suivre les performances et la santé des applications. Ce poste est idéal pour un professionnel souhaitant impacter directement la stratégie data d’une organisation en pleine transformation digitale.
Mission freelance
Senior DataOps / DevOps AWS – Terraform
OAWJ CONSULTING
Publiée le
AWS Cloud
Databricks
Terraform
1 an
400-550 €
Lyon, Auvergne-Rhône-Alpes
Dans un environnement Media à forte volumétrie de données, le consultant interviendra au sein d’une équipe Data & Platform pour industrialiser, sécuriser et faire évoluer les plateformes data sur AWS . Le rôle est clairement senior , orienté DataOps / DevOps , avec une forte proximité Databricks. Responsabilités Conception et industrialisation des plateformes data sur AWS Mise en place et maintenance de l’infrastructure as code avec Terraform Déploiement, configuration et optimisation des environnements Databricks (AWS) Automatisation des pipelines Data & infra (CI/CD) Gestion des environnements (dev, preprod, prod) Sécurisation des accès, gestion des coûts et optimisation des performances Collaboration étroite avec les équipes Data Engineers et Analytics Compétences requises (impératives) Databricks sur AWS – expertise confirmée Terraform – niveau avancé AWS (IAM, VPC, S3, EC2, EKS ou équivalent) Solide culture DevOps / DataOps CI/CD (Git, pipelines automatisés) Bonne compréhension des architectures data cloud Profil recherché Senior DataOps / DevOps Autonome, structuré, orienté production À l’aise dans des environnements data complexes et critiques
Mission freelance
SENIOR DATA AND AI ENGINEER
CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake
1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Mission freelance
Data Scientist / ML Engineer (Credit Risk & GenAI)
Codezys
Publiée le
API
Azure
Data science
12 mois
Lille, Hauts-de-France
Dans le cadre de sa feuille de route en intelligence artificielle, ce client s'engage à développer et accélérer l’intégration des technologies de Machine Learning , Deep Learning , NLP (traitement du langage naturel) ainsi que des solutions d’IA Génératives . L’objectif est de maximiser l’exploitation des données, d’optimiser les processus opérationnels et d’améliorer l’expérience client. Objectifs et livrables Credit Risk Scoring Concevoir et optimiser, pour les équipes Risque et Validation, des modèles de scoring d’octroi et de comportement, en explorant des approches innovantes. Assurer la stabilité du coût du risque en entraînant et déployant ces solutions, tout en mettant en place un monitoring efficace de la dérive des modèles. Collaborer étroitement avec les experts métier et les équipes Risque pour garantir la pertinence et l’efficacité des solutions développées. Solutions d’Intelligence Artificielle Optimiser l’expérience client en intégrant en temps réel nos modèles d’IA via des API dans les parcours digitaux (ex. scoring en temps réel, personnalisation des offres de paiement, etc.). Participer à l’architecture technique pour une intégration fluide des modèles, en suivant les meilleures pratiques en matière de développement (notamment Cloud et MLOps). Collaborer avec les équipes Produit et IT afin d’industrialiser et déployer ces solutions à grande échelle. Intelligence Artificielle Générative (GenAI) Transformer les processus internes (Marketing, Audit, Risque, etc.) ainsi que la relation et le support client, en prototypant puis en déployant en production des solutions d’IA Générative sous forme d’agents (ex. LLM, RAG). Automatiser l’octroi de crédits, réaliser des analyses documentaires complexes et faciliter l’interaction avec la clientèle en mettant en place des architectures orientées agents. Évaluer, optimiser et suivre les performances des agents (cohérence, diversité, utilisation de LLM en tant que juge, etc.).
Mission freelance
Directeur de projet
SKILL EXPERT
Publiée le
Agile Scrum
Apache NiFi
Cloud
1 an
630-660 €
Saint-Denis, Île-de-France
Contexte de la prestation La division CAP de MATHIS SNCF Réseau participe aux grands chantiers de modernisation du réseau ferroviaire. Il consiste à automatiser l'ensemble des processus de surveillance, maintenance, ingénierie . L'objectif est de tirer parti des opportunités offertes par les nouvelles technologies dans la collecte et le traitement des données pour réduire au maximum l'impact sur les circulations. Au sein de ce programme et en lien avec la gouvernance de la donnée, un socle centralisé d’ingestion, de stockage, de traitement et de mise à disposition des données provenant des différentes sources, à destination des différents consommateurs du programme, a été construit. En 2025-2026-2027, ce socle va évoluer selon les axes suivants : •Rapatriement d’une partie des services techniques, à ce jour hébergé chez IT Novem, dans le SI géré par la DGNUM •Déploiement de la plateforme data basée sur l’outil Databricks et les nouvelles fonctionnalités de gestion de la donnée (sql endpoint, unity Catalog, deltasharing, …) •Déploiement des plateformes d’ingestion basée sur l’outil Apache Nifi et les nouvelles fonctionnalités sur AKS. •Intégration des applications d’espace d’analyse, selon la cible d’architecture et les points précédents dans une cible globale •Extension du puits acquisition SNCF RESEAU vers des usages département MATHIS et plus en fonction des besoins DGNUM.
Offre d'emploi
Chef projet/PO BI-Databricks-Azure Devops
AVALIANCE
Publiée le
Azure DevOps
BI
Cloud
2 ans
40k-73k €
400-560 €
Maurepas, Île-de-France
Nous recherchons pour notre client grand compte, leader dans le secteur de l'énergie un CP/PO avec une : - Expérience sur des projets de BI (connaissance de PowerBi a minima, Databricks serait un plus). - Capacité à faire des requêtes de contrôle sur une base de données pour en extraire des datasets dans le cadre des contrôles de recette ou pour des analyses diverses de suivi - Bonne connaissance de l'outil azureDevops (utilisé comme outil de suivi et de pilotage des US, Features, bug, burn down…) - Bonne connaissance des principes des architectures techniques "modernes" pour faciliter la compréhension avec les autres équipes (Cloud, CI/CD, IaC, Virtualisation, Kubernetes, docker…).
Mission freelance
Data Architect
Codezys
Publiée le
API
Azure
Azure Data Factory
12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Architect qui intégrera l'équipe stable dédiée à la Business Intelligence (BI) et à l'Analyse, avec un focus particulier sur le domaine Achats. Objectifs et livrables Ce que vous aurez à réaliser : En tant que Data Architect, vous veillerez à ce que les produits délivrés par votre équipe soient conformes à notre architecture cible globale. Pour soutenir cette fonction, nous cherchons un Data Architect spécialisé dans Azure, possédant une bonne compréhension des services disponibles dans la stack analytique Azure. Vous collaborerez avec le DPO, les Data Analysts, Data Engineers & Data Scientists de l'équipe, ainsi qu'avec la communauté d'architectes, afin de définir une architecture de qualité, apportant une valeur métier pertinente et assurant la maintenabilité à long terme. De plus, vous devrez faire preuve de compétences en leadership pour prendre en charge le rôle de lead technique et participer aux discussions avec les parties prenantes métier et l’architecture d’entreprise. Vous apportez un leadership technique, participez aux efforts de développement et représentez l’ensemble des capacités internes et externes de la plateforme. Vous êtes un membre actif de la guilde des architectes, chargé de superviser le processus de gestion des données et de fournir guidance et orientation aux équipes de développement. Vous êtes responsable de la conception et de la documentation des solutions dans votre domaine. Vous avez une expérience avec Databricks, ADLS Storage, SQL Database, Azure Data Factory (ADF) et Power BI. Vous avez l’expérience de la définition et de la gestion d’une architecture de données évolutive de bout en bout, en tenant compte de l’architecture d’entreprise et des normes du secteur. Vous maîtrisez le développement, la documentation et la maintenance de modèles de données logiques et physiques. Votre futur équipe Dans le cadre du domaine Achats, vous devrez relever de nombreux défis et aborder des sujets passionnants : Mettre en place des Data Products pour soutenir l’approche CAST (produits réutilisables partagés), conformément à notre stratégie. Contribuer à la définition de la feuille de route des initiatives BI & Analytics. Définir le Modèle de Données EDM et le mettre en œuvre en respectant les directives existantes. Participer à l’équipe de maintenance afin d’assurer la continuité des processus métier.
Mission freelance
Lead DATA Analyst (Expertise retail &Ventes)
Atlas Connect
Publiée le
Agile Scrum
Azure
Big Data
2 ans
540-580 €
Paris, France
Profil recherché – Data Analyst Lead (Expert) Nous recherchons un Data Analyst Lead senior (10+ ans d’expérience) disposant d’une forte expertise en analyse et conception de solutions data, dans un environnement Grande Distribution . Le candidat devra : Posséder une expérience significative en Grande Distribution (impératif) Être capable de concevoir, challenger et sécuriser des solutions data complexes Avoir une solide maîtrise de la modélisation de données Être reconnu pour son leadership transverse Savoir accompagner et faire monter en compétence une équipe de Data Analysts Être à l’aise dans l’animation d’ateliers, de communautés et d’instances de gouvernance Comprendre les enjeux business retail et les usages métiers de la donnée 🛠 Compétences techniques attendues 🔴 Compétences impératives Connaissance opérationnelle de la Grande Distribution KPI : ventes, marge, stock, approvisionnement Pilotage de la performance magasin Logiques multienseignes Compréhension des usages métiers Analyse de données (niveau confirmé / expert) Modélisation de données (niveau confirmé / expert) Conception de solutions data SQL avancé 🟠 Compétences importantes Environnements Big Data (Databricks, Azure) Python / Scala Conception de modèles de données communs Structuration et alignement des KPI métiers Data Quality / Data Observability Documentation et bonnes pratiques de développement Expérience en méthodologie SAFe / Agile 🟢 Outils & Environnement technique SQL Databricks Microsoft Azure Python / Scala Power BI MicroStrategy PowerDesigner DataGalaxy SODA Jira 🎯 Compétences comportementales (soft skills) Leadership et posture de référent Capacité à challenger et arbitrer Excellente communication transverse (IT / Métiers) Esprit structurant et rigoureux Orientation solution et performance Capacité à vulgariser des sujets complexes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
106 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois