Trouvez votre prochaine offre d’emploi ou de mission freelance Dataiku
Votre recherche renvoie 41 résultats.
Mission freelance
Tech Lead DATAIKU
Publiée le
Dataiku
ETL (Extract-transform-load)
Python
12 mois
520-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de nouveaux projets stratégiques chez nos clients grands comptes, nous recherchons actuellement deux types de profils spécialisés : 🔹 1. Tech Lead DATAIKU Votre rôle : Piloter et encadrer les développements autour de la plateforme Dataiku (DSS), accompagner les équipes Data, garantir la qualité des pipelines et assurer la bonne intégration des solutions dans l’écosystème IT. Compétences clés recherchées : • Expertise confirmée sur DATAIKU DSS • Solide background en data engineering (Python, SQL, orchestrations…) • Bonne compréhension des architectures data (ETL/ELT, data pipelines, APIs) • Capacité à guider les équipes et à prendre des décisions techniques • Expérience en environnement exigeant (idéalement finance)
Offre d'emploi
Data Analyst Dataiku/Dremio
Publiée le
Dataiku
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
L'équipe Reporting & Analyse du risque contribue au pilotage mensuel du risque avec la mise à jour du datamart risque et des reportings risque. Pour cela un RUN mensuel devra perdurer en même temps que les développements induits pour les nouveaux usages data ( nouvelles expositions de données, nouveaux outils de data préparation DREMIO-DATAIKU et utilisation de PBI report server). Cette mission a pour objectif de développer des flux dataiku et des rapports Power BI afin de contribuer au pilotage mensuel du risque. La construction et le fonctionnement de ces mises en place devront être documentés. L’équipe reporting tient à cœur de développer des suivis automatisés et optimisés. Une intégration au run mensuel ainsi qu’une participation aux demandes d’évolutions sur des suivis déjà existants pourront également être réalisées dans le but de s’imprégner du fonctionnement de l’équipe. Prestations demandées • Comprendre le fonctionnement actuel du datamart risque. • Dupliquer les RUN actuels sur les nouveaux outils DREMIO et DATAIKU • Mise en place d’un rapport Power BI version report server permettant le pilotage mensuel • Participation au double run mensuel
Mission freelance
Business Analyst Plateforme Data IA
Publiée le
Dataiku
SAS
1 an
500-550 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Business Analyst Plateforme Data IA. Compréhension fine des enjeux de développement de cas d'usages Data et déploiement de l'IA Gen pour les équipes du Client (développements privatifs et enjeux de communautarisation) Participer au suivi du projet d' IA Studio en appui au dispositif existant (apport d'expertise sur le choix de solutions, valeurs et contraintes d'environnement et d'architecture, participer à la feuille de route d'implémentation qui doit permettre l'ouverture des premières fonctionnalités en 2026 Capacité à anticiper, planifier les réunions nécessaires pour construction des livrables, Participation à la construction du dossier de cadrage (cadrage à terminer devant reprendre les éléments pertinents des séquences passées), aide à la construction des documents clés comex produits, ateliers PU/CR, documents préparatoires intermédiaires, échanges avec les parties prenantes des équipes du PP/PU Data et dans l'écosystème du Client (ex architecture...)/infogérant du Client en détaillant le retroplanning cadencé avec les jalons identifiés sur 2026. Connaissance plateforme Data dont SAS Viya (solution et intégration des capacités IA Gen...), Dataiku...
Mission freelance
Développeur Dataiku Expérimenté (>5 ans)
Publiée le
Dataiku
12 mois
400-610 €
Paris, France
Télétravail partiel
Contexte Dans un programme stratégique de convergence Risques / Finance , le client vise à unifier et fiabiliser la production des reportings réglementaires (FINREP, COREP, SURFI…). L’objectif : mettre en place un socle unique pour la collecte, la préparation, le contrôle et la traçabilité des données réglementaires. Le consultant interviendra sur les volets Collecte et/ou Socle Technique , autour du développement de nouvelles fonctionnalités ou de l’amélioration du existant, dans un cadre méthodologique en V au sein d’une équipe fonctionnant en Scrum . Une montée en responsabilités vers un rôle de référent Dataiku est prévue selon la maîtrise des sujets. Missions Développer des fonctionnalités data au sein de Dataiku (recettes, scénarios, pipelines). Améliorer les bonnes pratiques de développement, d’industrialisation et de tests. Participer à la conception avec la Product Team et challenger les solutions proposées. Réaliser les tests , diagnostics et optimisations des pipelines existants. Contribuer au partage de connaissances et à la montée en compétence des développeurs juniors. Participer activement à la vie de l’équipe agile (daily, sprint planning, refinement, reviews). Compétences Techniques Requises Dataiku (recettes avancées, scénarios, API, partitions) – certifications appréciées. Python (manipulation data, librairies standards). Datastage . Spark . Unix / Shell . Bases de données relationnelles : DB2, Oracle… SQL avancé. Compétences appréciées Environnements OpenShift / Kubernetes / Docker . Connaissances en programmation objet (Java, C#…). Culture data dans des environnements Risk/Finance ou réglementaire bancaire. Profil recherché Minimum 5 ans d’expérience en développement Dataiku dans des contextes complexes. Capacité à évoluer en mode produit et à travailler en interaction avec Risques, Finance, IT. Autonomie, rigueur, capacité d’analyse et communication claire. Expérience en environnement bancaire fortement appréciée.
Offre d'emploi
Consultant Confirmé Dataiku
Publiée le
Dataiku
JIRA
Microsoft SQL Server
45k-52k €
Île-de-France, France
Télétravail partiel
Nous recherchons un Consultant Data confirmé maîtrisant Dataiku, l’analytique, la préparation de données et la data visualisation. La maîtrise du SQL et de bonnes connaissances en Python sont indispensables. Une expérience en administration de plateforme Dataiku, gouvernance et API REST est un plus. Missions : Optimiser et maintenir les pipelines Dataiku existants (recette, bonnes pratiques, automatisation) Développer des outils et pipelines d’administration pour améliorer l’efficacité opérationnelle Promouvoir les bonnes pratiques de reporting et dataviz (Dataiku et autres outils) Participer à l’administration des solutions et à la maintenance évolutive Collaborer avec les équipes Infrastructure dans un environnement cloud
Mission freelance
Lead Data Quality Analyst
Publiée le
Dataiku
Qlik
ServiceNow
12 mois
600-700 €
Paris, France
Télétravail partiel
En tant que Lead Data Quality Analyst , vous êtes le garant de la fiabilité et de l'intégrité de nos actifs data. Votre rôle central consiste à définir, mesurer et mettre en œuvre les stratégies et processus assurant une haute qualité des données, indispensable à la prise de décision et au succès de nos initiatives métier. Vous pilotez l'ensemble du cycle de vie de la qualité des données : Gouvernance et Stratégie Data Quality : Définir et maintenir les règles de qualité des données (complétude, unicité, validité, cohérence et format). Établir les indicateurs clés de performance (KPI) de la qualité des données et s'assurer de leur suivi régulier. Analyse et Audit des Données : Analyser la qualité des données au sein de nos systèmes sources et cibles (Data Warehouse, Data Lake). Identifier les anomalies, les causes racines des problèmes de qualité (système, processus, ou saisie) et recommander des actions correctives. Implémentation Technique : Mettre en œuvre des contrôles de qualité automatisés directement dans les outils d'entrepôt de données (notamment Snowflake ). Développer des tableaux de bord de monitoring de la qualité pour visualiser les scores et les tendances (via Qlik ou d'autres outils de visualisation). Coordination et Amélioration Continue : Collaborer étroitement avec les Data Engineers, les Data Scientists et les équipes métier pour garantir la bonne application des règles de qualité. Gérer la priorisation des tickets et des actions d'amélioration de la qualité des données.
Mission freelance
Data engineer (H/F)
Publiée le
Dataiku
ELK
1 an
400-460 €
Châtillon, Île-de-France
Télétravail partiel
Infrastructures de données : - Cartographie et documente les sources de données. - Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. - Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. - Structure les bases de données (sémantique, format, etc.). - Contribue à la gestion des référentiels de données. Intégration des données : - Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. - Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. - Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. - Nettoie la donnée (élimination des doublons) et la valide pour une utilisation aval. Animation des communautés : - Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : - Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. - Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables - Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. - Un data lake adapté aux besoins actuels et futurs de l'entreprise. - Une cartographie des données. - Les éléments permettant de garantir la qualité de la donnée.
Offre d'emploi
Expert migration SAS vers Dataiku
Publiée le
Dataiku
Méthode Agile
SAS
2 ans
40k-65k €
400-550 €
Tours, Centre-Val de Loire
Télétravail partiel
Notre client souhaite migrer ses solutions analytiques et ses processus de traitement de données de l’environnement SAS vers la plateforme Dataiku . Dans ce cadre, vous interviendrez en tant qu’expert pour accompagner cette transformation, en garantissant la continuité des processus métiers et l’optimisation des performances. Missions principales : Analyser les processus existants sous SAS (scripts, macros, workflows) et identifier les dépendances. Concevoir des solutions équivalentes ou optimisées sur Dataiku, en collaboration avec les équipes métiers et techniques. Développer et tester les nouveaux workflows Dataiku, en assurant la compatibilité avec les systèmes existants. Former les équipes internes à l’utilisation de Dataiku et documenter les bonnes pratiques. Accompagner le déploiement progressif des solutions et assurer le support post-migration. Optimiser les performances des nouveaux processus et proposer des améliorations continues. Compétences techniques : Expertise confirmée en développement SAS (Base SAS, SAS Macro, SAS SQL, SAS DI Studio, etc.). Maîtrise avancée de Dataiku (création de workflows, utilisation des recettes, intégration avec d’autres outils, etc.). Connaissance des bonnes pratiques en migration de données et en gestion de projets data. Expérience avec les bases de données (SQL, Oracle, PostgreSQL, etc.) et les environnements Big Data . Familiarité avec les outils de versioning (Git) et les méthodologies Agile/DevOps . Compétences transverses : Capacité à travailler en équipe pluridisciplinaire (métiers, IT, data scientists). Pédagogie pour former et accompagner les utilisateurs finaux. Autonomie , rigueur et sens de l’organisation pour gérer des projets complexes. Excellente communication écrite et orale pour documenter et présenter les avancées.
Mission freelance
Data Engineer (H/F)
Publiée le
Dataiku
1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
📌 Data Engineer (H/F) – Poste basé à Clermont-Ferrand 3 jours de présentiel / 2 jours de télétravail 📢 Pas de portage ni de sous-traitance Nous recherchons un Data Engineer autonome , pour accompagner la transformation data de l’entreprise et soutenir les équipes métier dans leurs analyses, pilotages et initiatives de création de valeur. 🎯 Missions principales Collecter, analyser et exploiter les données pertinentes pour optimiser le pilotage des activités. Accompagner les équipes métier dans le développement, le déploiement et l’opération des solutions data. Concevoir des modèles de données (relationnel, dimensionnel, Data Vault). Développer et optimiser des pipelines ETL/ELT robustes et maintenables. Garantir la qualité et la gouvernance des données (lineage, métadonnées, quality checks…). Participer à l’évolution de l’ architecture data (Data Lakehouse, Data Mesh). Produire des visualisations et analyses accessibles (Power BI). Maintenir le catalogue de datasets à jour. Réaliser les tests selon la stratégie définie. Fournir des kits de formation et accompagner les utilisateurs dans la prise en main des solutions. 📈 Résultats attendus Données pertinentes identifiées, capturées et valorisées. Optimisation du temps, des outils et des ressources liés à la gestion data. Analyses et visualisations lisibles et exploitables par les métiers. Recommandations permettant la création de valeur opérationnelle. Amélioration continue des services et processus grâce aux insights data. Respect des normes éthiques et de gouvernance du groupe. Promotion et documentation des produits data pour faciliter leur maintien dans le temps. 🧠 Compétences requises Data Engineering Modélisation : relationnelle, dimensionnelle, Data Vault Pipelines ETL / ELT Gouvernance : data lineage, qualité, catalogage Architectures data modernes : Data Lakehouse, Data Mesh Langages SQL avancé Python / PySpark avancé Technologies Dataiku Power BI Databricks Azure Data Factory Azure Logic Apps 📍 Conditions Poste basé à Clermont-Ferrand 3 jours de présentiel / 2 jours de télétravail Pas de portage, ni de sous-traitance
Offre d'emploi
Data Engineer – Data Analyste spécialiste DATAIKU
Publiée le
CI/CD
Cloudera
Git
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
La mission proposée sera d’accompagner les métiers dans la cadre du projet de sortie du progiciel SAS vers le progiciel DATAIKU. Dans ce cadre, les activités principales sont : • Accompagner les utilisateurs dans la prise en main de Dataiku et le déploiement des solutions pour leurs cas d’usage. Cela passe par la compréhension de leurs besoins et contraintes opérationnelles, l’étude des solutions potentielles basées sur le progiciel, et l’aide et support à la réalisation. • Appliquer et diffuser les bonnes pratiques Dataiku ainsi que du processus MLOPS. • Assurer le Support et RUN post déploiement : surveillance, maintenance et optimisation des traitements DATAIKU. Dans le cadre de cette mission, il y a de fortes exigences sur : • Le sens de service. • La pédagogie pour accompagner efficacement les utilisateurs SAS. • L’échange et la communication avec le reste de l’équipe SOD/IA Factory ainsi que les différents interlocuteurs sur ce sujet. A savoir, l’architecte SOD/SAS, l’architecte technique SOD, les architectes DATA ainsi que les interlocuteurs CAGIP. Le critère d’expérience doit s’appliquer à tous ces éléments pour garantir l’adéquation du profil à la demande. Expertise DATAIKU DSS avec certifications : • Core Designer • Advanced Designer • ML Practitioner • MLOps Practitioner • Developer • Generative AI Practitioner
Offre d'emploi
Administrateur(trice) Dataiku DSS - LUXEMBOURG
Publiée le
Dataiku
Python
Scripting
6 mois
40k-60k €
400-600 €
Luxembourg
Mission au Luxembourg. Il est impératif et obligatoire de résider ou être proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée
Mission freelance
Data Engineer DENODO
Publiée le
Dataiku
1 an
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) Data Engineer maîtrisant Denodo , capable d’assurer à la fois le MCO/MCS de la plateforme et la création de vues pour les équipes projets. ✅ Assurer le MCO / MCS de la plateforme Denodo ✅ Optimiser les performances et l’architecture de la plateforme ✅ Administrer Denodo : monitoring, tuning, gestion des connexions, sécurité ✅ Créer et optimiser des vues Denodo pour les projets métiers ✅ Accompagner les équipes n’ayant pas de compétences Denodo internes ✅ Contribuer à améliorer la virtualisation de données et la qualité de service ✅ Participer au support central et garantir une plateforme fiable et performante
Offre d'emploi
Dev Python Dataiku
Publiée le
API REST
Dataiku
MySQL
6 mois
40k-45k €
100-550 €
Île-de-France, France
Télétravail partiel
Missions principales 1. Développement & Industrialisation dans Dataiku DSS Développer des recipes Python , SQL , Spark et orchestrer les flows Dataiku. Structurer et optimiser les pipelines : ingestion, préparation, transformation, scoring, export. Gérer et maintenir les environnements Python (code env) dans Dataiku. Intégrer les projets au sein des environnements 2. Automation & Orchestration Mettre en place des scenarios (planification, dépendances, notifications, reprise sur incident). Contribuer à l’ industrialisation des flux et au respect des bonnes pratiques DevOps / DataOps. 3. Qualité, Sécurité & Conformité Implémenter des metrics & checks de qualité de données dans les projets. Respecter les exigences du groupe : sécurité, gouvernance, confidentialité, traçabilité. Documenter les projets dans le Wiki Dataiku 4. Support & Collaboration Travailler avec les équipes Data (Analysts, Scientists, Owners) pour cadrer les besoins. Participer à l’optimisation des performances et à la résolution d’incidents techniques. Contribuer à la montée en compétences des utilisateurs Dataiku (bonnes pratiques, support niveau 2).
Offre d'emploi
Ingénieur Devops / Dataiku
Publiée le
Dataiku
IBM Cloud
1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Ingénieur DevOps / DataikuDescriptif du poste Dans le cadre d'une approche Agile / DevOps, au sein de l'équipe Application Production Support en lien avec le Domaine Data de la DSI, la prestation requise doit apporter le support technique aux projets Data utilisant le produit Dataiku. Vous êtes le relais et garant de la Production tout au long du cycle des produits. Responsabilités principales Gestion technique et support Dataiku Maîtriser et supporter le produit Dataiku Contribuer dans les projets Cloud et dans la prise en compte des exigences de production Participer à la définition des solutions techniques Assurer la veille de la stabilité des environnements techniques (Production / hors Production) via le monitoring et la supervision des solutions techniques Coordination et gestion des incidents Coordonner les actions des autres équipes de la Production sur les tâches projets Coordonner et suivre les actions lors des incidents Mobiliser les personnes nécessaires à leurs résolutions Rédiger les comptes-rendus Participation aux projets Participer aux réunions de l'équipe projet Être partie prenante des activités et des décisions collectives (évaluation de la complexité, des risques, etc.) tout au long du projet Partager largement les bonnes pratiques de production applicative en collaboration avec les Service Reliability Engineer (SRE) et Application Production Support (APS) Collaboration Cloud et automatisation Maintenir une relation étroite avec la Cloud Core Team Leasing afin de s'acculturer de la mise en place du Cloud, notamment pour les pipelines de livraison Assurer le suivi de la mise en place à chaque fois des solutions les plus automatisées possible pour le provisionnement et le déploiement afin de limiter au maximum les tâches manuelles Suivi opérationnel Suivre la MCO, les évolutions des applications, des middlewares et des services de son périmètre de responsabilité Définition de la solution technique Participer à la définition de la solution technique Anticiper les problématiques de conformité Intégrer les exigences de la Production et d'infrastructure Suivre l'ajout des exigences d'infrastructures dans le backlog Produit ainsi que les user stories techniques jugées nécessaires Supporter les équipes de développement Implémenter les user stories techniques Montée en compétence et bonnes pratiques Suivre la montée en compétence de l'équipe sur les bonnes pratiques de production applicative Sensibiliser et propager les bonnes pratiques Former et accompagner les membres dans l'adoption des outils Gestion des ressources et déploiement Suivre et mettre à disposition les ressources de Production et d'infrastructure en facilitant le déploiement des solutions Mettre à disposition de l'équipe les services et ressources de Production en mobilisant les bonnes expertises et en utilisant les solutions d'automatisation Faciliter le déploiement des solutions en utilisant les pipelines d'automatisation Vérifier l'exploitabilité des environnements techniques Contribuer aux revues de sécurité Identifier les points de blocage d'exploitation et proposer des plans d'actions Maintien en conditions opérationnelles Contribuer à la définition des niveaux de services et au Maintien en conditions opérationnelles Mettre en place la surveillance en lien avec les SRE Suivre la disponibilité d'une documentation à jour Suivre l'existence d'un plan de bascule pour la continuité Supporter en cas de blocage ou d'incident sur les livraisons de versions, en escalade des SRE Amélioration continue Contribuer à l'amélioration continue de la production avec les SRE Contribuer à la revue de patrimoine et la gestion de l'obsolescence Profil recherché
Mission freelance
Chef de Projet Fonctionnel BI
Publiée le
Cognos
Dataiku
SQL
12 mois
400-500 €
Montreuil, Île-de-France
Mon client banacaire souhaite une prestation de Chef de Projet BI Fonctionnel dans le cadre de l'accompagnement du responsable d'application et du PO dans le suivi de certains projets concernant l'application Datalytics, plate forme décisionnelle de la plate-forme Risk360 : suivi et pilotage, collecte et formalisation des besoins metiers, participation à la conception, tests du produit. Une connaissance Data est nécessaire afin de prototyper certaines Users stories. Les missions sont: - Suivi de projet / animation de réunion et Compte-rendu / Reportings, - Gestion de Users stories (création, suivi, questions réponses), - Description des cas de tests, Execution, Formalisation des tests, - Gestion de la relation avec l'équipe de Dev. Gestion en Agile d'un produit de type BI - Analyse de données en SQL, avec évolution vers Dataiku Anglais / Connaissances SQL / Connaissance des systèmes décisionnels / Appétences COGNOS et Tableau seraient un plus/
Mission freelance
Développeur Dataiku (Tours)
Publiée le
Dataiku
12 mois
420-460 €
Tours, Centre-Val de Loire
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Développeur Dataiku(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine d'Assurance. Description 🌍 Contexte de la mission Dans le cadre d’une stratégie globale de modernisation du SI et d’optimisation des processus analytiques, une mission est ouverte pour accompagner la migration d’un patrimoine applicatif historique développé sous SAS vers une plateforme Dataiku . L’objectif est d’améliorer les capacités d’analyse, d’intégrer de nouvelles fonctionnalités data, et de réduire les coûts opérationnels. Le consultant interviendra à la fois en suivi de projet et en réalisation opérationnelle , au sein d’équipes Data & IT déjà structurées. La mission débute à 100% sur site lors du lancement. 🎯 Objectifs de la mission Assurer le suivi et le pilotage de différents projets data. Accompagner et exécuter la migration des programmes SAS vers Dataiku. Garantir la qualité des programmes migrés par des tests rigoureux. Fiabiliser et moderniser l’écosystème analytique. 🧩 Missions principales et rôle 🔎 Analyse & préparation Auditer les programmes SAS existants pour comprendre le fonctionnement, les dépendances et les cas particuliers. Établir un plan de migration détaillé : étapes, ressources requises, planning prévisionnel. 🔁 Migration & développement Réécrire ou adapter les programmes SAS dans Dataiku. Intégrer les bonnes pratiques de développement et les fonctionnalités natives de la plateforme. ✅ Tests & validation Définir un processus de test complet pour garantir la conformité fonctionnelle et technique. Vérifier la cohérence des résultats entre SAS et Dataiku. 📊 Suivi de projet & coordination Suivre l'avancement des travaux et produire les reportings associés. Participer au support projet et à la résolution des blocages. Utiliser les outils de pilotage (Jira). 💼 Livrables attendus Audit des programmes SAS existants. Plan de migration détaillé. Programmes migrés et documentés sous Dataiku. Jeux de tests et rapports de validation. Suivi projet + reportings réguliers.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
41 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois