Trouvez votre prochaine mission ou futur job IT.

Mission freelance
Expert Data Scientist – Secteur Public (H/F)
Compétences clés : Dataiku • Microsoft Power BI • MySQL • Talend Dans le cadre de projets stratégiques de transformation et de modernisation du secteur public, nous recherchons un(e) Expert Data Scientist H/F freelance pour accompagner nos clients dans la valorisation et l’exploitation avancée de leurs données. Vous interviendrez en tant qu’expert(e) sur des problématiques complexes, avec un rôle clé dans la définition et la mise en œuvre de solutions data-driven à forte valeur ajoutée. La maîtrise de Dataiku est indispensable. Vos missions : Piloter le développement de modèles de data science complexes dans Dataiku : exploration, apprentissage automatique, analyses prédictives et prescriptives. Définir les stratégies de collecte, d’intégration et d’exploitation de données hétérogènes en garantissant leur qualité et leur conformité réglementaire (RGPD, sécurité des données). Concevoir et automatiser des pipelines de données robustes avec Dataiku et/ou Talend. Construire et superviser la réalisation de tableaux de bord et visualisations avancées avec Tableau ou Power BI, en réponse à des enjeux métiers variés. Jouer un rôle de référent(e) technique auprès des équipes internes et des interlocuteurs métiers, en les accompagnant dans la formalisation des besoins et la diffusion d’une culture data. Contribuer activement aux choix d’architecture et à la mise en place des bonnes pratiques data science au sein des projets.

Mission freelance
Mission Longue de Consultant Snowflake
Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.
Mission freelance
Mission Freelance – Data Analyst
Contribuer à la création et à l’exploitation du socle de données : Participer à l’audit des nouvelles sources de données disponibles dans le Datalake (GCP / BigQuery) . Intégrer et structurer ces données afin de renforcer la qualité, la fiabilité et l’exploitabilité du socle. Collaborer avec les équipes techniques pour garantir la cohérence et la performance de l’architecture Data. Développer et maintenir des dashboards stratégiques sous Power BI : Concevoir des tableaux de bord permettant de suivre les objectifs clés, les usages et les profils utilisateurs . Faire évoluer les dashboards existants en intégrant de nouveaux indicateurs ou en améliorant les calculs. Garantir la clarté, la pertinence et la valeur opérationnelle des visualisations fournies aux équipes métier et au management. Analyser en profondeur les profils et comportements des utilisateurs : Étudier les parcours des vidéonautes (programmes recrutants, fidélisants, engagement selon les canaux d’acquisition). Identifier les tendances de consommation par contenus, types d’écran et plateformes. Mesurer l’impact de la pression publicitaire , des nouvelles fonctionnalités ou de la distribution multi-partenaires sur l’expérience utilisateur. Produire des analyses permettant de mieux segmenter et comprendre les publics. Contribuer aux projets Data Science & Intelligence Artificielle : Participer aux initiatives Data Science visant à améliorer l’expérience utilisateur (recommandations, personnalisation, parcours fluidifiés). Apporter un support analytique pour l’optimisation des process internes (production, diffusion, marketing digital, monétisation). Collaborer avec les Data Scientists et les métiers pour transformer les insights en solutions concrètes et actionnables . Accompagner la diffusion et l’appropriation de la culture Data : Vulgariser les résultats et insights auprès des équipes non techniques. Contribuer à la montée en maturité des usages Data au sein de l’organisation. Proposer des axes d’amélioration et partager les bonnes pratiques en continu.

Offre d'emploi
Ingénieur DevSecOps / MLOps / IA
Contexte de la mission Vous participerez à la conception, l’industrialisation et la sécurisation d’un produit IA stratégique pour les métiers du Groupe. En lien étroit avec les équipes IA / Data Science et DevSecOps / Industrialisation , vous interviendrez sur l’ensemble du cycle de vie du produit : conception, déploiement, sécurité, observabilité et accompagnement des utilisateurs. Rôle et responsabilités principales 1. Conception & Industrialisation Participer à la définition technique et fonctionnelle du produit IA avec les équipes Data et Sécurité. Industrialiser les workflows IA via des pipelines CI/CD et GitOps : GitLab CI, ArgoCD, Argo Workflows, MLFlow, KubeFlow . Implémenter les mécanismes d’automatisation (Ansible, Python) pour le provisioning, le déploiement et le monitoring. Maintenir la feuille de route technique du produit et contribuer à la veille technologique IA (frameworks, GPU, calcul distribué). 2. Sécurité, conformité & gouvernance Garantir la sécurité, la conformité et la confidentialité des environnements IA. Intégrer le Security by Design et le Zero Trust dans les pipelines et architectures Cloud. Assurer la gestion des secrets, auditabilité et traçabilité via HashiCorp Vault , GitOps, ArgoCD et outils DevSecOps. Définir et implémenter les mécanismes de gouvernance technique permettant aux métiers d’opérer leur propre gouvernance du produit IA. 3. Exploitation & accompagnement Superviser les opérations critiques (changements, déploiements, mises à jour) et garantir la continuité de service. Participer à la gestion des incidents , analyses de causes racines et documentation associée. Accompagner les équipes Data Science, IT et métiers dans l’usage du produit et la mise en œuvre des bonnes pratiques. Être le point de contact technique avec les partenaires externes (éditeurs, équipes d’industrialisation, infrastructure). Compétences techniques recherchées Cloud, Conteneurs & Orchestration Docker, Kubernetes, OpenShift Frameworks de calcul distribué : Spark, Ray, Dask, OpenMPI GPU Computing : CUDA, Rapids, NIMs, Nemo DevSecOps / MLOps GitLab CI, ArgoCD, Argo Workflows, Helm, Ansible, Python MLFlow / KubeFlow pour l’automatisation des entraînements et déploiements IA HashiCorp Vault (gestion des secrets, conformité) Observabilité / Monitoring : Dynatrace, ELK, Prometheus Sécurité & Gouvernance Maîtrise des principes Zero Trust , Security by Design Gestion des accès et IAM (rôles, politiques d’accès, audit) Respect des normes de conformité : traçabilité, auditabilité, RGPD Langages & Scripting Python (confirmé) Shell scripting / Bash Connaissance des environnements Linux enterprise et Windows Server Soft skills et posture attendue Rigueur, professionnalisme et sens de la confidentialité Communication claire et pédagogie avec les équipes techniques et métiers Esprit d’équipe et collaboration transverse Capacité à documenter et structurer les processus Anglais courant (environnement international)

Offre d'emploi
Data Scientist - secteur médical H/F
Contexte de la mission : Dans un contexte d'innovation biomédicale, la mission s'intègre au sein d'un service « Data Science - Molecular & Data-IT » spécialisé dans l'exploitation de données scientifiques et la mise en oeuvre de modèles complexes au service de la recherche et du développement. Basée à Grenoble, cette mission vise à renforcer les travaux autour de dynaMo, un outil de simulation destiné à optimiser l'étude des interactions biologiques et à améliorer la prédiction des résultats expérimentaux. Responsabilités : - Contribuer à l'amélioration de l'outil dynaMo en évaluant divers outils de simulation des interactions entre primers. - Générer des simulations mimant des jeux de données réels, en collaboration étroite avec les biologistes et les data scientists impliqués dans le projet. - Comparer les résultats obtenus avec les données réelles afin d'identifier les écarts et proposer des pistes d'amélioration. - Synthétiser les résultats, proposer et mettre en oeuvre des optimisations permettant de reproduire plus fidèlement les réactions biologiques.
Offre d'emploi
Data engineer ETL Airflow
Data/ML Engineer – Secteur bancaire (IDF) – DISPO ASAP – MISSION LONGUE Contexte : Accélération IA – chantier Knowledge Management pour constituer une base de connaissance à partir de documents non structurés (PDF, Word, HTML). Un pipeline initial existe et doit être industrialisé pour une exécution fiable, scalable et maintenable. Objectif : Développer les pipelines d’ingestion, transformation et alimentation de la base, en assurant versioning et traçabilité . Activités : Modéliser l’architecture technique (ingestion → stockage) Développer des flux ETL modulaires (OCR, transformation, enrichissement) Standardiser le format pivot et les conventions de métadonnées Assurer l’historisation, le versioning et la traçabilité des documents Implémenter un orchestrateur (Airflow/Dagster/Prefect) si nécessaire Suivre la robustesse sur des volumes variés Collaborer avec les équipes KM et Data Science Documenter l’ensemble des flux de traitement

Offre d'emploi
Data Analyst Production / IT (H/F)
Pour notre client dans le secteur bancaire, vous rejoignez les équipes IT / Production pour piloter, analyser et optimiser les données techniques issues des systèmes de production (logs, incidents, monitoring, supervision). Votre rôle est clé pour assurer la fiabilité , la disponibilité et la performance des services bancaires, en lien avec les équipes techniques, DevOps et métiers. 🎓 Formation & Expérience Bac +5 (école d’ingénieur, université ou équivalent) en data science, statistiques, informatique Expérience en tant que Data Analyst dans un contexte IT / production Une expérience dans le secteur bancaire ou financier est un atout majeur 🛠️ Compétences Techniques Langages : SQL , Python ou R Outils : Power BI , Tableau , Excel avancé (macros, Power Query) Environnements : ETL / ELT , data warehouse , data lake Connaissances en statistiques , modélisation , data mining Notions de DevOps , Jenkins , Airflow , versioning 🔄 Méthodologie & Qualités Méthodes Agile , cycles itératifs Capacité à analyser , structurer et communiquer avec des interlocuteurs techniques et métiers Rigueur, esprit critique, proactivité
Mission freelance
Data Engineer AWS
Missions principales : Développer et industrialiser des pipelines de données et microservices sur AWS. Assurer la qualité, la fiabilité et l’accessibilité des données. Collaborer avec les équipes Data Science pour répondre aux besoins métiers. Maintenir et optimiser les systèmes existants. Participer à la collecte des besoins et à la documentation technique. Minimum 4 ans d’expérience en Data Engineering et big data. Maîtrise de Python, programmation orientée objet et design patterns. Expérience sur bases de données SQL et Graph. Connaissance des architectures microservices et APIs externes. Expertise conteneurisation (Docker, Kubernetes, Helm) et CI/CD (GitFlow, GitOps, Terraform). Bonne communication, autonomie, rigueur et capacité à gérer plusieurs tâches. Expérience des services AWS : S3, Lambda, IAM....
Mission freelance
Mission Freelance – Data Engineer AWS (H/F)
🧠 Vos missions Concevoir, construire et maintenir l’infrastructure AWS dédiée aux traitements Data & IA. Développer des pipelines de données robustes et scalables, orientés médias. Industrialiser les cas d’usage métiers en lien étroit avec les équipes Data Science. Garantir la qualité, la fiabilité et la performance des données et des traitements. Contribuer à la documentation technique et au suivi de l’activité. Collaborer avec les équipes métiers pour recueillir les besoins et proposer des améliorations. 🛠️ Environnement technique Cloud & Infra as Code : AWS (IAM, S3, Lambda, Secret Manager, VPC), Terraform, Ansible, GitOps. Conteneurisation : Docker, Kubernetes, Helm. Langage principal : Python (POO, design patterns, tests). CI/CD : GitFlow, pipelines de déploiement. Bases de données : SQL et Graph. Outils projet : JIRA, méthodes Agile.

Mission freelance
Data Engineer (PySpark)
CONTEXTE Métiers Fonctions : Data Management, Data Engineer Spécialités technologiques : Big Data Compétences Technologies et Outils : HadoopPyspark (2 ans) Dans le cadre d’un projet stratégique autour du recouvrement et de la lutte contre la fraude, nous recherchons un Data Engineer confirmé spécialisé en PySpark, pour rejoindre une équipe technique pilotée par un Tech Lead expérimenté. Le projet s’appuie sur des volumes massifs de données critiques (plusieurs milliards d’événements par jour) et vise à développer des cas d’usages à fort impact dans la détection d’anomalies et l’optimisation des processus de recouvrement. MISSIONS Missions principales - Participer à la construction et l’optimisation des pipelines de données sous PySpark. - Contribuer à la mise en place d’architectures Big Data sur un environnement Hadoop (bonus). - Assurer la qualité, la fiabilité et la performance des flux de données. - Collaborer étroitement avec les équipes data science et métier pour industrialiser les cas d’usage (fraude, scoring, recouvrement automatisé…). - Intervenir sur des problématiques de scalabilité et de traitement en temps réel / batch. - Garantir la sécurité et la conformité des traitements sur des données sensibles.
Offre d'emploi
Data Engineer (PySpark)
Métier et fonction : Data Management Data Engineer Spécialité technologique : Big Data Type de facturation : Assistance Technique (facturation au taux journalier) Techniques et outils maîtrisés : Hadoop, PySpark (2 ans) Secteur d'activité : Administration Publique Description de la prestation : Dans le cadre d’un projet stratégique en recouvrement et lutte contre la fraude, un Data Engineer confirmé spécialisé en PySpark est recherché pour une équipe pilotée par un Tech Lead expérimenté. Le projet manipule plusieurs milliards d’événements par jour, visant à développer des cas d’usage à fort impact comme la détection d’anomalies et l’optimisation des processus de recouvrement. Missions principales : Construire et optimiser des pipelines de données sous PySpark. Participer à la mise en place d’architectures Big Data sur environnement Hadoop (optionnel). Garantir la qualité, la fiabilité et la performance des flux de données. Collaborer avec les équipes data science et métier pour industrialiser des cas d’usage (fraude, scoring, recouvrement automatisé). Gérer des problématiques de scalabilité et de traitement en temps réel ou batch. Assurer la sécurité et la conformité des traitements de données sensibles.

Mission freelance
Product Owner Indexation Documentaires / AI
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Product owner Spécialités technologiques : Gestion des données, AI Nous recherchons pour un de nos clients un Product Owner pour un projet d'indexation documentaire dans le cadre d'un programme contenant de l'intégration IA. Ce projet vise à développer et intégrer des solutions d’indexation documentaire avancées pour un usage dans des systèmes de Retrieval-Augmented Generation (RAG), permettant une exploitation optimale des données pour des cas d’usage IA. MISSIONS Le Product Owner aura un rôle pivot, assurant : - Stratégie produit : Définition de la vision et de la stratégie d’indexation documentaire, identification des opportunités d’innovation (NLP, RAG), et priorisation des cas d’usage selon la valeur business et l'impact sur la performance du RAG. - Gestion du backlog et priorisation : Définir, prioriser et gérer le backlog des fonctionnalités d’indexation. Garantir l’utilisation des méthodes de discovery pour identifier les besoins et suivre le delivery pour maximiser la valeur produite. - Collaboration inter-équipes : Travailler avec les équipes techniques (data scientists, ingénieurs IA, développeurs) et les équipes métier. Gérer les dépendances avec la plateforme AI [Nom du Client Anonymisé]. - Suivi et mesure de la performance : Définir et analyser les KPIs spécifiques au RAG (pertinence des résultats, temps de réponse, taux de couverture, coûts) et proposer des améliorations continues. - Gestion des données : Définir les stratégies de collecte, traitement et stockage des données documentaires. Assurer la qualité, la sécurité et la conformité (aspects éthiques et réglementaires). - Go to Market et Run : Accompagner la mise en main, garantir une documentation claire, des formations, et mettre en place le processus de support et de maintenance. Livrables attendus : - Roadmap opérationnelle - Backlog organisé et transparent, avec des spécifications détaillées. - Rapports de performance sur les KPIs. - Documentation technique et fonctionnelle des solutions développées. - Processus de déploiement et processus de run pour l’intégration au support opérationnel. Expertise souhaitée Le profil recherché doit posséder une solide expérience en gestion de produit dans un environnement technique complexe, avec une forte connaissance du domaine de l’IA, de l'indexation et du Natural Language Processing. Compétences et Connaissances Techniques : - Product Management : Expérience avérée en gestion de produit dans un environnement agile à grande échelle. Expertise du pilotage de produits et des principes de product management sur des projets techniques complexes. - Indexation Documentaire et RAG : Connaissance des concepts d’indexation documentaire, des systèmes de recherche documentaire (moteurs, vectorisation de documents) et des pipelines RAG. - Data et NLP : Maîtrise des principes de gestion des flux de données et des techniques de NLP appliquées à l’indexation et à la recherche d’information. - IA et Data Science : Connaissance des technologies d'IA, notamment pour les systèmes de recherche et de génération augmentée. Capacité à collaborer avec les équipes data science et IA engineering. - Méthodes Agiles : Maîtrise des méthodes Agiles (Scrum, Kanban) et connaissance du framework SAFe.

Offre d'emploi
Data Engineer
Nous recherchons un Data Engineer confirmé pour rejoindre une équipe data en pleine expansion au sein d’un grand groupe français reconnu pour son rôle clé dans la transformation numérique de ses services. Vous interviendrez dans la mise en place et l’industrialisation de pipelines de données sur une infrastructure AWS à grande échelle. Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables sur AWS (Glue, Lambda, EMR, S3, Step Functions, etc.) Participer à la modélisation et à la structuration des données pour les besoins analytiques et opérationnels Intégrer et transformer les données issues de différentes sources (internes, API, fichiers, bases de données, etc.) Contribuer à la mise en place de bonnes pratiques de DataOps (CI/CD, monitoring, tests automatisés) Collaborer avec les équipes Data Science, BI et les architectes pour assurer la qualité et la cohérence des données Participer à l’optimisation des coûts et des performances de la plateforme data AWS Stack technique Cloud : AWS (S3, Glue, Lambda, Step Functions, Athena, EMR, Redshift, IAM, CloudWatch) Langages : Python, SQL, PySpark CI/CD : GitLab CI, Terraform / CloudFormation DataOps : Airflow, dbt, Docker Data Visualization (bonus) : QuickSight, Power BI

Offre d'emploi
CHEF(FE) DE PROJET FLUX DATA AZURE DATABRICKS (H/F)
ACCROCHE SI TU SAIS QUE LES DONNÉES BRUTES NE DEMANDENT QU’À ÊTRE AFFINÉES, VIENS SAISIR CETTE OPPORTUNITE ... CE QUE TU RECHERCHES : Piloter des projets data et big data ambitieux Travailler sur des architectures innovantes et des volumes de données massifs Relever des défis techniques et fonctionnels pour transformer les données en valeur Accompagner les métiers dans leur transformation Rejoins une équipe où ton expertise en gestion de projets data sera un atout Au sein d’un acteur majeur du secteur , tu participeras : Recueil et analyse des besoins métiers, tu réaliseras Conception et pilotage des architectures data et big data, tu assureras Gestion des phases de développement et d’intégration, tu coordonneras Mise en place de pipelines de données performants, tu garantiras Industrialisation et sécurisation des traitements, tu superviseras Accompagnement des équipes techniques et métiers, tu animeras Veille technologique et anticipation des évolutions, tu effectueras QUI TU ES : Diplômé(e) en informatique, data science ou équivalent Tu justifies d’une expérience de ans minimum en gestion de projets data et big data Maîtrise des plateformes Expertise en outils de gestion et traitement des données AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Analytique, tu sais exploiter les données pour prendre des décisions éclairées Méthodique, tu structures et pilotes les projets avec rigueur Pragmatique, tu proposes des solutions adaptées aux enjeux métier Communicant(e), tu sais vulgariser les concepts data auprès des différentes équipes Autonome, tu es capable de gérer plusieurs projets en parallèle Visionnaire, tu anticipes les évolutions des technologies big data Orienté(e) performance, tu optimises les infrastructures pour garantir efficacité et scalabilité

Offre d'emploi
Business Analyst Technique (RAG / IA Générative) H/F
Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client. Important : des compétences confirmées en data science liée à la RAG sont attendues. Compétences : • Une expérience confirmée en tant que Business Analyst est impérative. • La maitrise confirmée de l'IA générative et de la RAG est impératif. • Des expériences en data science sont nécessaires. • Capacité à rédiger des documents et synthétiser l'information. • Capacité à trouver des solutions aux problèmes que les métiers peuvent rencontrer. • Capacité à piloter une phase de test et valider que le produit qui permettra de servir les cas d'usages métiers. Softskill : • Excellentes capacités d’intégration, de facilitateur et de pilotage de projets. • Excellentes capacités rédactionnelles et de présentation orale. • Coordination, rigueur, sens du service et du dialogue. • Capacité d’initiative et force de proposition. • L'anglais courant est impératif pour ce poste. Niveau du consultant attendu : Diplômé Bac+5 d’une école d’ingénieur ou équivalent.

Mission freelance
Data Engineer (F/H)
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 Freelance OU portage (450-550€/j) – 🏠 3 jours de télétravail par semaine – 📍 Montpellier (34) – 🛠 Expérience de 4/5 ans min. Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous recherchons pour notre client un Data Engineer . 💻💼 🎯 Voici un aperçu détaillé de vos missions : - Participer à la modernisation de la plateforme data en migrant les systèmes existants vers une architecture moderne basée sur les technologies cloud et les bonnes pratiques Data Engineering, - Construire et maintenir des pipelines de données robustes, scalables et automatisés pour alimenter la nouvelle Data Platform (Snowflake, DBT, Python, AWS, Kubernetes), - Travailler en étroite collaboration avec les équipes produit, data science et développement pour garantir la qualité, la cohérence et la disponibilité des données, - Mettre en place les bonnes pratiques de développement et d’exploitation des flux de données, notamment en assurant la qualité, la traçabilité et la sécurité des données, - Contribuer à l’implémentation de briques d’intelligence artificielle, en collaboration avec les data scientists, en garantissant la disponibilité des données nécessaires et la performance des traitements, - Participer à la migration des données depuis les systèmes legacy () vers des environnements modernes, en respectant les contraintes de qualité et de continuité de service, - Assurer une veille technologique sur les outils et pratiques en data engineering, sans pour autant viser un rôle de leadership technique (Tech Lead non souhaité pour ce poste).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.