Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)
 
            Mission freelance
            
        Chef de projet data/BI
      
 Description détaillée Gestion de Projet : Piloter les projets ETL et BI depuis la phase de conception jusqu'à la mise en production, en veillant au respect des délais, budgets et ressources. Élaborer et suivre les plannings, les livrables et les indicateurs de performance des projets. Coordination et Communication : Animer et coordonner les équipes techniques et fonctionnelles pour assurer une bonne collaboration. Organiser des réunions de suivi de projet et des comités de pilotage, et rédiger les comptes-rendus associés. Solide expérience en gestion de projets, idéalement dans un contexte ETL/BI, avec une connaissance approfondie des technologies utilisées par le service. 15 services ETL et BI managés : PowerBI, QlikView, Business Object, Cognos, Tableau, SSRS Informatica Power Center, Semarchy, IBM Datastage, SSIS Informatica Datamasking, Denodo, Dataïku, Alteryx, Amadea Connaissance des outils DevOps et des pratiques Agile, avec une expérience des logiciels tels que Bitbucket, Jenkins, Artifactory, Ansible Tower, Jira. La pratique de l’anglais courant est indispensable (à l’oral comme à l’écrit) en raison des échanges fréquents avec certaines équipes basées à Porto et avec nos fournisseurs. Compétences techniques ETL - Confirmé - Impératif JIRA - Confirmé - Impératif powerBI - Confirmé - Important informatica - Confirmé - Serait un plus Connaissances linguistiques Anglais Professionnel (Impératif)
 
            Offre d'emploi
            
        Développeur Mainframe Cobol / JCL
      
 Description du poste Nous recherchons un Développeur Mainframe confirmé pour rejoindre une squad dédiée au domaine Risques, dans un contexte réglementaire stratégique. Vous participerez à la conception, au développement et aux tests de traitements mainframe en lien avec les Business Analysts et l’équipe produit. Vous contribuerez à la mise en œuvre et à la maintenance des applications qui alimentent les reportings réglementaires et les données transmises aux équipes centrales. Votre rôle consistera à : Concevoir, développer et tester des traitements en environnement mainframe (COBOL, JCL) Maintenir la documentation technique des développements Participer aux livraisons et appliquer les process de mise en production Collaborer avec le Product Owner, le Scrum Master, les Business Analysts et les autres membres de la squad Contribuer aux échanges avec les pôles utilisateurs et les équipes de production Stack technique utilisée : COBOL JCL z/OS JIRA Software (Agile / Scrum) SQL (Teradata, MySQL, ETL – appréciés) Windows / Linux / Java (connaissance appréciée)
 
            Mission freelance
            
        Data Analyst GCP (H/F)
      
 Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analyst GCP (H/F) à Hauts-de-France, France. Les missions attendues par le Data Analyst GCP (H/F) : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data - Réaliser les modèles sémantiques Power BI répondant aux besoins métiers
 
            Mission freelance
            
        Développeur QlikSens/Talend
      
 Data Engineer – Projet Data/BI/EDIVos missions : Collecter, transformer et intégrer des données issues de différentes sources (ERP, CRM, WMS, TMS) au sein de la plateforme décisionnelle. Développer, automatiser et maintenir des flux ETL performants et sécurisés avec Talend . Mettre en place des processus de Data Quality pour fiabiliser les informations exploitées par les métiers. Contribuer à la conception de l’architecture Data Warehouse et modéliser des schémas adaptés aux besoins analytiques. Déployer et optimiser des modèles et applications QlikSense pour rendre les données accessibles et compréhensibles. Participer à la configuration et à l’intégration des flux EDI , en choisissant les protocoles adaptés (EDIFACT, AS2, SFTP, etc.). Surveiller la performance des traitements, détecter et corriger les anomalies dans les pipelines de données. Collaborer avec les chefs de projets Data et les équipes métiers pour traduire les besoins en solutions techniques concrètes. Contribuer aux phases de tests, de validation et de mise en production des projets BI et EDI.
 
            Mission freelance
            
        DBA confirmé AWS / Postgresql / Mariadb 
      
 Nous recherchons 1 freelance DBA pour notre client, disponible ASAP. Description : Dans le cadre de la modernisation et de l’optimisation de nos systèmes de données, nous recherchons un profil hybride : DBA confirmé avec une forte culture DevOps/Cloud. Ce rôle va au-delà des missions classiques d’administration : il s’agit d’apporter une expertise sur les bases de données, d’accompagner la migration vers AWS, d’optimiser les performances et d’automatiser la gestion des environnements. 3 jours de présentiel Ouest Parisien
 
            Offre d'emploi
            
        Data Engineer
      
 Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
            Mission freelance
            
        Architecte logiciel (java, talend)
      
 . Description du Poste En tant qu'Architecte Développement Java Talend, vous serez chargé de la conception, de l'architecture et de l'implémentation de solutions basées sur les technologies Java et Talend pour accompagner les projets de transformation numérique et d'intégration de données. 2. Responsabilités - Concevoir et développer des architectures robustes et évolutives pour l'intégration de données - Garantir l'alignement technique avec les exigences fonctionnelles et non fonctionnelles du projet - Collaborer avec les équipes de développement, de test et d'exploitation pour assurer une intégration optimale des systèmes - Assurer la documentation technique des solutions mises en place - Optimiser les performances des solutions existantes et proposer des améliorations - Assurer un rôle de support et de mentorat auprès des développeurs
 
            Mission freelance
            
        Chef de Projet Data / BI
      
 Missions principales:Gestion de projet Piloter les projets ETL et BI de bout en bout (cadrage, conception, développement, tests, mise en production, suivi post-déploiement). Assurer le respect des délais, budgets et ressources . Définir, suivre et mettre à jour les plannings, livrables et KPI projet. Garantir la qualité des livrables et l’alignement avec les besoins métiers. Coordination et communication Animer et coordonner les équipes techniques et fonctionnelles. Organiser et conduire les réunions de suivi et les comités de pilotage . Rédiger et diffuser les comptes rendus et documents de suivi. Assurer le lien entre les équipes internes (techniques, métiers) et les partenaires/fournisseurs. Expertise technique et environnement Participer aux choix techniques et à l’architecture des solutions BI/ETL. Apporter un support technique et méthodologique aux équipes projet. Contribuer à l’amélioration continue des processus et outils Data & BI. Compétences techniques attendues ETL : Confirmé – impératif JIRA : Confirmé – impératif PowerBI : Confirmé – important Informatica : Confirmé – serait un plus Connaissance des principaux outils BI : PowerBI, QlikView, Business Objects, Cognos, Tableau, SSRS . Maîtrise des solutions ETL : Informatica Power Center, Semarchy, IBM Datastage, SSIS . Connaissance d’outils complémentaires : Informatica Datamasking, Denodo, Dataïku, Alteryx, Amadea . Connaissance des outils DevOps et environnements Agile : Bitbucket, Jenkins, Artifactory, Ansible Tower, Jira . Compétences linguistiques Anglais professionnel impératif : à l’oral comme à l’écrit (collaboration avec les équipes de Porto et fournisseurs internationaux). Profil recherché Formation supérieure Bac +5 (école d’ingénieur, informatique, MIAGE ou équivalent). Expérience confirmée en gestion de projets IT/Data/BI , idéalement dans un contexte ETL/BI. Excellentes capacités d’organisation, de coordination et de communication. Leadership, sens du service et capacité à travailler dans un environnement international et multi-projets.
 
            Offre d'emploi
            
        Data Engineer TALEND (H/F)
      
 Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Comprendre et traduire les besoins métiers : Animer et collaborer étroitement avec les experts métier au travers d'ateliers d'idéation pour identifier les problématiques opérationnelles afin de proposer des solutions à mettre en œuvre, - Analyser et explorer les données : Comprendre, analyser et valoriser les données de différentes natures - Définir les modèles : Sélectionner ou créer les modèles mathématiques les plus pertinents et adaptés à chaque problématique, et réaliser leur apprentissage, - Déployer les modèles : Collaborer avec les équipes de Data Ingénierie au déploiement des modèles entrainés en production, et accompagner les équipes de développement produit dans leur utilisation, - Analyser les performances des modèles : Assurer la mesure de la performance et le suivi de la dérive des modèles en production. Reporter sur la performance opérationnelle des modèles au travers d'indicateurs clés et les partager avec les directions métiers, Compétences requises : - Maitrise de TALEND - Analyse de données
 
            Mission freelance
            
        INTÉGRATEUR TECHNIQUE -EAI / SAP PO
      
 l’Intégrateur Technique intervient en tant que référent sur les domaines de l’interopérabilité et de l’intégration technique des applications du Groupe de notre client. Il/elle assure la supervision des activités techniques liées aux projets et au support , garantit la cohérence technique des solutions déployées et contribue à la performance et à la fiabilité du système d’information. Missions principales : 1. Intégration technique Garantir l’intégration technico-fonctionnelle des différentes briques de l’architecture applicative du Groupe. Assurer la bonne intégration technique des projets et des évolutions dans les environnements existants. Collaborer étroitement avec les équipes Infrastructures et les Architectes techniques/fonctionnels. Veiller au respect des standards et bonnes pratiques d’architecture définis au sein de la DSI. 2. Interopérabilité Piloter les lots technico-fonctionnels d’interopérabilité (EAI, ETL, EDI, SAP PO, etc.) dans le cadre des projets SI. Valider les dossiers d’architecture et d’exploitation. Participer à la définition, au chiffrage et à la mise en œuvre des interfaces techniques. Assister les équipes projets lors des phases de tests et de recettes. Garantir la qualité, les délais et les budgets des livrables selon la méthodologie en vigueur. Mettre en place et maintenir les processus de support liés à l’interopérabilité. 3. Support & Projets techniques Contribuer à ou piloter des projets techniques (upgrades infra/applis, migration, etc.) en lien avec les équipes Infrastructure. Participer au maintien en condition opérationnelle des solutions d’intégration. Être le point d’entrée privilégié pour les sujets techniques relatifs à l’intégration applicative. Relations internes et externes Internes : Chefs de projet SI, équipes Infrastructure, Key Users métiers, Responsable Delivery & Integration. Externes : Partenaires technologiques, éditeurs et fournisseurs de la DSI. Profil recherchéFormation Bac +5 (École d’ingénieur ou université) en Informatique ou équivalent. Expérience Minimum 5 ans d’expérience au sein d’une DSI ou d’une SSII, sur des fonctions similaires. Expérience confirmée en intégration d’applications et interopérabilité (EAI, ETL, EDI, SAP PO). Bonne maîtrise des infrastructures techniques (VMware, Linux, Windows). Expérience en management de projet technique . Compétences techniques Outils et méthodes d’intégration (EAI, ETL, EDI, SAP PO idéalement). Méthodes de gestion de projet. Connaissance des processus ITIL et outils de Service Desk. Maîtrise des outils de ticketing et de gestion de configuration. Bonne compréhension des modèles de données et des environnements ERP (SAP notamment). Anglais courant indispensable. Compétences comportementales (savoir-être) Rigueur, méthode et esprit d’analyse. Leadership et capacité à fédérer. Aisance relationnelle et sens du service. Excellente communication écrite et orale. Sens des priorités et de l’organisation. Proactivité, anticipation des risques et force de proposition. Capacité à évoluer dans un environnement complexe et matriciel.
 
            Mission freelance
            
        Data Analyste H/F
      
 Contexte Notre client poursuit sa stratégie Data en renforçant ses équipes autour du développement et de la maintenance de solutions Data Analytics . L’objectif est d’exploiter pleinement la donnée pour optimiser la prise de décision et accompagner les métiers dans leurs usages, en s’appuyant sur les environnements SQL, ETL, Power BI, Looker et GCP . Missions Le consultant interviendra au sein d’une équipe agile et sera en charge de : Analyser les besoins utilisateurs et proposer des solutions adaptées. Concevoir, développer et maintenir les solutions Data (alimentation, stockage, modélisation, restitution). Participer au run et assurer la qualité des développements. Optimiser le patrimoine existant et contribuer à la construction du nouveau socle Data sur Google Cloud Platform . Développer des modèles sémantiques Power BI en réponse aux besoins métiers. Participer aux rituels agiles et accompagner les métiers dans l’acculturation Data et les bonnes pratiques.
 
            Mission freelance
            
        Lead DATA DATABASE - DATA Engineer Bases de Données
      
 Dans le cadre d’un projet de développement visant à construire une base de données interne intégrant des workflows opérationnels, le Tech Lead Data Base interviendra au sein d’une équipe projets de données . Il aura pour rôle d’assurer la coordination technique , la conception data et l’ intégration de la base dans l’environnement SI de l’entreprise. Responsabilités principales Cadrer les besoins et proposer des évolutions techniques et fonctionnelles du produit existant. Assurer la liaison avec des sociétés de développement externalisées : suivi des exigences, respect des délais, qualité des livraisons. Piloter les scripts de développement et définir la stratégie de déploiement (intégration continue, automatisation, mise en production). Concevoir et intégrer la base de données dans l’architecture SI et la stratégie globale de données. Produire la documentation et les rapports, assurer une communication régulière auprès des parties prenantes. Profil recherché Compétences techniques Ingénierie de données (Data Engineering) : pipelines de données, modélisation, intégration ETL/ELT. Architecture de données (Data Architecture) : modèles de données, urbanisation SI, intégration dans un écosystème complexe. Solide maîtrise des bases de données relationnelles (PostgreSQL, Oracle, SQL Server). Connaissances en gouvernance des données : qualité, sécurité, conformité. Familiarité avec le Cloud (Azure, AWS, GCP) appréciée. Compétences fonctionnelles & méthodologiques Expérience en gestion de projets Data/IT et coordination de prestataires externes. Bonne compréhension des rôles Data Owner / Data Steward et des enjeux de data management . Capacité à documenter et produire des rapports clairs et synthétiques. Pratique des méthodes Agile / Scrum . Expérience & formation 5 à 10 ans d’expérience en ingénierie et architecture de données dans des environnements SI complexes. Expérience confirmée en pilotage technique et coordination multi-acteurs. Formation supérieure en informatique, data engineering ou équivalent . Anglais professionnel. Qualités personnelles Leadership technique, autonomie et rigueur. Excellentes capacités de communication et de coordination. Esprit d’analyse, de synthèse et orientation résultats. Conditions Poste basé à Pau , avec 2 jours maximum de télétravail par semaine .
            Offre d'emploi
            
        Data engineer Talend/GCP
      
 Et si c’était vous notre prochain(e) Data Engineer ? Chez CharliGroup, on pense qu’un bon environnement de travail, ce n’est pas juste une stack à jour ou des bureaux sympas. C’est aussi (et surtout) une équipe bienveillante, un accompagnement sincère et des opportunités d’évoluer à votre rythme, avec du sens. Aujourd’hui, on recherche un(e) Data Engineer Talend/GCP pour renforcer notre équipe tech, dans le cadre d'une mission chez un client dans le secteur du Retail . Mais pas n’importe comment : on vous propose un vrai parcours, avec un temps dédié à la formation, au partage de connaissances, et à votre montée en compétences. Vous intervenez sur des projets concrets, à fort impact, tout en bénéficiant du soutien de la communauté CharliGroup. Missions : • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité.
            Offre d'emploi
            
        Consultant Talend / Ingénieur Développement Middleware (H/F)
      
 Dans le cadre du renforcement des équipes Middleware, nous recherchons un(e) Consultant(e) Talend expérimenté(e) pour contribuer aux projets d’intégration et d’échanges de données au sein d’un environnement international, et ce sur un format de pré-embauche . Missions principales : Concevoir, développer et maintenir des flux Talend dans un contexte multi-systèmes. Participer à l’administration des échanges (monitoring, correctifs, supervision). Contribuer aux actions d’industrialisation et de déploiement des interfaces. Assurer un support technique et fonctionnel auprès des équipes internes. Collaborer étroitement avec les métiers et le management IT.
 
            Offre d'emploi
            
        CHEF DE PROJET ETL TALEND 
      
 Bonjour, Pour le compte de notre client, nous recherchons un chef de projet ETL Talend. Dans un contexte de mise en œuvre du schéma directeur informatique, notre client déploie la solution SAP. De nombreux nouveaux flux doivent être développés avec l’ETL Talend. Rattaché(e) à l’équipe DATA, au sein de la Direction Systèmes d’Informations, le chef de projet ETL aura à coordonner et suivre l’ensemble des activités nécessaires à la réalisation des flux de données entre les différentes briques applicatives du SI. Missions du poste : - Relecture, aide technique puis validation avec le chef de projet métier de la bonne qualité des spécifications des travaux ETL Talend à fournir aux développeurs - Identifier les risques et prévoir les charges liées aux spécifications - Suivi et contrôle de l’avancement de ces travaux entre le métier et le développeur - Faire le relais et le facilitateur entre les équipes métiers (francophones) et les développeurs (anglophones) - Accompagner le développeur dans ces choix techniques - Assurer le bon niveau de "reporting" auprès de son responsable hiérarchique RATTACHEMENT HIERARCHIQUE Responsable de domaine data
            Mission freelance
            
        Architecte / Expert MongoDB Atlas sur Azure
      
 Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Déposez votre CV
-  
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
 -  
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
 -  
100% gratuit
Aucune commission prélevée sur votre mission freelance.