Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 314 résultats.
Mission freelance
Scrum master Data H/F
Publiée le
Agile Scrum
Azure Data Factory
Google Cloud Platform (GCP)
2 ans
500-600 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Scrum master Data H/F à Paris, France. Les missions attendues par le Scrum master Data H/F : L’objectif est de mettre en place un cycle agile sur l’ensemble des activités de l'équipe de Dev du département et de piloter le délivery (jalon, budget, RAF fonctionnel, qualificiation des chiffrages, ...) ainsi que d'être le point d'entrée de l'équipe de dev dans les différentes instances. Le savoir être sur ce poste sensible est important puisque ce poste est une vitrine de la qualité du travail fait par l'équipe. Une rigueur d'exécution et une qualité de communication est nécessaire
Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)
Publiée le
Snowflake
6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Offre d'emploi
Architecte Big Data GCP & Cloudera (H/F)
Publiée le
Cloudera
Google Cloud Platform (GCP)
1 an
55k-70k €
550-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Architecte Big Data confirmé maîtrisant les environnements GCP (Google Cloud Platform) et Cloudera , capable d’allier vision stratégique et excellence technique. En tant qu’Architecte Big Data, vous interviendrez sur des projets de transformation data à grande échelle : Concevoir et faire évoluer des architectures Big Data hybrides (Cloud & on-premise). Définir la stratégie de données et les bonnes pratiques de gouvernance, sécurité et performance. Encadrer les équipes techniques (Data Engineers, DevOps, Data Scientists). Piloter les choix technologiques sur les écosystèmes GCP (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc) et Cloudera (CDP, HDFS, Hive, Spark, Kafka) . Garantir la scalabilité, la résilience et l’optimisation des coûts des plateformes data. Participer aux revues d’architecture et à la veille technologique sur les solutions Cloud et Open Source.
Mission freelance
DIRECTEUR DE PROJET INFRASTUCTURES DATA CLOUD
Publiée le
Azure
microsoft
18 mois
100-600 €
Paris, France
Télétravail partiel
CONTEXTE : EXPERIENCE : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Directeur de projet Spécialités technologiques : Cloud, Infrastructure, Sécurité informatique, Gestion de la Connaissance, Reporting Le projet Data Cloud est porté par la Branche Grand Public et Numérique Actuellement, Le Groupe possède 8 plateformes Data on-premise. L’objectif du projet Data Cloud est de déployer une plateforme Cloud Lakehouse mutualisé afin de rationaliser les plateformes existantes, optimiser les couts et développer des usages à forte valeur L’infrastructure technique du projet Data Cloud sera à déployer chez Microsoft Azure en utilisantprincipalement le service Azure Databricks Toutefois, tous les services déployés chez Azure seront à homologuer par la direction i-TEAM/STRS afin d’assurer la sécurité de notre SI. Des experts techniques du Cloud issus de la direction i-TEAM/AIDC et des ressources externes de chez Microsoft feront également partie de cette équipe projet afin d’accompagner le projet Data Cloud dans le déploiement de cette infrastructure Cloud L’ensemble de ces travaux d’homologation, de déploiement et d’accompagnement d’expertise Cloud seront à piloter par le Directeur de Projet recherché MISSIONS Un Directeur de projet est donc recherchée afin de piloter les travaux d’Infrastructures demandés par le projet Data Cloud aux directions i-TEAM/AIDC et i-TEAM/STRS Dans ce cadre, les directions i-TEAM/AIDC et i-TEAM/STRS souhaitent être accompagné afin de : • Diriger le projet en : o Garantissant la pertinence et l’opportunité du déploiement des services d’infrastructures o Etant responsable de toutes les décisions importantes o Validant les recettes définitives du projet en lien avec le client o Menant toute action pour mener le projet à bonne fin o Gérant et animant la communication auprès des équipes et des différentes instances o Préparant et pilotant la conduite du changement • Gérer les ressources en : o Conduisant, optimisant et en étant responsable de l'ensemble des ressources du projet (humains et budget) o Etant responsable de la gestion financière du projet ainsi que de toutes les exigences définies (qualité, coût, délai...) Expertise souhaitée 2.4. Livrables attendus • Plan de l'organisation du projet et livrables associés • Reporting sur l'alignement du projet • Livrables de la comitologie projets • Plan de communication / conduite du changement et livrables associés • Plan de gestion des ressources et livrables associés 2.5. Profils/compétences souhaités • Maitrise de l'élaboration et la réalisation des plans relatifs aux produits/services stratégiques pour Le groupe. • Expertise dans la prise en compte des besoins, de leurs évolutions et dans l'accompagnement à la prise de décision raisonnée. • Maitrise de la gestion de la relation client • Expertise dans la gestion de projet et portefeuille de projets. • Très bonne connaissance et capacité à intégrer la dimension développement durable dans les solutions informatiques • Maitrise des risques et du management de la qualité et de la sécurité informatique (normes, bonnes pratiques, gestion de la connaissance, réglementation,...) • Maitrise de la gestion des compétences sur le projet • Capacité à intégrer le contexte et le SI client concerné par le projet • Maitrise de l’Infrastructures SI et bonne connaissance de la technologie Cloud
Offre d'emploi
Data Engineer Cloud GCP BigQuery F/H
Publiée le
50k-70k €
Ivry-sur-Seine, Île-de-France
Télétravail partiel
Description de la Mission : Analyse et Conception Participer à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. Utiliser l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en oeuvre des projets. Être force de proposition sur l'amélioration de notre stack Data. Développement et Intégration Concevoir, développer et maintenir les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. Optimiser les performances des développements pour assurer une disponibilité et une fiabilité maximale. Identifier et résoudre les goulots d'étranglement et les problèmes de performances dans les flux de données. Qualité, Maintenance et Supervision Mettre en place des processus et des contrôles pour garantir la qualité des données. Concevoir et mettre en oeuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. Assurer la maintenance corrective ou évolutive. S'assurer de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe. Documentation, Support, Pilotage Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation). Réaliser la recette technique et participer à animer la recette fonctionnelle avec les utilisateurs et le PO. Faire le reporting d'avancement des travaux. Supporter le déploiement. Environnement Technique : Langages/Framework : SQL, BigQuery, Python, Shell. Outils : GCP (BigQuery, DataForm, PubSub, Dataflow, Cloud Composer, Cloud Run, Compute Engine), Gitlab, Terraform, Talend. Base de données : BigQuery, Teradata, SQL Server, IBM DB2.
Mission freelance
Chef de Projet Delivery IA / Data – Agence Digitale
Publiée le
Data science
Preuve de concept (POC)
3 mois
440-600 €
Paris, France
Télétravail partiel
🔹 Contexte : Nous recherchons un Chef de Projet Delivery spécialisé en IA/Data pour accompagner une agence digitale dans le cadrage, le pilotage et la mise en production de projets innovants autour de la data et de l’intelligence artificielle. 🔹 Compétences obligatoires : Ancien Data Scientist (solide compréhension technique) Maîtrise des modèles de données Expérience en POC & prototypes Animation d’ateliers et cadrage fonctionnel Pilotage de delivery (du design à la mise en production) 🔹 Profil recherché : +7 ans d’expérience en Data/IA dont plusieurs en gestion de projet Capacité à traduire les besoins métier en solutions data concrètes Aisance en communication, animation et coordination d’équipes pluridisciplinaires 🔹 Conditions de mission : Lieu : Paris Nord (2 jours de télétravail/semaine) Démarrage : ASAP Durée : longue mission (renouvelable)
Mission freelance
CONSULTANT MOA / DATA QUALITY
Publiée le
Microsoft Excel
Python
SQL
12 mois
400-550 €
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre d’un programme de mise en conformité réglementaire et d’amélioration de la qualité des données, la mission vise à renforcer la fiabilité du référentiel client et à assurer sa cohérence avec les autres référentiels du groupe. Objectifs principaux Identifier et formaliser les améliorations techniques et opérationnelles à mettre en œuvre pour fiabiliser le référentiel. Définir et piloter les actions fonctionnelles (MOA) en coordination avec les équipes IT et métiers. Intégrer et suivre les indicateurs de qualité produits par les équipes Data et les programmes de gouvernance. Exploiter les outils d’analyse et de reporting (bases de données, Python, Excel, Business Object, Tableau) pour produire les indicateurs de pilotage de la qualité. Participer aux instances de gouvernance : préparation des réunions, rédaction de comptes rendus, synthèses et supports. Produire la documentation fonctionnelle et procédurale (spécifications, procédures, guides utilisateurs). Profil recherché Consultant MOA / Data Quality disposant d’une solide expérience en gestion de référentiels et gouvernance de données. Bonne connaissance des processus de qualité et d’intégrité des données dans un environnement réglementaire (type Bâle III, conformité groupe, etc.). Maîtrise des outils de pilotage et d’analyse de données : SQL, Python, Excel, Business Object, Tableau ou équivalents. Capacité à interagir avec des interlocuteurs variés (IT, métiers, data management) et à formaliser des besoins fonctionnels complexes . Excellentes compétences rédactionnelles (spécifications, procédures, synthèses de réunions). Esprit analytique, rigueur, autonomie et sens de la coordination. ASAP ANGLAIS
Offre d'emploi
Data Analyst H/F
Publiée le
Data analysis
Microsoft Power BI
SQL
Île-de-France, France
Télétravail partiel
Les principales missions sont les suivantes : -Sécuriser la gestion de l'actualisation de l'offre Epargne Financière au sein de LEA en lien avec les équipes partenaires distributeurs et producteurs -Faire évoluer la solution, dans le respect des standards up to date : Implémentation de change à valeur ajoutée pour le business, traitement de la dette technique -Contribuer à la gestion du RUN, à l’augmentation de la robustesse de la solution -Renforcer la supervision et la qualité de données Ce serait un plus si vous aviez de l'expérience en : Visual Basic
Mission freelance
Ingénierie et Pilotage de Projets de Transformation Data (Assurance)
Publiée le
Data governance
12 mois
400-850 €
Paris, France
Télétravail partiel
Ingénierie et Pilotage de Projets de Transformation Data (Assurance) Nous recherchons des consultants (Ingénieur Data, Analyste Fonctionnel Data ou Directeur de Programme Data) pour le compte d’un de nos clients assurance dans le cadre d’un projet de transformation et de modernisation de son écosystème Data. Contexte Notre client, un acteur majeur du secteur de l' assurance , est engagé dans un programme stratégique visant à moderniser son paysage applicatif analytique et à optimiser son infrastructure Data. Ce programme inclut l'intégration de données au sein de son datalakehouse et la refonte d'applications orientées client. Dans ce cadre, nous recherchons plusieurs profils Experts et Seniors pour garantir le succès de cette transformation Data. Rôles et Responsabilités Selon votre expertise, vous interviendrez sur l'une des missions suivantes : Pilotage de Programme Data : Diriger la modernisation d'applications analytiques ou assurer la gestion de projet Agile/Product Management pour des applications client. Ingénierie Data & Développement : Assurer la conception, la maintenance et l'industrialisation des applications web et applications orientées client, y compris le développement spécifique. Analyse Fonctionnelle Data : Prendre en charge l'analyse fonctionnelle des besoins en intégration de données vers le datalakehouse ou pour la maintenance d'applications web. Compétences Clés & Techniques Une expertise de niveau Expert ou Senior est exigée sur les points suivants : Expertise Métier : Solide connaissance du secteur de l'Assurance (ou Banque/Finance) et des problématiques de données associées. Compétences Data : Maîtrise des concepts de Data Integration, Data Lakehouse, et des outils ETL (Informatica IDQ, Data Stage, etc.). Technologies : Cloud & DevOps : AWS Cloud (EKS, ArgoCD), Azure, GIT. Langages & Frameworks : JAVA (8, 11, 17), Springboot, NodeJS, ANGULAR, API, REST, SOAP. Bases de Données : DB2, Oracle, Mainframe, NDBX. Outils Complémentaires : IBM WAS, SAS, Microstrategy, OneBI, Power BI, Cobol, JCL, PL/SQL (selon le poste visé). Anglais : Capacité à travailler dans un environnement international, la maîtrise de l'anglais technique étant un prérequis. Détails de la Mission Localisation : Paris (Île-de-France). Date de Démarrage : ASAP. Durée : 12 mois. Taux Journalier Cible (TJM) : Les TJM cibles varient en fonction du rôle et de l'expertise (e.g., Program Director <850€, Data Engineer <950€, Functional Analyst <450€, etc.).
Offre d'emploi
Lead python et Data
Publiée le
Modèle Conceptuel des Données (MCD)
Modélisation
Pandas
2 ans
40k-60k €
400-600 €
Rueil-Malmaison, Île-de-France
Télétravail partiel
• Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…)
Mission freelance
PO Data expert
Publiée le
Analyse
Méthode Agile
SQL
12 mois
580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "PO Data expert" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein de la Direction Performance & Data du groupe, la mission s’inscrit dans le cadre d’un programme stratégique de refonte des données Ventes & Client. L’objectif est de fiabiliser et valoriser les données au service des métiers en transformant les jeux de données existants en Data Products clairs, robustes et pérennes — tout en modernisant l’écosystème décisionnel actuel vers une architecture Lakehouse et une approche Data Mesh. Le prestataire évoluera dans un environnement mixte, combinant : 🔹 des composants legacy à maintenir et fiabiliser pour garantir la continuité opérationnelle, 🔹 des projets de refonte et d’industrialisation à mener dans une logique produit. 🧭 Rôle et responsabilités Le Product Owner Data pilote une équipe pluridisciplinaire (Produit, Tech, Data) et aura pour mission de : Définir et piloter la roadmap produit Data sur le périmètre Ventes & Client. Conduire la refonte et la valorisation des données, depuis le cadrage des besoins métiers jusqu’à la livraison des Data Products. Garantir la gouvernance, la qualité et l’exploitabilité des données. Maintenir l’existant (legacy) en assurant la continuité de service et la fiabilité des indicateurs clés. Collaborer avec le Product Manager et les autres PO Data pour aligner la vision et prioriser les besoins. Animer la relation avec les parties prenantes métiers, en mettant l’accent sur la valeur d’usage et les indicateurs de succès. Participer activement à la communauté Produit & Data, pour partager les bonnes pratiques et faire monter en maturité l’organisation. 📦 Livrables attendus 📅 Roadmap produit claire et priorisée (vision, jalons, backlog). 📘 Cadrages et spécifications fonctionnelles (règles de gestion, contrats d’interface, indicateurs de succès). 🧩 Plan de maintien et d’amélioration continue du legacy (cartographie, suivi qualité, documentation). ⚙️ Pilotage agile des développements (ceremonies, reporting, arbitrages). 📚 Documentation consolidée : catalogue, dictionnaire de données, fiches produit, processus de gouvernance. 📊 Reporting régulier sur l’avancement, les risques et les arbitrages.
Mission freelance
Data Analyst
Publiée le
Méthode Agile
1 an
320-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
La mission de Data Analyst au sein du département IAC (Inscription, Actualisation, Contrôle) vise à accompagner la transformation de la DSI vers un mode produit en valorisant les données pour mesurer la valeur créée, le suivi des OKR et le comportement des usagers. Intégré aux équipes produit, le Data Analyst recueille, exploite et interprète les données issues du système d’information et de sources externes afin de produire des indicateurs fiables, pertinents et lisibles facilitant la prise de décision. Il accompagne les équipes dans la définition de leurs besoins, conçoit des tableaux de bord, garantit la qualité des données et contribue à diffuser une culture de la donnée. Force de proposition, rigoureux, réactif et doté d’un bon esprit analytique et relationnel, il maîtrise les outils de consolidation tels que Dataiku et SQL, et met son expertise au service de la performance et de la mesure de la valeur des produits du département.
Mission freelance
Data Migration Lead (SAP S/4HANA Greenfield)
Publiée le
Data management
3 ans
680-900 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Architect / Data Migration Lead pour rejoindre l’équipe Data & AI d’un acteur majeur de l’industrie des boissons, reconnu pour la qualité de ses produits et sa présence internationale. Missions principales : Piloter et coordonner le stream Data Migration dans le cadre d’un projet SAP S/4HANA Greenfield. Définir la stratégie de migration de données et assurer son alignement avec les autres streams du programme. Planifier, suivre et assurer le reporting des activités de migration. Coordonner les différentes parties prenantes (équipes techniques, fonctionnelles, métiers) sur les phases d’extraction, transformation et chargement des données. Superviser la conception et le développement des programmes de migration. Organiser et suivre les mocks de migration (planning, exécution, reporting). Compétences recherchées : Expertise en migration de données SAP (S/4HANA, Greenfield) . Solides connaissances en Data Architecture, Data Access, Data Taxonomy . Expérience en pilotage transverse avec équipes techniques et métiers. Très bon niveau d’anglais. Modalités : Mission longue durée (21 mois). Localisation : Paris, avec 2 jours de télétravail par semaine. 📩 Si vous êtes intéressé(e), merci de me contacter en partageant votre CV actualisé et vos disponibilités. 📍 Lieu : Paris (2 jours de télétravail par semaine) 🗓 Durée : 25/09/2025 – 30/06/2027 🌐 Langue : Anglais (obligatoire)
Offre d'emploi
Data ingénieur NiFi - Finance et banque H/F
Publiée le
40k-50k €
France
Télétravail partiel
Contexte de la mission : Viveris vous propose un poste de Data Engineer au sein de la Business Unit Épargne et Services Financiers. Dans le cadre d'un nouveau projet visant à centraliser, fiabiliser et gouverner l'ensemble des données relatives aux instruments financiers, vous intégrerez la squad Data, composée de trois développeurs Data, d'un architecte technique, d'un business analyst et d'un product owner. Vous devrez maîtriser l'environnement NiFi ainsi que l'architecture des pipelines de données, qui présente une certaine complexité avec de nombreux flux et interactions entre les différentes tâches. Responsabilités : - Concevoir et développer des pipelines de données ; - Développer et intégrer sur Apache NiFi ; - Contrôler la qualité et la traçabilité ; - Rédiger la documentation et partager vos connaissances.
Offre d'emploi
Consultant Dev / Tests Techniques Angular & Python- Nantes (H/F)
Publiée le
Angular
API REST
CI/CD
1 an
Saint-Herblain, Pays de la Loire
🔍 Mission Vous interviendrez en tant que Consultant Développeur / Tests Techniques au sein d’une équipe dédiée à l’homologation technique des applications de banque à distance. Votre rôle sera partagé entre : Le développement de nouvelles fonctionnalités Front-Office / Back-Office d’un portail transverse. La réalisation de tests techniques (performance, charge, exploitabilité) sur des applications et infrastructures conteneurisées. 💡 Compétences requises Maîtrise confirmée en Angular (v19) et Python (3.12, Flask, API Rest) Expérience en Docker / OpenShift Connaissances en méthodologie de tests techniques / performance (TNR, HTTP) Atouts supplémentaires : CI/CD ( Jenkins, Bitbucket, XL-Deploy, XL-Release ), environnements Java JEE, connaissance du métier bancaire. 📊 Vos responsabilités Concevoir, développer et maintenir les fonctionnalités FO/BO du portail transverse Participer aux sprints Agile (Kanban/Scrum), contribuer à la documentation et relire les PR Préparer et exécuter des tests techniques (Néoload, serveurs distribués) Identifier les dysfonctionnements, analyser les résultats et proposer des améliorations Rédiger des rapports détaillés pour appuyer les décisions GO/NOGO en mise en production Contribuer à l’ industrialisation et à l’automatisation des tests 📅 Livrables attendus Fonctionnalités développées et validées (FO/BO) Documentation technique et rapports de tests Scénarios et plans de tests capitalisés pour les futures intégrations Dashboards et outils techniques pour améliorer la qualité et la performance Lieu : Saint-Herblain (Nantes) – 3 jours sur site
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
Publiée le
Azure
BI
24 mois
275-550 €
Massy, Île-de-France
Télétravail partiel
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1314 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois