Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 211 résultats.
Mission freelance
Data Engineer cloud Google (GCP)
Publiée le
API
Google Cloud Platform (GCP)
Python
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Notre stack technique est principalement constitué de Python, Spark, SQL, BigQuery, Dataplex pour la qualité des données, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. mission de l’ équipe 1. Déployer les datasets normés sur un ou plusieurs des data domain 2. Accompagner les utilisateurs des datasets normés dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets MISSIONS : Dans un premier temps, la prestation consiste à : • Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog • Industrialiser ces contrôles grâce à Terraform et Terragrunt • Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données • Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra En marge de l’objectif de livraison de livraison précédent et en interaction avec les membres de l’équipe, la suite de la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant des flux avec l’API Collibra • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Junior : moins de 3 ans d’expérience significative dans le type d’expertise demandé • Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé • Sénior : plus de 5 ans d’expérience significative dans le type d’expertise demandé
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
Publiée le
Azure
BI
24 mois
275-550 €
Massy, Île-de-France
Télétravail partiel
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Offre d'emploi
Consultant Data Quality Solvabilité 2
Publiée le
Direction de projet
70k-80k €
Paris, France
Télétravail partiel
Nous sommes à la recherche d'un consultant en qualité de données , avec des connaissances en assurance et en Solvency 2. Compétences attendues : · Connaissances en : Assurance, Réglementation Solvency 2 et Data Quality · Maîtrise Excel · Connaissance QLikSense serait un plus · Disposer d’un minimum de connaissances en gestion de projet · Aisance relationnelle Merci de ne pas postuler si vous ne respectez pas les compétences attendues, principalement concernant les connaissances en assurance, Solvency 2 et Data Quality, votre candidature sera refusée. Contexte : Nous sommes un jeune cabinet de conseil en pleine expansion, spécialisé dans l’accompagnement des entreprises sur des enjeux stratégiques et opérationnels. Pour répondre à la demande croissante de nos clients, nous développons une nouvelle offre de services dédiée à la data. Un de nos clients recherche un consultant pour les aider à consolider et pérenniser l'Unité Qualité des données, notamment vis-à-vis des textes réglementaires. Prestations à réaliser : L’unité QDD a établi un socle documentaire et continue à travailler sur l’ensemble des rubriques lors d'une précédente mission. Il est attendu du consultant qu’il s’intègre au dispositif existant et contribue à l’enrichissement des travaux documentaires dans le respect du planning QDD sur les livrables suivants : Cartographie des flux (SCR de Souscription et QRT), Alimentation du Répertoire des données, Collecte et mise à jour des indicateurs et reportings de pilotage de qualité des données, Production d’indicateurs et de reportings, à la suite du plan de contrôles de 2nd Niveau, Fiches de contrôles, Supports et CR de comités. Votre salaire sera évalué selon votre expérience et sera complété de primes et avantages très rares dans des structures de notre taille.
Mission freelance
Data Analyst - ETL Informatica - 3/4 ans d'XP - 1208
Publiée le
10 mois
350-400 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Contexte Notre client dans le secteur de l'assurance recherche un Data Analyst spécialisé Informatica pour intervenir sur les flux ETL alimentant les univers de reporting (en appui au besoin BO existant). Besoin : Analyse et optimisation des jobs Informatica (extraction, transformation, chargement) Support aux évolutions de reporting et maintenance des flux data Basé sur site à Niort (présence régulière obligatoire) Responsabilités ETL Informatica (70%) Analyse, développement et optimisation de workflows Informatica Maintenance des sessions/mappings existants Gestion des incidents flux et reprise des traitements en erreur Paramétrage des sources/cibles (Oracle, SQL Server, fichiers) Data Analysis (30%) Contrôle qualité des données extraites/transformées Analyse des volumes/performances des flux ETL Support aux utilisateurs métiers sur les données alimentant les rapports Documentation des workflows et procédures ETL
Offre d'emploi
Data Analyst (F/H) – Marketing / Client / Digital
Publiée le
Data analysis
SQL
40k-47k €
Lille, Hauts-de-France
Télétravail partiel
Dans le cadre d’un nouveau projet stratégique, nous recrutons un Data Analyst (F/H) pour intervenir chez l’un de nos clients finaux, un acteur majeur du retail , reconnu pour son ambition digitale et sa culture orientée client. Le périmètre est multi-domaines, avec une forte dominante ( ~50% des sujets ) sur les enjeux Marketing, Client et Digital . Vos Missions : du cadrage à la décision Votre rôle est d'accompagner les métiers dans leurs décisions stratégiques via des analyses claires et actionnables. Cadrage métier : Échanger avec les opérationnels pour comprendre leurs objectifs et leurs irritants. Reformuler les besoins et proposer des angles d'analyse pertinents. Conception méthodologique : Définir et valider des protocoles de tests (A/B testing, mécaniques commerciales) pour mesurer l'impact réel des actions. Réalisation des analyses : Produire les extractions et analyses principalement en SQL . L'usage de Python est un plus apprécié. Restitution & Recommandation : Traduire les chiffres en insights. Produire des supports adaptés à vos interlocuteurs (Métier, Produit, Direction). Collaboration : Travailler en synergie avec les Product Owners et contribuer au partage de connaissances au sein de l'équipe Data.
Mission freelance
Data Engineer Manager
Publiée le
Azure
Databricks
Snowflake
6 mois
420-490 €
Libourne, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer Manager. Secteur d'activité du client final : santé Contexte : le Client recherche un profil senior avec une expérience confirmée de Data Engineer en environnement complexe, connaissant les DataPlateforms, maitrisant Databricks et/ou Snowflake, idéalement sur Azure. Démarrage : immédiatement Autre prérequis : Expérience en migration de plateformes Exépérience en gestion d'équipes mixtes (internes, consultants, offshore/AMS)
Mission freelance
Data Analyst
Publiée le
Cognos
Microsoft SQL Server
PowerBI
24 mois
100-530 €
Mer, Centre-Val de Loire
Télétravail partiel
Le service Modélisation des Données, dans le cadre de son activité projet et MCO autour de la restitution et l’analyse de données, recherche un Data Analyst. Le service Modélisation des Données est en charge du SI Décisionnel centré sur un Datawarehouse qui est la source de données pour les briques de : - Reporting/dataviz (Power BI, COGNOS) - DataScience : mise en oeuvre de cas d’usage IA Ce Datawarehouse est alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Le service Modélisation des Données intervient : - sur les aspects techniques des projets Décisionnel / Data. - dans la constitution de datamarts métier et la réalisation de dashboards / rapports - sur la gouvernance des données - Sur la mise en place d’outils IA Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il exécutera les missions suivantes : Projets métier de mise en place de SI Décisionnels : modélisation de données, conception de rapports, accompagnement des utilisateurs finaux (sur la conception de rapport, leur adoption et la prise en main des modèles de données par des publishers métier). Power BI : être le point de contact technique des utilisateurs finaux ou des Publishers de Power BI , réalisation de reporting complexes Intervention sur un projet de migration de dataplatform : refonte de reporting COGNOS/Power BI vers superset, refonte de chaînes ETL TALEND vers Dagster, conception de datamarts. Projet en agilité. Le poste a une dimension technique mais aussi une dimension relationnelle forte autour de l’analyse des besoins, leur recette et le suivi en mode projet. La sensibilité aux problématique de gouvernance des données (contribution au dictionnaire de données d’entreprise, qualité des données) est un enjeu fort du poste.
Mission freelance
Data Engineer Advanced (Scala / Spark / AWS)
Publiée le
Apache Spark
AWS Cloud
AWS Glue
1 an
Paris, France
Télétravail partiel
Contexte Nous recherchons un Data Engineer confirmé à senior pour intervenir au sein d’un grand groupe international du secteur de l’énergie . La mission s’inscrit dans un environnement data critique , lié à l’exploitation de données de marché et à la production d’indicateurs et d’alertes à forte valeur métier. Le système cible repose sur une architecture batch Big Data structurée selon une architecture médaillon (Silver / Gold) , avec ingestion multi-sources, normalisation, calculs avancés et distribution des données vers différents consommateurs métiers. Localisation : Paris (hybride) Durée : 12 mois renouvelables (jusqu’à 3 ans) Objectifs de la mission Concevoir et développer des pipelines d’ingestion et de transformation en Scala Spark Traiter, dédoublonner, normaliser et structurer des données de marché Refactoriser des imports existants afin de les rendre conformes à l’architecture médaillon Silver layer : données dédoublonnées, normalisées et structurées Gold layer : génération d’agrégats métiers (carnets d’ordres, best bid/ask, OHLC, etc.) Implémenter et challenger les règles métier en garantissant les performances, la scalabilité et la maîtrise des coûts cloud Mettre en place et maintenir les règles de Data Quality (ex. Great Expectations) et contribuer au data catalog Participer à l’amélioration des frameworks communs : monitoring, CI/CD, tests, performance, résilience et standards de développement Rédiger et maintenir la documentation technique (architecture, flux, schémas, infrastructure) Environnement technique ETL / Compute : Scala, Spark (batch) Cloud AWS : Glue Jobs, S3, Lambda, Step Functions Qualité des données : Great Expectations ou équivalent DevOps / CI-CD : Git, pipelines, bonnes pratiques d’industrialisation Environnement applicatif connexe : API REST, services backend Compétences complémentaires appréciées : Python, React Important : cette mission ne s’appuie pas sur des solutions managées de type Databricks. Compétences requisesIndispensables Minimum 5 ans d’expérience significative en Scala et Spark Expérience confirmée sur des projets Big Data / ETL à forte volumétrie Expérience pratique sur AWS (Glue, S3, orchestration) Bonne culture DevOps Autonomie, rigueur, capacité à être force de proposition Appréciées Python Développement API Connaissances de base en market data / trading (non bloquant) Process de sélection Entretien Teams de 30 minutes axé sur les expériences professionnelles Entretien Teams d’une heure axé sur les compétences techniques avec un Data Engineer de l’équipe Modalités de réponse Merci de transmettre : CV, disponibilité, TJM, localisation et un résumé des expériences Scala / Spark / AWS Glue .
Mission freelance
Data LLM Engineer - (H/F)
Publiée le
Large Language Model (LLM)
Machine Learning
Python
12 mois
520-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre de projets innovants autour de l’Intelligence Artificielle et plus particulièrement des Large Language Models (LLM) , nous recherchons un Data LLM Engineer pour rejoindre une équipe spécialisée dans la mise en place de solutions IA génératives. Missions Concevoir, développer et optimiser des pipelines de données adaptés à l’entraînement et au fine-tuning de modèles LLM. Participer à la préparation, la structuration et l’étiquetage de jeux de données massifs et hétérogènes. Intégrer et déployer des modèles de langage dans des environnements de production. Mettre en place des mécanismes d’évaluation, monitoring et amélioration continue des performances des modèles (metrics, hallucinations, biais, robustesse). Collaborer étroitement avec les Data Scientists, MLOps et Software Engineers pour industrialiser les solutions IA. Assurer une veille technologique sur les dernières avancées en NLP, LLM et IA générative.
Offre d'emploi
Développeur full stack react/.net core/Java
Publiée le
.NET CORE
Angular
Azure DevOps Services
12 mois
40k-45k €
270-320 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Dans le cadre du développement et de la maintenance des sites partenaires Cdiscount, nous recherchons un Développeur Full stack Confirmé pour rejoindre une équipe dynamique de 10 développeurs. Vous serez impliqué dans des projets à fort enjeu, où la performance et la qualité du code sont au cœur des préoccupations. Vos missions couvriront l’ensemble du cycle de vie de nos sites partenaires : Analyse des besoins des partenaires Développement et intégration des sites partenaires Résolution des incidents Déploiement en production Supervision Tests et validation En plus des compétences de développement full stack, vous avez une bonne connaissance des APIs REST et du protocole HTTP. Environnement de développement : .Net core, Java 17, Spring boot 3, Git, Azure Devops Services, Kubernetes, React, Node. INDISPENSABLE : Une expérience de 3 ans minimum en développement full stack React/.Net core ou React/Java est requise. Profil recherché : Vous êtes autonome, polyvalent et avez un bon esprit d’équipe. Vous avez une bonne capacité de coordination et de communication (français et anglais) et le sens du service.
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
Publiée le
Azure
BI
DevOps
24 mois
325-650 €
La Défense, Île-de-France
Télétravail partiel
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Offre d'emploi
DEVOPS & App INTEGRATION FACTORY
Publiée le
Administration système
Azure
Azure Data Factory
24 mois
40k-50k €
340-420 €
Hauts-de-Seine, France
Télétravail 100%
Localisation et organisation Site situé dans le 92 avec 1 jour sur site et 4 jours en télétravail par semaine. Intégré à la Direction Infrastructure Technique de la DSI. Rattaché au responsable de l’équipe « DEVOPS & App INTEGRATION FACTORY ». Rôle principal Garant de l’intégration applicative, tant technique que fonctionnelle, dans le respect de l’architecture et de la sécurité du groupe. Production de la documentation technique en lien avec les architectes et l’exploitation. Développement des pratiques DevOps. Interventions en expertise sur incidents complexes (N3). Valeur ajoutée Assemblage des composants logiciels et infrastructure selon les plans d’urbanisme, architecture et sécurité. Connaissance de l’état de l’art technique pour une intégration optimale. Amélioration de la performance, disponibilité, supervision et évolutivité du SI. Documentation et référencement technique des applications. Maîtrise des architectures IaaS, PaaS, SaaS et On-Premise. Fondamentaux du poste Leadership et compétences en collaboration et communication. Développement des compétences techniques et rédactionnelles. Activités principales Coordination de l’infrastructure pour la création de nouveaux environnements (recette, pré-production, production). Support à l’équipe projet lors des phases techniques. Définition des solutions techniques en lien avec les équipes applicatives, architectes et urbanistes. Participation à la sélection des intégrateurs lors des appels d’offres. Rédaction de documents techniques pour la construction et le maintien opérationnel. Mise en place d’environnements applicatifs, développement Infra-As-Code (HCL Terraform) et gestion de prestataires externes. Installation d’applications, création de VMs, ouverture de flux, implémentation d’intergiciels et interfaces inter-applicatives. Support à la recette, mise en production, et mise en place de la supervision applicative. Gestion des besoins/demandes, relai avec les équipes techniques et optimisation des processus d’intégration. Performance et amélioration continue Pilotage du catalogue des services d’intégration applicative. Optimisation des processus d’intégration et déploiement. Veille technologique et participation aux audits de sécurité. Démarche d’amélioration continue et capitalisation (retours d’expérience, modes). Gestion des incidents et conformité Contribution à la résolution d’incidents de production nécessitant une expertise technique. Respect des responsabilités selon le modèle de delivery SI (matrices RACI).
Offre d'emploi
Data Scientist LCB-FT
Publiée le
Data science
3 ans
40k-80k €
400-650 €
Île-de-France, France
Télétravail partiel
Contexte : La mission interviendra en appui d’une équipe projet pluridisciplinaire (métier conformité, gestion de projets, informatique, data science) en charge de mener à bien le développement interne d’une nouvelle solution informatique performante et innovante, intégrant notamment des fonctionnalités de machine Learning et d’intelligence artificielle en ligne avec les attentes du régulateur et les standards de place les plus performants. Prestations attendues : - Elaboration de nouveaux modèles de données adaptés à la Conformité, et notamment la révision de l’approche en matière de scoring, de segmentation de la clientèle, et des seuils de déclenchement des alertes sur opérations atypiques. - Réduction des alertes non pertinentes et l’optimisation des analyses et investigations - Sélection et la validation de variables pertinentes (features engineering) pour améliorer la performance des modèles de détection - Utilisation combinée de modèles de machine learning supervisés et non supervisés pour optimiser la détection des comportements suspects et réduire les faux positifs - Choix techniques et stratégiques adaptés aux enjeux et au contexte opérationnel du groupe BRED (typologie clients, offre produits et services, entités multiples…) - Accompagnement des différentes étapes des projets informatiques de la Conformité (études & cadrage, recette, suivi comités) dans le respect des échéances imposées - Contribution à la rédaction des livrables projets (expression de besoin métier, cahiers des charges, procédures) Expérience exigée dans la Lutte Contre le Blanchiment d'argent et le Financement du Terrorisme (LCB-FT)
Mission freelance
Consultant Junior AMOA Data Finance & Risques – Banque
Publiée le
Finance
4 mois
400-450 €
Paris, France
Télétravail partiel
Consultant AMOA Data Finance & Risques – Banque Nous recherchons un consultant AMOA Data Finance & Risques junior pour le compte d’un de nos clients banque dans le cadre d’un projet data Finance & Risques. La mission s’inscrit dans un projet de conception et de développement d’un datamart Opérations de marché, alimenté par l’entrepôt de données Finance et Risques. Rôles et responsabilités Recueillir et formaliser les besoins des métiers Finance et Opérations de marché Rédiger les spécifications fonctionnelles Participer à la conception fonctionnelle du datamart Analyser et valider les données financières Contribuer à la qualité, la cohérence et la traçabilité des données Organiser et conduire les tests fonctionnels Accompagner les utilisateurs lors des phases de recette et de déploiement Collaborer avec les équipes IT, data et les partenaires du projet Compétences requises Minimum 2 ans d’expérience en AMOA Data en environnement bancaire Expérience sur des projets de datamarts Finance Bonne compréhension des métiers Finance / Opérations de marché Compétences en analyse de données financières et tests fonctionnels Autonomie, rigueur et bon relationnel Détails de la mission Durée : 4 mois Démarrage : 15/02/2026 Lieu : Paris Statut : Freelance Taux : 430 € HT / jour
Offre d'emploi
Data Analyst - Power BI (H/F)
Publiée le
Microsoft Power BI
3 ans
50k-55k €
400-450 €
Île-de-France, France
Télétravail partiel
Missions Concevoir et maintenir des tableaux de bord Power BI à partir de données financières Analyser les données de comptabilité / finance (P&L, bilan, trésorerie, KPI) Automatiser les reportings financiers récurrents Modéliser les données et développer des mesures DAX Travailler en lien avec les équipes finance et comptabilité Compétences techniques Power BI Desktop & Service DAX avancé Modélisation de données Excel avancé SQL (fortement apprécié) Connaissance d’un ERP (SAP, Sage, Oracle, Dynamics, etc.)
Mission freelance
Consultant(e) Fonctionnel(le) / Business Analyst – Plateformes de Trading H/F
Publiée le
Business Analyst
Cash Management
Data governance
3 mois
La Défense, Île-de-France
Télétravail partiel
Contexte de la mission Dans le cadre de l’évolution des applications IT , la mission consiste à rédiger les spécifications d’implémentation des fonctionnalités identifiées sur les périmètres Cash et Derivatives , en conformité avec la nouvelle méthodologie de documentation . Le/la consultant(e) interviendra au cœur des équipes IT et métiers, dans un environnement Agile , afin de concevoir, formaliser et documenter les services fonctionnels des plateformes de trading. Objectifs de la mission Concevoir et spécifier les services fonctionnels de la plateforme Traduire les besoins métiers en spécifications fonctionnelles claires et exploitables Garantir la cohérence fonctionnelle, applicative et data des solutions proposées Produire une documentation fonctionnelle conforme aux standards et méthodologies en vigueur Responsabilités principales Rédiger les User Stories et participer à leur refinement avec les équipes Agile Réaliser les spécifications fonctionnelles détaillées Définir et documenter les interfaces externes (flux, échanges inter-applicatifs) Produire les documents d’analyse fonctionnelle Définir la configuration fonctionnelle des solutions Documenter le modèle de données / modèle d’information Travailler en étroite collaboration avec les équipes : Métiers Développeurs Architectes QA / Tests Livrables attendus Artefacts Agile sur l’ensemble des sprints : User Stories Critères d’acceptation Documents de spécifications fonctionnelles Spécifications d’interfaces Documents d’analyse fonctionnelle Documentation du modèle d’information / modèle de données Environnement méthodologique et technique Méthodologie : Agile / Scrum Domaines fonctionnels : Cash & Derivatives Systèmes : Optiq, MATRIX, SATURN Contexte : Systèmes de trading et marchés financiers
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1211 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois