L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 305 résultats.
Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics
Ela Technology
Publiée le
Machine Learning
Python
SQL
6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude
Mission freelance
Consultant(e) Data Governance
Focustribes
Publiée le
SAP
6 mois
550-750 €
Suisse
Dans le cadre d’un programme de transformation Data à l’échelle internationale , un grand groupe du secteur industriel/aéronautique renforce sa gouvernance des données dans un environnement multi-sites et fortement intégré ( SAP S/4HANA , Salesforce , systèmes historiques), reposant sur un écosystème Microsoft Azure . Une plateforme data permet déjà l’ingestion et la consolidation des données, avec l’intégration de sources externes autoritaires pour améliorer la qualité et la déduplication . La priorité actuelle n’est pas la migration (déjà prise en charge par un partenaire dédié), mais l’ industrialisation du Master Data Management (MDM) et la structuration d’une gouvernance des référentiels robuste et scalable , notamment sur les domaines suivants : Business Partners (clients / fournisseurs) Adresses Matériels / Assets Autres data domains critiques L’enjeu principal consiste à passer d’une gestion ad hoc à un dispositif maîtrisé, outillé et pérenne . Le/la consultant(e) interviendra en lien direct avec le sponsor stratégique du programme et les référents internes MDM , à l’interface entre IT, Data et Métiers . Missions Assumer un rôle de référent(e) Data Governance / MDM au sein du programme de transformation. Gouvernance & cadrage Structurer et animer la gouvernance MDM ( Data Council , Data Owners , Data Stewards , RACI ). Définir la cartographie des data domains et clarifier les responsabilités associées. Formaliser le cadre de référence : glossaire , règles de gestion , standards , niveaux de criticité , KPIs data quality . Assessment & recommandations Conduire un diagnostic de maturité par domaine ( qualité, ownership, process, contrôles, outillage, adoption ). Analyser les flux inter-systèmes et les irritants métiers/IT . Produire un plan d’action structuré : priorités , quick wins , roadmap incrémentale (90 jours / 6 mois / 12 mois). Expertise fonctionnelle MDM (focus Business Partner / Adresses) Clarifier le modèle cible pour la gestion des Business Partners et des adresses (légal vs usage, multi-adresses, règles d’unicité). Recommander les bonnes pratiques référentielles dans un environnement SAP S/4HANA interfacé avec CRM et data platform . Sécuriser les workflows de création/modification , les validations , la traçabilité et les règles anti-doublons . Arbitrer la notion de “source of truth” entre ERP , CRM et sources externes . Déploiement & conduite du changement Définir une stratégie de pilotes prioritaires . Structurer une démarche progressive et orientée valeur . Accompagner la montée en compétences interne (transfert, templates, playbook MDM). Structurer la communication , la formation et l’ adoption des nouvelles pratiques.
Offre d'emploi
Architecte Microsoft 365 - Modern Workplace
Focus Cloud Group
Publiée le
Azure Active Directory
Microsoft Entra ID
Microsoft Exchange Server
75k-100k €
Paris, France
Vous serez le référent technique sur l’architecture Microsoft 365 et piloterez les programmes de migration, de la phase de cadrage jusqu’au déploiement. Responsabilités principales Concevoir des architectures Microsoft 365 de bout en bout (Exchange Online, SharePoint, Teams, Entra ID, Sécurité & Conformité) Piloter et réaliser des migrations complexes (tenant-to-tenant, hybride vers cloud) Concevoir des environnements collaboratifs sécurisés, performants et évolutifs Définir les architectures de gouvernance, d’identité et de sécurité Apporter un leadership technique aux équipes projet et aux parties prenantes client Produire les documents d’architecture (HLD / LLD)
Mission freelance
Data Engineer - LYON
TEOLIA CONSULTING
Publiée le
BI
Data Lake
12 mois
400-480 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour l’un de nos clients un Data Engineer pour intervenir sur un projet stratégique de référentiel de données financières . Le projet vise à centraliser, fiabiliser et gouverner l’ensemble des données liées aux instruments financiers , au sein d’un socle de Master Data Management (MDM) . Vous intégrerez une squad Data pluridisciplinaire composée de développeurs Data, d’un Architecte technique, d’un Business Analyst et d’un Product Owner. Mission : Conception & développement Data : Conception et développement de pipelines de données robustes et évolutifs Implémentation du modèle Bronze / Silver / Gold Intégration et transformation de données multi-sources Orchestration & ingestion : Développement et paramétrage de workflows Apache NiFi Collecte et normalisation de données issues de : fichiers CSV / XML API REST Industrialisation et sécurisation des flux Modélisation & qualité des données : Participation à la modélisation du socle de données Construction de vues consolidées MDM Mise en place de contrôles de qualité : complétude unicité cohérence traçabilité et versioning Performance, sécurité & bonnes pratiques : Suivi et optimisation des performances des pipelines Mise en œuvre des standards de sécurité des données (authentification, chiffrement, gestion des accès) Documentation technique et partage de connaissances au sein de la squad
Offre d'emploi
Ingénieur Data / Data Scientist - Secteur Aéronautique (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Spark
Python
SQL
37k-43k €
Marignane, Provence-Alpes-Côte d'Azur
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer Senior – DBT
adbi
Publiée le
DBT
1 an
45k-55k €
550-600 €
Île-de-France, France
Data Engineer Senior – Spécialiste DBT 📍 Localisation : Vélizy (3 jours minimum sur site) 🌍 Anglais courant requis Contexte Dans le cadre de la modernisation et de la standardisation des processus de transformation de données au sein du Groupe, nous recherchons un(e) Data Engineer expérimenté(e) spécialisé(e) DBT (data build tool) . Le/la consultant(e) interviendra sur la mise en place et l’industrialisation d’une plateforme DBT, avec pour objectif de garantir des pipelines de données robustes, scalables et alignés avec les meilleures pratiques ELT. Missions principales 🔹 Définition des standards et gouvernance Définir et formaliser les bonnes pratiques DBT (développement, déploiement, RUN). Mettre en place les standards et guidelines en collaboration avec le Tech Lead ELT. Définir les prérequis techniques et templates associés. Participer à la stratégie d’intégration et à la gouvernance des données. Co-définir la stratégie de logging et la gestion des événements. 🔹 Architecture & Stratégie Co-définir l’architecture cible, la stratégie et les patterns ELT avec les experts techniques. Étudier les analyses d’écarts (gap analysis) dans le cadre de migrations vers DBT. 🔹 Conception & Développement Recueillir et analyser les besoins. Évaluer la faisabilité technique et la charge associée. Concevoir les connecteurs et jobs avec le Tech Lead DBT. Développer les jobs DBT. Assurer le déploiement, les tests d’acceptance et la documentation. Réaliser des audits de jobs existants. 🔹 Support & Optimisation Accompagner les projets dans la qualification et la transformation des données. Optimiser et configurer l’outil DBT. Garantir le maintien en conditions opérationnelles optimales. Fournir un support technique avancé. 🔹 Documentation & Communication Rédiger les spécifications techniques. Produire la documentation de développement. Élaborer un guide des bonnes pratiques. Préparer et animer des sessions de formation / transfert de compétences. Participer aux communications (présentations, communauté ELT WW).
Mission freelance
Data Engineer Confirmé / Senior – GCP / BigQuery / dbt
CHOURAK CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD
3 mois
400-650 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir sur une plateforme data moderne au sein d’un acteur du secteur de la santé , avec des enjeux forts de fiabilité, performance et conformité des données. 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de la conception, de l’industrialisation et de l’optimisation d’une architecture data moderne sur GCP , orientée qualité, scalabilité et gouvernance. La plateforme repose notamment sur : GCP · BigQuery · dbt · Airflow · CI/CD ⚙️ Missions principales Concevoir et maintenir des pipelines de données robustes et scalables . Modéliser les données dans BigQuery (architecture analytique performante). Développer et maintenir les transformations via dbt (modélisation, tests, documentation). Orchestrer les flux avec Airflow (DAGs, monitoring, gestion des dépendances). Participer à l’industrialisation via des pratiques CI/CD . Garantir la qualité, la performance et la traçabilité des données . Contribuer aux choix d’architecture et aux bonnes pratiques Data Engineering.
Offre d'emploi
Data Engineer Banque(F/H)
CELAD
Publiée le
45k-50k €
Paris, France
Contexte Dans le cadre du développement d’une Squad Usages Data Avancés & IA , nous recherchons un(e) Data Engineer confirmé(e) pour contribuer à la conception, l’industrialisation et l’amélioration continue de solutions data à forte valeur ajoutée. Vous évoluerez dans un environnement orienté DataOps , MLOps et industrialisation de solutions analytiques, au sein d’une équipe pluridisciplinaire (Data Scientists, DevOps, Product Owner…). La squad intervient sur : La conception et la maintenance d’applications data L’amélioration continue des produits existants La construction de nouveaux usages Data & IA Vos missions Conception & Architecture Participer à la définition des solutions applicatives data Contribuer aux choix d’architecture (batch, streaming, microservices data) Concevoir des pipelines robustes, scalables et performants Développement & Intégration Construire et maintenir des pipelines ETL / ELT (données structurées et non structurées) Développer des traitements en Python (PySpark, FastAPI) et SQL Intégrer des flux temps réel via Kafka / Spark Réaliser les phases d’intégration et de recette technique Industrialisation – DataOps / MLOps Mettre en œuvre des chaînes CI/CD et de déploiement (Docker, Kubernetes, GitHub/GitLab Actions) Industrialiser des modèles statistiques ou de Machine Learning Versionner données, modèles et code Monitorer la performance, la qualité et les coûts des traitements Assurer l’observabilité des solutions (ELK, Prometheus/Grafana, MLflow) Qualité & Amélioration Continue Mettre en place des tests automatisés (Pytest) Maintenir un haut niveau de qualité de code (SonarQube) Améliorer l’efficacité des processus Maintenir une documentation claire et à jour Collaboration Travailler en étroite collaboration avec les membres de la squad Préparer des datasets pour l’exploration et l’analyse Accompagner les utilisateurs dans la prise en main des solutions Docker Kubernetes GitHub Actions ou GitLab CI Compétences techniques requises Langages & Frameworks: Python (PySpark, FastAPI), SQL Big Data & Streaming: Apache Spark, Apache Kafka Bases de données: PostgreSQL, Teradata, MySQL MLOps / CI-CD / Conteneurisation: Docker, Kubernetes, GitHub Actions ou GitLab CI Qualité & Observabilité: Pytest, SonarQube, Stack ELK, Prometheus / Grafana, MLflow
Offre d'emploi
Business Analyst Data
VISIAN
Publiée le
Agile Scrum
Business Analyst
MySQL
1 an
Paris, France
Descriptif du poste Au sein d'une équipe data qui a pour mission de définir la stratégie et la feuille de route Data du groupe, de développer et gérer l'écosystème de partenaires Data, de définir et déployer la gouvernance des données, de définir et piloter le plan d'acculturation Data, et d'accompagner le déploiement des produits et services Data. Le Global Data Office a en charge le développement et le maintien des données de référence du groupe, et a lancé un programme de refonte de la plateforme de Master Data Management
Offre premium
Mission freelance
Tech Lead Intégration & Data Flows (H/F) - 92
Mindquest
Publiée le
CFT (Cross File Transfer)
Confluence
Control-M
6 mois
Courbevoie, Île-de-France
Au sein d’un acteur du secteur assurantiel, l’équipe Intégration & Data Management pilote plusieurs progiciels hébergés ainsi que des services externalisés stratégiques (comptabilité, trésorerie, modélisation des risques, reporting réglementaire, gestion d’actifs, prévoyance, rentes, etc.). L’équipe est composée de : 3 Business Analysts 3 Technical Leads 5 Développeurs Le Technical Lead occupe un rôle central, en interface directe avec les équipes métiers, les BA et les développeurs. Pilotage & Coordination: Construire et suivre les plannings (développement, tests, mises en production) Organiser les montées de versions des progiciels hébergés et services externalisés Livrer les évolutions réglementaires en production Piloter les mises à jour systèmes et logicielles Run & Supervision: Revue des alertes serveurs et analyse des incidents Garantir la fiabilité des flux SFTP et CFT Assurer le bon fonctionnement global des applications Intégration & Architecture: Concevoir, mettre en œuvre et piloter les flux d’intégration entre les applications du SI Participer activement à l’amélioration continue des processus
Mission freelance
Data Custodian
Signe +
Publiée le
Data management
10 mois
460-500 €
Nantes, Pays de la Loire
Bonjour, Je recherche pour l'un de mes clients un consultant Data Custodian pour couvrir les activités présentées ci-dessous, dans une optique de : Tenir le rôle, Aider à structurer les actions / responsabilités qui seront portées par les DC Le Data Custodian est garant de la visibilité et de la fiabilité des données du RAW. Ses objectifs : Garantir la disponibilité, la qualité et la traçabilité des données issues du RAW pour les zones socles. Assurer la complétude des sources. Assurer la visibilité sur les données brutes et leurs transformations. Assurer la cohérence pour les équipes métiers et techniques. Être le point de contact prioritaire vis‑à‑vis des systèmes sources.
Mission freelance
INGENIEUR DATA BI - GENIO
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Offre d'emploi
Acheteur Market Data
OBJECTWARE
Publiée le
Market data
6 mois
Paris, France
Dans le cadre de projets stratégiques chez nos clients grands comptes (banque, asset management, services financiers), nous recherchons un(e) Acheteur(se) Market Data expérimenté(e) pour intervenir sur des enjeux à forte valeur ajoutée. 🎯 Vos missions Au sein des équipes achats / market data, vous interviendrez notamment sur : La gestion des fournisseurs de données de marché (éditeurs, vendors) Le pilotage des appels d’offres (France et/ou international) La négociation contractuelle et tarifaire Le suivi des renouvellements de contrats La maîtrise des dépenses Market Data La coordination avec les équipes métiers, juridiques et IT La contribution aux projets d’optimisation et de conformité (RGPD, gouvernance data)
Offre d'emploi
Data Analyst Lead
SARIEL
Publiée le
Animation
Data analysis
KPI
12 mois
55k-76k €
430-580 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un Data Analyst Expert (>10 ans). Objectif global : Concevoir Renforcer l'expertise ce conception data et de gouvernance des données Compétences techniques Connaissance de la grande distribution - Confirmé - Impératif Modélisation des données - Confirmé - Important Analyse de données - Confirmé - Important Conception de solutions data - Confirmé - Important Description détaillée Fiche mission – Data Analyst Lead (Prestation) Contexte de la mission Nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts.. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertiss-en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Data Engineer – GCP (H/F)
CELAD
Publiée le
45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, dans le secteur bancaire. L’enjeu : structurer et industrialiser l’écosystème Data & ML sur Google Cloud Platform. Vous intervenez à la fois sur l’architecture, le build, le run et la structuration des bonnes pratiques. Industrialiser les pipelines data sur l’écosystème GCP Gérer les montées de version des services managés Garantir performance, capacité et fiabilité Développer des pipelines en Python Exploiter et optimiser BigQuery Mettre en place des pratiques CI/CD adaptées aux projets data Structurer l’industrialisation des modèles de Data Science Gestion des IAM, droits d’accès et conformité Sécurisation des environnements Encadrement des accès aux données de production anonymisées Suivi des incidents Amélioration continue des livrables Gestion des évolutions techniques avec les éditeurs
Offre d'emploi
Business Analyst DATA
OBJECTWARE
Publiée le
Audit
MySQL
1 an
Île-de-France, France
🎯 Contexte Dans le cadre d'un programme de transformation en profondeur de nos référentiels d’entreprise, nous recherchons un Business Analyst DATA Objectif : 👉 Rationaliser les données, moderniser les outils et refondre les processus de construction des produits d’assurance. Le programme comprend plusieurs chantiers : Refonte des modèles de données Refonte des processus internes Décommissionnement / nettoyage des systèmes obsolètes Audit des systèmes existants (documents, bases de données, interfaces techniques) Accompagnement des directions métier dans la digitalisation des processus : Refonte complète du processus de construction d’un produit d’assurance (actuellement basé sur Excel / Word) vers une application digitale transverse. 🎯 Mission Au sein d’une équipe programme (6 personnes, entre MOA et experts IT), le consultant interviendra sur : Animation d’ateliers et accompagnement des directions métier Analyse des référentiels et schémas de données Audit des systèmes existants Collaboration avec les équipes IT et directions métier Participation à la refonte des modèles de données Contribution à la mise en place d’un outil de gestion des processus d’administration des données Propositions de feuilles de route et recommandations 🔹 Compétences techniques Maîtrise SQL Capacité à naviguer dans des schémas de bases de données Connaissance API / ETL Compréhension des flux de données Expérience audit systèmes / analyse documentaire appréciée Si possible : sensibilité à la construction d’interfaces ou d’outillage maison Connaissance d’EBX appréciée mais non obligatoire. 🔹 Compétences fonctionnelles & comportementales Forte capacité de collaboration transverse À l’aise avec les directions métier Capacité à challenger et faire évoluer les pratiques Dynamique, moteur Capacité de synthèse pour la propositions de feuilles de route 🔹 Connaissance métier Connaissance du secteur assurance fortement appréciée Compréhension du cycle de vie produit assurance = vrai plus
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4305 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois