L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 261 résultats.
Mission freelance
POT8818 - Un Data Scientiste Senior sur Clermont-ferrand
Publiée le
SQL
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Scientiste Senior sur Clermont-Ferrand. PRESTATION Datascientist expérimenté en analyse de données télématiques gros volume et cartographie numérique PRINCIPALES ACTIVITES Analyse de données -Classification et clustering, machine learning dans les domaines de la topographie et de l’usage des véhicules (cinématique et dynamique) -Evaluation et développement d'algorithmes, services et process associés Prescripteur pour les évolutions futures de l'environnement d'analyse et bases de données -BD spatiale et navigation entre bases de données géospatiales et temporelles (en collaboration) COMPETENCES Expérimenté en machine learning Snowlake, PostgreSQL Python (geopandas, holoviews, datashader) SQL Expérience souhaitée en traitement de signal Expérience souhaitée sur QGIS ou ArcGIS Expérience souhaitée de geoservices: OSM, Here Développement de Web apps pour déploiement sur le terrain Outils de visualisation / BI : -Conception d'outils d'exploration visuelle de données spatiales et temporelles -Elaboration de dashboards d'analyse Localisation : Clermont-ferrand / 5 jours par semaine
Offre d'emploi
Architecte Data spécialisé Databricks (F/H)
Publiée le
80k-90k €
Paris, France
Télétravail partiel
Data Architect spécialisé Databricks (F/H) - CDI - Paris 12 - 80-90K€ Contexte Vous rejoindrez la Data Factory , une structure d'excellence au sein du département "Fabrique Digitale" de notre client. Cette équipe accompagne des projets complexes de transformation data en rassemblant l'ensemble des compétences nécessaires : BI, Big Data, Data Analytics, Dataviz et Data Science. La Data Factory adresse des enjeux stratégiques majeurs : construction de référentiels de données, datawarehouses opérationnels, outillages de simulation et prévisions, datalakes, algorithmes prédictifs et tableaux de bord décisionnels. Vous piloterez le déploiement de la plateforme data groupe qui repose sur des concepts architecturaux innovants dont la notion de Data Mesh et des offres de self-service métier. De nouveaux concepts architecturaux structurent la plateforme. Votre expertise sera mobilisée pour : Fournir une expertise d' Architecte Solution orientée usages métiers, avec une connaissance approfondie des projets data en cloud public Servir de référent technique auprès des squads métiers en mode Agile pendant les phases de build et transition vers le run Challenger les besoins et imposer les bonnes pratiques du cadre de cohérence technique Assurer un relationnel excellent avec les équipes projets et les métiers Vous cumulerez les responsabilités d'un architecte opérationnel et d'un super-tech-lead, avec une implication quotidienne auprès des équipes de développement. Missions : Pilotage technique et accompagnement des projets Fournir l'expertise technique plateforme aux squads projets, du cadrage jusqu'à la mise en service Représenter la plateforme data groupe lors des cérémonies Agile (Go/NoGo, réunions stratégiques) Assister les tech leads dans leurs choix architecturaux et la rédaction des DAT (Document d'Architecture Technique) Identifier et évaluer les risques techniques (fonctionnalités manquantes, impacts planning Onboarding et accompagnement des équipes Réaliser l'onboarding des squads projets pour l'architecture plateforme et les bonnes pratiques Assister aux entretiens de recrutement des tech leads et développeurs métier Coacher les équipes pour optimiser les solutions et mettre en place des méthodologies de monitoring Sensibiliser à la gouvernance des données, en particulier données sensibles et données à caractère personnel Supervision et coordination Superviser les interventions des Data Ingénieurs plateforme (ingestion, exposition de données) Coordonner avec les leads de pratique (Data Management, Dataviz, ML Ingénieur) S'assurer de la validation architecturale de bout en bout avec les autres SI Participer aux phases de VSR (Verification & Service Readiness) Support et exploitation Contribuer au MCO (Maintien en Condition Opérationnelle) en tant que support N3 Participer à la résolution d'incidents en production Réaliser les actes de restauration du service Conduire l'analyse des root causes des dysfonctionnements Documentation et qualité Vérifier la complétude des contrats d'interface fournis par les squads projets Garantir la qualité technique et documentaire des livrables Contribuer à l'amélioration des briques socle et leur cadrage technique Contributions transversales Apporter votre expertise de data engineer et d'architecte opérationnel à la Data Factory Contribuer à des PoC et études ciblées Participer aux cérémonies Scrum Agile Réaliser des démos et présentations auprès des clients Livrables attendus Développements et scripts demandés Documents de cadrage, DAT et rapports d'avancement Macro estimations budgétaires et offres de solution technique Analyses de risques techniques et audits de faisabilité Cahiers de tests et procédures d'installation en production Documents de paramétrage et procédures de maintenance Rapport de fin de mission détaillant la démarche, développements réalisés, difficultés et solutions apportées
Offre d'emploi
Data Engineer
Publiée le
BigQuery
Docker
Domain Driven Design (DDD)
1 an
10k-60k €
100-550 €
France
Télétravail partiel
Construire des pipelines de données : Automatiser l’extraction, la transformation et le chargement (ETL/ELT) des données pour les rendre exploitables. Gérer les infrastructures data : Mettre en place et optimiser les environnements techniques (bases de données, cloud, outils de traitement). Garantir la qualité des données : Nettoyer, valider et monitorer les données pour assurer leur fiabilité et leur cohérence. Collaborer avec les équipes métiers et techniques : Comprendre les besoins, fournir des données prêtes à l’emploi et faciliter leur utilisation. Sécuriser et gouverner les données : Protéger les données sensibles et s’assurer de leur conformité aux réglementations (RGPD, etc.). Innover et optimiser : Veiller aux nouvelles technologies et améliorer en continu les processus data
Mission freelance
Consultant SIRH Data / Chef de Projet MOA - Paris (H/F)
Publiée le
Microsoft Fabric
MOA
PLEIADES
6 mois
630-700 €
Paris, France
Télétravail partiel
Un grand groupe a lancé une stratégie Data (Microsoft Fabric, Power BI, Data Lake). Le domaine RH reste en retard : données silotées, dépendance à une ressource unique, enjeux importants liés à la masse salariale. Missions Recueillir et formaliser les besoins métiers RH (indicateurs : effectifs, absentéisme, turnover, masse salariale…). Rédiger les spécifications fonctionnelles (Pléiades, Horoquartz) et structurer un dictionnaire de données RH. Collaborer avec les équipes Data/BI pour assurer qualité et cohérence des flux (Microsoft Fabric, Power BI). Contribuer à la gouvernance et à la mise à disposition des données RH.
Mission freelance
Mission SAP Master Data (SAP MDM / MDG)
Publiée le
Master Data Management (MDM)
SAP S/4HANA
6 mois
550-630 €
Saint-Cloud, Île-de-France
Télétravail partiel
Dans le cadre de l’optimisation et de la fiabilisation de son système d’information SAP, le client souhaite s’appuyer sur une prestation externe spécialisée en gestion des données de référence (Master Data) . Le prestataire intervient pour définir, structurer et sécuriser la gouvernance des données de référence SAP, garantir leur qualité et accompagner les équipes métiers dans l’utilisation et la maintenance des données clés du système. Responsabilités principales : Analyse de l’existant et évaluation de la qualité des données de référence SAP Définition et mise en œuvre des règles de gouvernance des Master Data Harmonisation et standardisation des données (clients, fournisseurs, articles, nomenclatures, etc.) Paramétrage et gestion des objets de données de référence dans SAP S/4HANA Mise en place de processus de création, modification et validation des données Support aux équipes métiers et coordination avec les équipes fonctionnelles et techniques Contribution aux projets transverses (migration, déploiement, roll-out, MDM, S/4HANA) Documentation des procédures et des règles de gestion des données Livrables attendus : Cartographie des données de référence SAP Règles de gouvernance et de qualité des Master Data Procédures de gestion et de contrôle des données Données de référence conformes aux standards définis Environnement : SAP S/4HANA Modules Finance et Logistique selon périmètre Collaboration étroite avec les équipes métiers, IT et data
Mission freelance
Architecte Technique Solution Data
Publiée le
Big Data
Cloudera
3 mois
400-690 €
Île-de-France, France
La Tribu DATA (DAT) construit et développe des applications sur la base de puissantes plates-formes DATA à des fins d’usages variés servant toutes les directions métiers de la banque. Pour répondre à ces usages, DAT est au cœur de la stratégie datacentric de LCL, et intervient aussi bien au niveau de l’architecture Data, sur les technologies data, Big data, IA, Teradata, SAS, ainsi que sur les solutions analytiques et de datavizualisation. Plus particulièrement dans le cadre de la squad Socles Data, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....). LCL SNI TPI PSP 19/09/2025 Page 1 Les solutions doivent être mises en place dans une optique de service performant et évolutif pour nos métiers et utilisateurs divers, prenant en compte l’écosystème informatique LCL actuel ainsi que la stratégie de modernisation future. Le profil recherché doit avoir une connaissance forte des solutions Data de l’écosystème LCL, ainsi qu’une expérience très significative en qualité d’architecte technique Data. Il doit également avoir quelques notions des nouvelles technologies présentées dans le cadre de la stratégie de modernisation de nos plates-formes et être capable de monter rapidement en compétences dessus. Description complémentaire du profil Softskills: Sens du service. Bonne gestion du stress et des priorisations Très bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie (
Mission freelance
Business Analyst Finances/Data - Spécs. fonct. et BAU
Publiée le
12 mois
500 €
75001, Paris, Île-de-France
Business Analyst Data - Spécifications Fonctionnelles & Support Opérationnel Contexte Un acteur majeur du secteur bancaire recherche un Business Analyst spécialisé en Data pour intervenir sur la conception des spécifications fonctionnelles et le support opérationnel (Business As Usual) dans un environnement complexe lié aux paiements, clients, transactions et finance . Missions principales Recueillir et analyser les besoins métiers, proposer des simplifications et optimisations. Identifier les processus à créer ou à modifier pour répondre aux enjeux business. Rédiger des spécifications fonctionnelles détaillées . Émettre des recommandations sur la faisabilité et l'implémentation des demandes. Assurer le support des équipes techniques (PO, squads DevOps) en apportant le contexte métier. Participer à la validation des développements pour garantir la conformité avec les attentes. Intervenir sur les phases de développement, test, déploiement et post-production. Collaborer avec des interlocuteurs transverses (autres domaines et entités). Compétences métiers recherchées Paiements : flux SEPA, virements, prélèvements, gestion des moyens de paiement. Clients : gestion des données clients (KYC, onboarding, segmentation). Transactions : suivi des opérations bancaires, reporting, conformité réglementaire. Finance : notions de comptabilité bancaire, rapprochements, indicateurs financiers. Data Governance : qualité des données, intégrité, respect des standards. Compétences IT recherchées SQL : niveau confirmé (requêtes complexes, optimisation). Modélisation de données : conception et validation de modèles relationnels. Outils de gestion de données : connaissance des environnements Data Warehouse / ETL. Tests fonctionnels : validation des développements et des flux. Connaissance des architectures bancaires : systèmes transactionnels, intégration des données. Séniorité attendue Niveau : Senior / Confirmé (Business Analyst Data - Niveau 4 Proficient) Expérience : 5 à 8 ans minimum en analyse fonctionnelle et data dans des environnements complexes. Capacité à travailler en autonomie, à challenger les besoins métiers et à interagir avec des équipes techniques. Maîtrise des outils et concepts (SQL, modélisation de données, gouvernance data). Anglais professionnel (échanges à l'international) et français courant
Mission freelance
consultant SAP Data Migration
Publiée le
Migration
SAP
12 mois
600-750 €
Paris, France
Télétravail partiel
Hanson Regan recherche un consultant SAP Data Migration pour une mission freelance de 6 mois renouvelable, basée à Paris. Exigences AMOA pour la migration de données SAP : • Profil requis : Plus de 5 ans d’expérience en migration SAP, avec une expertise sur toutes les phases de migration, les modules Finance et plus particulièrement Supply (SD/PP/WM/MM/QM). • Compétences clés : o Migration de données – projets multiples au sein de SAP o Connaissance de plusieurs modules SAP o Excellentes compétences communicationnelles pour soutenir les recommandations et les interactions avec les équipes • Organisation : 3 à 4 jours sur site au sud de Paris, 1 à 2 jours à distance (TTV) • Date de début : Dès que possible Pour répondre aux besoins de nos clients, nous acceptons uniquement les candidatures de freelances travaillant au sein de leur propre entreprise. Nous rémunérons également les recommandations complètes si vous n’êtes pas disponible ou si vous connaissez quelqu’un qui pourrait être intéressé.
Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance
Publiée le
Architecture
BigQuery
Cloud
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Mission freelance
Senior Data Scientist IA / LLM
Publiée le
LangChain
Large Language Model (LLM)
Python
12 mois
520-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Senior Data Scientist IA / LLM" pour un client dans le secteur bancaire Description 🚀 Le Contexte : L'ère des Agents Autonomes Dans le cadre du développement de nos solutions de nouvelle génération, nous recherchons un Data Scientist / AI Engineer capable de transformer des modèles de langage (LLM) en agents autonomes et décisionnels. Vous ne vous contenterez pas de faire des appels API simples ; vous concevrez des architectures d'agents complexes capables de raisonner, d'utiliser des outils et de gérer des workflows cycliques au sein d'un environnement Web robuste (Django). 🎯 Vos Missions : Orchestration et Architecture 1. Conception d'Agents avec LangGraph & LangChain : Développer des systèmes d'agents multi-acteurs utilisant LangGraph pour gérer des états complexes et des boucles de rétroaction (cycles). Implémenter des chaînes de traitement modulaires avec LangChain (RAG, mémoires, agents de planification). Optimiser le Prompt Engineering et la structuration des données en sortie (JSON mode, parsing). 2. Intégration et Backend (Django) : Développer les briques Backend sous Django pour exposer les capacités de l'IA via des APIs (REST / WebSockets pour le streaming). Gérer la persistance des états des agents et des sessions utilisateurs dans la base de données Django. Assurer la sécurité et l'authentification des accès aux outils LLM. 3. RAG & Knowledge Management : Mettre en œuvre des architectures de Retrieval Augmented Generation (RAG) performantes. Connecter les agents à des bases de données vectorielles (Qdrant, Pinecone, ou Pgvector) et des sources de données métiers. 4. Évaluation et Fiabilité (LLM Ops) : Mettre en place des protocoles d'évaluation pour mesurer la pertinence des agents (Frameworks type RAGAS ou DeepEval). Monitorer les coûts et les latences des appels aux modèles (OpenAI, Mistral, modèles Open Source).
Mission freelance
SAP Consultant Data Migration (F/H)
Publiée le
SAP
6 mois
La Défense, Île-de-France
Télétravail partiel
Objectif : Renforcer l’équipe avec un expert SAP Data Migration (environ 10 personnes dans l’équipe mais pas d’expert SAP) Sécuriser les activités de reprise de données jusqu’à la mise en production Principales responsabilités : Ajustement des spécifications existantes suite au Mock 1 et en fonction du Design Contribution au mapping des données et à l’analyse des objets SAP Identification et alerte sur les dépendances fortes entre objets / projets Préparation des chargements, corrections et itérations suite au Mock 2 Support aux phases Pré-Production / Production Rôle de référent SAP / Master Data sur son périmètre Coordination étroite avec les équipes SAP et Salesforce
Offre d'emploi
Ingénieur Data SQL H/F
Publiée le
Administration réseaux
Administration système
Supervision
67150, Erstein, Grand Est
Contexte et définition du poste Plus qu'un métier, itéa a pour vocation de déceler et révéler les bons profils, avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d'un CV. Aujourd'hui, nous recherchons pour l'un de nos clients un Ingénieur Data SQL H/F et vous présentons les points clés du poste : Poste en CDI Basé à Erstein Secteur du commerce de détails et de gros Les conditions : Rémunération selon le profil et les expériences Mode de travail : sur site ; Télétravail possible 1j/semaine après la période d'essai Période d'essai de 3 mois Les missions : Au sein du service Développement de la DSI, l'équipe Data a en charge la conception, la réalisation et le maintien en condition opérationnelle des principaux flux d'échanges de données inter-applicatifs. Pour accompagner son développement, l'entreprise cherche à renforcer l'équipe par une mission de prestation en régie sur site. Les attendus sont les suivants : La conception et l’alimentation de modèles de données dans la base de données pivot de l’entreprise (Staging DB) : Cluster MSQ SQL Server Accompagner l'entreprise dans la migration vers SQL server 2025 : déploiement d'un nouveau Cluser SQL Server 2025 et implémentation de la recherche vectorielle dans les applications existantes Mettre en place des flux d'échanges de données entre les différentes systèmes : ETL SSIS ave possible passage sur un ETL Opensource de type Polars / Pandas sous Airflow Réaliser des cahiers de charges et d'études de faisabilité Accompagner les métier s sur les choix d'architecture de données (choix des données pivots, format approprié des données, etc.) Garantir la qualité des données autant sur le plan technique que métier Intervenir ponctuellement sur le Datawarehouse : Base de données Oracle avec Scripting Bash
Mission freelance
PRODUCT OWNER DATA PRODUIT
Publiée le
Snowflake
12 mois
560-570 €
Paris, France
Télétravail partiel
CONTEXTE Le poste s’inscrit chez un grand acteur du Retail à dimension internationale. Le PO évoluera au sein d’une équipe Data d’environ 30 personnes structurée par domaines fonctionnels. Le rôle est rattaché au Lead PO Data Sales / Finance / CRM. Objectif : piloter la vision, la roadmap et la valeur du produit DATA autour du périmètre PRODUIT. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (manipulation et analyse de gros volumes de données). – Environnement actuel : – Snowflake (Data Warehouse) – Matillion (ETL), migration vers DBT à venir – QlikSense (visualisation et reporting) ENVIRONNEMENT FONCTIONNEL Intervention sur des sujets Data stratégiques autour du PRODUIT. Le PO aura en charge : – La conception des parcours utilisateurs et la définition des KPIs. – La rédaction des spécifications fonctionnelles pour les Data Engineers / Data Analysts. – La gestion et la mise à jour du Data Catalog. – La participation au design produit et à la qualité des livrables. – L’animation des rituels agiles (sprints de 3 semaines). Outils : JIRA, Confluence. Le rôle nécessite un esprit critique fort, une capacité à challenger le besoin et à proposer de la valeur. PROFIL RECHERCHÉ – Expérience : 8 ans dans la Data, dont minimum 4 ans en Chef de Projet Data ou Product Owner. – Connaissances solides du Retail (processus opérationnels, planification, référentiel produit). – Qualités attendues : – Autonomie et prise d’initiative – Leadership naturel pour fédérer les équipes – Capacité d’analyse poussée et esprit critique – Sens de la communication vers les métiers comme vers la tech
Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Mission freelance
Data analyst - Alteryx / Power BI
Publiée le
Alteryx
12 mois
600 €
Île-de-France, France
Télétravail partiel
Notre Client bancaire recherche un consultant Data analyst (H/F) pour intervenir au sein d'une équipe de la Direction Finance traitant les besoins liés aux reportings règlementaires Finance et Risques, à savoir industrialisation de processus métiers et création de reportings automatisés. La mission interviendra sur différents processus (risques ou finance) en mode support, évolution et surtout projet : - Création de tableaux de bord sur Power BI - Industrialisation de processus métiers par le développement de workflows Alteryx et leur déploiement sur Alteryx Server - Création d’applications à l'aide de PowerApps. - Accompagner les équipes Finance et Risques dans l’automatisation de leurs reportings - Participer à des projets transverses Finance/Risques en mode projet, évolution ou support Environnement : Power BI, Alteryx, SSIS, SSAS, SQL Server, Sharepoint, PowerApps, Power Automate.
Mission freelance
Consultant Expert Data
Publiée le
CoreData
3 mois
400-650 €
Paris, France
Télétravail partiel
Hello, Pour le compte de l'un de mes clients dans le secteur de l'énergie, je suis à la recherche d'un consultant expert Data. Le contexte : Pour accompagner le client dans sa transformation Data Driven, nous recherchons un consultant expérimenté capable de structurer & piloter une démarche orientée Data Products. Missions principales : - Définir et mettre en place une gouvernance des données (processus, rôles, outils). - Accompagner le client dans la structuration d’une stratégie Data Driven. - Concevoir et promouvoir une approche orientée Data Products pour maximiser la valeur métier. - Conseiller sur les bonnes pratiques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
3261 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois