L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 374 résultats.
Offre d'emploi
Consultant SAP Data Migration Senior
Signe +
Publiée le
60k-90k €
Paris, France
En tant que Consultant SAP Data Migration Senior, vous interviendrez au cœur des projets de transformation SAP. À ce titre, vos principales missions seront les suivantes : • Contribuer à la définition et au pilotage du plan de transformation ERP en apportant votre expertise sur les enjeux liés aux données. • Analyser, formaliser et challenger les besoins métier afin de concevoir une stratégie de migration de données adaptée : traitement des données historiques, gouvernance, gestion des référentiels (MDM), et qualité des données. • Animer des ateliers de cadrage et de conception avec les métiers et la DSI pour définir les solutions de migration, en lien avec les processus cibles SAP. • Participer aux choix technologiques liés à SAP et à son écosystème, en évaluant les outils de migration et de gestion de données (ex : Migration Cockpit, etc.). • Piloter ou contribuer activement aux différentes phases du projet de migration (stratégie, extraction, transformation, chargement, tests, validation, go-live, support). • Assurer la coordination entre les différentes parties prenantes : métiers, équipe projet, intégrateur, équipe data, etc. • Accompagner les utilisateurs dans la conduite du changement, via des actions de communication, formation et support à la prise en main des nouvelles solutions. • Contribuer à la mise en œuvre opérationnelle des solutions retenues, en garantissant la qualité, la conformité et la fiabilité des données migrées. • Accompagner vos collaborateurs dans leur montée en compétences. Référence de l'offre : 8w5ydg5u97
Mission freelance
Développeur Python / .NET – Finance de marché (Pricing & Market Data)
Syneam
Publiée le
.NET
Finance
Python
12 mois
Hauts-de-Seine, France
Contexte : Dans le cadre des activités d’une équipe en charge des services de pricing en environnement finance de marché, nous recherchons un développeur Python /.NET pour intervenir sur un environnement technique dédié aux calculs et à l’exposition de données de valorisation. La mission s’inscrit dans un contexte de modernisation et d’expérimentation autour d’une plateforme de type “sandbox” permettant de tester et d’industrialiser de nouveaux services de pricing. Descriptif de la mission : Participer au développement et à l’évolution de services de pricing exposés via APIs. Concevoir et implémenter des composants techniques en Python et .NET . Développer et maintenir des interfaces de communication (API HTTP, gRPC, WCF). Contribuer à la structuration et à l’exposition des données de market data utilisées dans les calculs de valorisation. Intervenir sur la mise en place de services documentés via Swagger / OpenAPI . Participer aux phases de tests, validation et optimisation des performances des services. Collaborer avec les équipes quant, risk et IT afin de garantir la cohérence des calculs de pricing et des indicateurs de risque.
Mission freelance
Product Owner Senior – Produit Digital Data (H/F)
Comet
Publiée le
Méthode Agile
1 an
400-580 €
Île-de-France, France
Contexte Dans le cadre du développement d’un produit digital stratégique orienté data et performance opérationnelle, nous recherchons un Product Owner Senior pour accompagner une entité innovation / engineering. Le produit est déjà en phase de développement et nécessite un renfort pour structurer la vision, piloter le backlog et accompagner les mises en production. Missions principalesVision & Produit Co-construction et clarification de la vision produit Définition et priorisation du backlog Rédaction des user stories et spécifications fonctionnelles Animation des ateliers métiers & techniques Delivery & Run Suivi des développements en méthodologie Agile Coordination avec équipes techniques (data, architecture, APIs) Suivi des mises en production Qualification des anomalies & gestion du support Data & Technique Compréhension des modèles de données et workflows Participation à la documentation fonctionnelle et technique Rédaction des spécifications d’évolution produit Contribution aux phases de tests et validation fonctionnelle 📈 Pilotage & Reporting Organisation des rituels produit Comptes rendus structurés Suivi planning / risques / décisions Reporting régulier aux parties prenantes Compétences attendues ✔️ Expérience confirmée en tant que Product Owner ✔️ Maîtrise des environnements Agile ✔️ Bonne compréhension des architectures techniques (API, data models, performance) ✔️ Expérience en gestion de backlog & pilotage delivery ✔️ Notions en data / analytics / optimisation ✔️ Excellente communication (animation ateliers, relation métiers & IT) ✔️ Expérience en contexte grand groupe / environnement complexe
Mission freelance
Consultant Data Governance & Steward - Delivery Ops
Tenth Revolution Group
Publiée le
Collibra
CRM
ERP
1 an
550-750 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Vous intervenez en tant que Data Steward Transverse / Consultant Gouvernance pour transformer la stratégie data en réalités opérationnelles. Votre mission est de faire le pont entre les enjeux métiers et les contraintes SI. Vous ne vous contentez pas de définir des politiques : vous les déployez concrètement sur le terrain. Vos principales missions : Opérationnalisation du patrimoine Data : Recenser les acteurs clés, cadrer les besoins métiers et formaliser les exigences (dictionnaires de données, règles de gestion, qualité, sécurité). Gouvernance "Hands-on" : Produire et maintenir la documentation (glossaires, cartographies de flux, procédures) et veiller à l'implémentation des règles dans les solutions cibles. Coordination & Delivery : Animer les comités opérationnels, réaliser les études d'impacts lors des évolutions SI et piloter les stratégies de migration de données. Outillage : Participer activement au choix et au déploiement des outils (MDM, Data Catalog) : contribution aux RFP, cadrage fonctionnel et accompagnement au changement auprès des utilisateurs.
Mission freelance
Product Leader Data
PARTENOR
Publiée le
Confluence
Gitlab
Google Cloud Platform (GCP)
1 an
400-550 €
92100, Boulogne-Billancourt, Île-de-France
Product Leader Data – Sales & Marketing Data Hub Dans le cadre du renforcement d’un Data Hub transverse dédié aux activités Sales & Marketing d’un grand groupe industriel, nous recherchons un Product Leader Data pour piloter un écosystème data stratégique centralisant des sources multiples (CRM, distribution, digital, aftersales, données tierces). La mission s’inscrit dans un environnement fortement orienté data, avec une forte exigence de qualité, de gouvernance et d’industrialisation des usages analytiques et marketing. Objectifs de la mission Contribuer à la définition, au challenge et à l’évolution de la vision produit et de la roadmap, en lien étroit avec le Product Owner. Maximiser la valeur business générée par le produit et garantir son alignement avec les besoins utilisateurs. Piloter la coordination entre équipes IT offshore, métiers et partenaires, en anticipant les risques, dépendances et obstacles. Animer les instances de gouvernance, consolider le reporting d’avancement, de coûts, de qualité et de performance. Assurer le pilotage opérationnel du produit (cycle de vie complet, incidents, continuité, obsolescence, qualité des données). Contribuer à la mise en place et au pilotage d’un semantic layer via LookML, cible stratégique pour démocratiser l’accès à la donnée via un langage métier unifié et documenté. Veiller à l’alignement avec les standards d’architecture et la cohérence du SI groupe.
Mission freelance
TECH LEAD - AWS DATA ENGINEER
CHOURAK CONSULTING
Publiée le
Amazon Redshift
Amazon S3
Apache Airflow
3 mois
400-700 €
Île-de-France, France
Nous recherchons plusieurs AWS Data Engineers Seniors pour renforcer une équipe Data Platform . 🎯 Contexte de la mission Vous intégrerez une équipe en charge de la plateforme Data , avec des enjeux forts de scalabilité, industrialisation et fiabilité des flux de données . Les missions s’inscrivent dans un environnement cloud moderne, orienté bonnes pratiques et performance. ⚙️ Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables . Contribuer à l’évolution de la plateforme Data . Mettre en place et maintenir l’ infrastructure as code . Participer à l’industrialisation des traitements (CI/CD, containerisation). Travailler en collaboration avec les équipes Data, Produit et Architecture. Être force de proposition sur les choix techniques et les optimisations.
Mission freelance
DATA ENGINEER DDL ( profil habilitable)
Signe +
Publiée le
Python
12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
Mission freelance
Data Engineer Azure Databricks
CHOURAK CONSULTING
Publiée le
Azure
Azure DevOps
Azure Synapse
3 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
Offre d'emploi
ML/Data Engineer H/F
█ █ █ █ █ █ █
Publiée le
Apache Airflow
CI/CD
Github
Ville de Paris - Archives de Paris - Centre annexe, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Responsable projets Data BI - CDI - Belgique - Bruxelles
PROPULSE IT
Publiée le
BI
24 mois
70k-77k €
385-770 €
Bruxelles, Bruxelles-Capitale, Belgique
Responsable Projet Data (H/F) - poste en CDI direct Liaisons fonctionnelles : À l'intérieur de l'entreprise : Le Directeur général et l'ensemble des salariés A l'extérieur : • Les squads Data, les squads en charge des données de référentiel, le service Etudes et Mesures • Les Direction Systèmes d'informations, les responsables des pays (Espagne / Pologne /Portugal / France / Slovénie / Luxembourg) • Prestataires : les intégrateurs, Ingénieur Data, Directeur de projet externe • Industriels (clients) Description générale du poste : Le Responsable projet Data (H/F) joue un rôle central dans la gestion des données, qui portent sur l'intégralité de la fiabilité des prestations vendues aux industriels. À ce titre, il doit définir et mettre en œuvre la stratégie globale de gestion des données disponibles, maintenir l'existant et identifier les opportunités, tout en s'inscrivant dans les modalités définies par le Mouvement. C'est un poste clé qui comporte les dimensions suivantes : - Techniques : manipulation de la donnée, utilisation approfondie des outils mis à disposition, - Stratégiques : enjeux, opportunité, sécurité, - Relationnelles : avec les pays, la DSI, une multitude d'acteurs variés - Une forte sensibilité sur la dimension gestion des systèmes d'informations est attendue Les missions principales : • assurer la qualité et la fiabilité des données en coordonnant avec des acteurs internes - externes • contrôler et mettre à jour les données référentiels spécifiques à notre client • construire, maintenir et faire évoluer les rapports mis à disposition • contrôler et valider la sécurité de l'accès aux données (rapports et données) • piloter la mise en qualité de l'ensemble des données, avec les pays • Participer au développement des services
Offre d'emploi
Responsable Data & Business Intelligence
CONCRETIO SERVICES
Publiée le
Data management
Microsoft Power BI
40k-80k €
Île-de-France, France
Rattaché(e) à la DSI, vous définissez et pilotez la stratégie Data d'un groupe structuré. Vous encadrez l'équipe Business Intelligence, garantissez la performance des plateformes décisionnelles et accompagnez les métiers dans l'exploitation de la donnée comme levier de performance. Vos missions : 1- Management & Organisation Manager et animer une équipe d'analystes et d'experts BI (environ 5 à 10 collaborateurs) Organiser et prioriser les demandes, piloter la charge et assurer le respect des engagements (qualité, coûts, délais) Accompagner la montée en compétences de l'équipe et promouvoir les bonnes pratiques Data Travailler en étroite collaboration avec les autres équipes IT (AMOA, infrastructures, sécurité) et les directions métiers. 2- Pilotage de la stratégie Data Définir la feuille de route Data en lien avec la DSI et les directions métiers Contribuer la refonte du système d'information décisionnel et des outils Data Participer à la gouvernance de la donnée (qualité, sécurité, conformité) Etre force de proposition sur les évolutions technologiques et l'architecture cible du SI Data 3 - Supervision technique & opérationnelle Superviser et faire évolue les plateformes décisionnelles existantes (SAP BW, BO, Power BI, Snowflake, Talend Garantir la fiabilité, la performance et la disponibilité des flux et entrepôts de données Participer activement à la conception et à la mise en oeuvre des solutions techniques (ETL, modèles de données, reporting, dashboards) 4- Relation métiers & accompagnement Recueillir, analyser et challenger les besoins Data des différentes directions (commerciale, finance, logistique, RH) Garantir la pertinence et la qualité des livrables décisionnels (KPIs, tableaux de bord, indicateurs de pilotage 5 - Pilotage applicatif & MCO Piloter et assurer le MCO des applications du SI Groupe Réaliser les pré-études, les estimations de charge et assurer une veille technologique continue Recueillir les besoins métiers et rédiger les spécifications fonctionnelles associés Planifier et mettre en œuvre les paramétrages des solutions SAP et des logiciels connexes Piloter et/ou réaliser les développements applicatifs Assurer un rôle d'expertise fonctionnelle et technique, ainsi que le support de niveau 2 et 3 Animer et/ou participer à des projets transverses au sein de la DSI
Mission freelance
Data Engineer Senior GCP
TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery
3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Offre d'emploi
Architecte Master Data Management F/H
COEXYA
Publiée le
50k-60k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
CONTEXTE Dans le cadre de nos activités, nous développons pour nos clients des solutions dédiées à la gestion de la donnée cliente : améliorer la qualité de la donnée client à travers sa fiabilisation, son dédoublonnage et sa diffusion à travers un référentiel unifié. Pour accompagner la croissance de notre entité spécialisée dans la transformation digitale, nous recherchons notre futur Architecte MDM (Master Data Management) F/H. CE QUE L'ON VOUS PROPOSE Vous participez à la construction de l'offre MDM, en particulier sur les aspects techniques et technologiques. Vous intervenez sur les phases clés associées à la construction d'un projet de MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation (4 à 6 consultants en moyenne selon projet) : - Vous concevez et préconisez les solutions techniques, - Vous menez des ateliers techniques avec les clients, - Vous intervenez sur différentes phases du projet depuis l'avant-vente jusqu'à leur utilisation en production - Vous encadrez les équipes techniques (accompagnement, transfert de compétences, audit des réalisations).
Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris
EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation
6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Mission freelance
consultant IBM senior H/F
NITROLABZ By SYNC-DIGITALS SAS
Publiée le
IBM Cloud
6 mois
Suisse
Nitrolabz accompagne les entreprises dans le développement et la concrétisation de leurs projets technologiques. De l’expertise technique à la création de solutions digitales innovantes, nous intégrons les technologies les plus avancées pour booster votre performance et vos ambitions. Aujourd'hui un de nos plus grand client souhaite renforcer son infrastructure cloud interne autour de la solution ODF (OpenShift Data Foundation) afin d’optimiser le stockage et la disponibilité des données critiques. La mission s’inscrit dans un projet stratégique visant à améliorer la résilience, la sécurité et l’efficacité des systèmes de stockage au sein de l’environnement OpenShift. Nous cherchons donc a recruter un(e) consutant(e) IBM senior qui aura pour mission: Titre de la mission : Consultant IBM – Solution ODF sur OpenShift Durée de la mission : [À préciser, ex. 6 mois avec possibilité de prolongation] Lieu : Suisse Missions principales : Déployer, configurer et administrer la solution ODF interne sur OpenShift. Assurer la gestion des différents types de stockage : bloc, file et objet (S3). Garantir la haute disponibilité des services et la continuité des opérations. Mettre en place les stratégies de sauvegarde et restauration adaptées aux différents environnements et exigences métier. Collaborer avec les équipes DevOps et infrastructure pour optimiser les performances et la sécurité du stockage. Documenter les procédures et accompagner les équipes internes sur les bonnes pratiques ODF. Livrables attendus : Plateforme ODF déployée et opérationnelle avec monitoring et alerting configurés. Stratégie de sauvegarde et plan de restauration testés et documentés. Guide de bonnes pratiques pour l’exploitation quotidienne de la solution ODF. Entreprise handi-accueillante : à compétences égales, une attention particulière est portée aux candidatures des personnes en situation de handicap.
Mission freelance
POT8952 - Un Data Scientist Sénior sur Massy
Almatek
Publiée le
SQL
6 mois
100-390 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients,Un Data Scientist Sénior sur Massy. DESCRIPTION DE LA MISSION. Au sein du pôle Data Science Customer, vous rejoignez une feature team dédiée à l'un des piliers stratégiques de l’entreprise :le moteur de recherche de produit. Votre mission est de transformer l'intention d'achat de millions de clients en une expérience fluide, pertinente et performante. Vous serez le référent technique sur l'évolution de notre moteur de recherche, en passant d'une approche textuelle classique à une expérience de recherche sémantique et personnalisée. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. - En intervenant à toutes les étapes des projets, vous pourrez : - Stratégie Search : Collaborer avec les Product Managers pour définir la roadmap de pertinence (recherche textuelle, sémantique, hybride). - Architecture Vectorielle : Concevoir et déployer des solutions de Vector Search (Embeddings, ANN) pour capturer l'intention client au-delà des mots-clés. - Optimisation du Ranking : Implémenter et itérer sur des modèles de Learning to Rank (LTR) et de Reranking pour arbitrer entre pertinence métier, mix marge et préférences utilisateur. -Évaluation de la pertinence : Mettre en place des protocoles d'A/B testing rigoureux et des frameworks d'évaluation (nDCG, MRR, Click-through rate). -Expertise Elasticsearch : Optimiser les configurations, les analyseurs et les requêtes complexes pour garantir des performances temps réel à grande échelle. -Mentorat : Guider et élever le niveau technique des data scientists juniors sur les thématiques de NLP et de Search.? Compétences techniques clés : - Moteurs de recherche : Maîtrise avancée d'Elasticsearch, incluant le tuning de pertinence et la gestion des index. - Recherche Vectorielle : Expérience concrète dans l'utilisation de bases de données vectorielles et de modèles d'embedding. - Reranking : Solide expérience dans la conception de modèles de reranking (XGBoost/LightGBM pour le LTR, ou approches Deep Learning). - Stack Data : Maîtrise de Python, SQL et de l'écosystème GCP (BigQuery, Vertex AI). - Les petits plus - Expérience sur des problématiques de Personalized Search (intégration des signaux utilisateurs temps réel). - Contributions à des projets Open Source dans le domaine du Search ou du NLP. - Connaissance des problématiques de recherche multilingue ou de traitement des synonymes par IA. - Notre environnement technique - Python, SQL, Terraform, Docker, Gitlab, Jenkins, GCP (Cloud Composer / Airflow, Cloudrun, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage) Votre séniorité vous permet de naviguer entre la rigueur scientifique et les impératifs business du e-commerce. Vous savez vulgariser des concepts de "Neural Search" auprès d'interlocuteurs non-techniques tout en garantissant une qualité de code (Clean Code, CI/CD) irréprochable.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4374 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois