L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 267 résultats.
Offre d'emploi
Data Engineer / Data Analyst (H/F)
Publiée le
Databricks
6 mois
55k-65k €
450-530 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👌 Dans le cadre du renforcement de son pôle dédié à l’architecture, la valorisation et l’exploitation de la donnée, une grande entreprise nationale du secteur de l’énergie recherche un Data Engineer / Data Analyst (H/F) .🚀 L’objectif : contribuer à la fiabilité, la qualité et l’analyse des données nécessaires à la gestion des réseaux, ainsi qu’au développement de plateformes Data avancées. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Data Engineering 🔸Concevoir, développer et maintenir des pipelines de données robustes et scalables. 🔸Industrialiser les traitements dans un environnement Databricks (Spark, Delta Lake). 🔸Optimiser la qualité, la performance et la disponibilité des données. 🔸Participer à l’architecture des solutions Data, notamment dans un contexte cloud. Data Analysis 🔸Structurer, analyser et valoriser les données issues des réseaux et services. 🔸Construire des Dashboard et indicateurs fiables pour les équipes métiers et techniques. 🔸Contribuer à la mise en place d’une gouvernance efficace des données. Collaboration & Support 🔸Travailler étroitement avec les équipes Architecture, Exploitation et SI. 🔸Participer à la documentation, la standardisation et l’amélioration continue des pratiques Data. 🔸Accompagner les utilisateurs internes dans la compréhension et l’exploitation des datasets.
Offre d'emploi
Data analyst confirmé marketing client
Publiée le
PowerBI
SQL
12 mois
40k-45k €
350-400 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission : Dans le cadre du renforcement de notre département IT Data, nous recherchons un(e) Data Analyst Confirmé(e) pour accompagner les équipes Marketing, CRM et Digital dans l'exploitation et l'analyse des données clients. L'objectif : améliorer la connaissance client, affiner la segmentation, et optimiser les actions marketing grâce à une analyse fine des comportements et parcours clients. Activités et responsabilités de la mission - Analyser les données clients pour identifier des comportements, profils et tendances de consommation. - Construire et maintenir des segmentation clients pertinentes (RFM, appétence, valeur client, cycle de vie.). - Réaliser des analyses ad hoc pour répondre aux besoins des équipes Marketing, CRM, Digital, Produit. - Mettre en place des tableaux de bord Power BI pour suivre les KPIs liés à l'acquisition, l'activation, la fidélisation, et la rétention client. - Collaborer avec les équipes Data Engineering pour la préparation et modélisation des données dans l'environnement Snowflake. - Identifier des opportunités business via des analyses prédictives ou des insights data-driven. - Contribuer à la qualité et cohérence des données clients, en lien avec les équipes IT et Data Governance. Résultats attendus - Mise en place de profils clients exploitables par les équipes métier. - Amélioration de la performance des campagnes marketing grâce à une segmentation plus fine. - Accroissement de la connaissance client et des insights comportementaux. - Mise en place de tableaux de bord dynamiques et accessibles, facilitant la prise de décision. Démarrage : rapide Localisation : métropolie lilloise (1j de télétravail par semaine non négociable)
Offre d'emploi
Business analyst data / BI (Nantes)
Publiée le
Business Analysis
Data management
Data visualisation
Nantes, Pays de la Loire
Télétravail partiel
Métier et Fonction : Conseil métier, AMOA, Business Analyst. Spécialités technologiques : BI, API, Reporting. Type de facturation : Assistance Technique (facturation avec un taux journalier). Compétences techniques : SQL, Power BI. Public: Nantes (uniquement) Description de la prestation : Objectifs et environnement : Offrir une vue consolidée et fiable des données pour tous les métiers afin d'accompagner le Self BI. Passage de SAS à Power BI, avec une évolution possible vers Snowflake. Modernisation des outils. Missions principales : Analyse métier et besoins : Recueillir, formaliser et traduire en spécifications fonctionnelles, garantir la cohérence des données. Consolidation et qualité des données : Superviser la consolidation multi-sources (Nantes, Inde) et améliorer la qualité et les standards. Conception et restitution : Définir des vues métiers (extractions, dashboards) et mettre en place des solutions de reporting (Power BI, outils analytiques). Accompagnement de la transformation : Promouvoir le Self BI, participer à la transition vers un modèle Data Next, sensibiliser à la gouvernance des données.
Offre d'emploi
Chef de Projet Fonctionnel Confirmé – Archivage Numérique & Facture Électronique (H/F)
Publiée le
Pilotage
1 an
Saint-Grégoire, Bretagne
🎯 Contexte Au sein d’une Business Unit spécialisée en Archivage Numérique et Facture Électronique , rattaché(e) à la Direction de Projets, vous serez chargé(e) de piloter des projets de dématérialisation client/fournisseur, depuis la conception jusqu’au déploiement. Le contexte inclut des traitements industriels à forte volumétrie , nécessitant rigueur, coordination et très bonne maîtrise du pilotage. 📦 Livrables attendus Gestion complète de projets informatiques Accompagnement de l’équipe commerciale en avant-vente Dossiers techniques & réponses aux appels d’offres 🛠️ Missions principales Gestion de projets Planifier, organiser et piloter les projets en respectant les processus qualité Coordonner les acteurs internes et externes Suivre les risques, reportings et alertes projet Assurer la relation client & garantir la satisfaction Accompagner les interlocuteurs clients tout au long du projet Avant-vente Soutenir l’équipe commerciale dans les phases d’avant-vente Analyser les besoins techniques des clients Participer aux propositions : dossiers techniques, AO, études de faisabilité Valoriser l’offre auprès des prospects et clients 🧰 Compétences techniques requises 🎯 Impératifs (Confirmé) Analyse fonctionnelle Pilotage de projets 🎯 Autres compétences recherchées Gestion de projet / méthodologies Bonne culture IT Compréhension des architectures SI Maîtrise des outils bureautiques Connaissance de l’EDI (un plus)
Mission freelance
Data Engineer/ Expert GCP
Publiée le
BigQuery
Cloud
Data science
12 mois
530 €
Toulouse, Occitanie
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Offre d'emploi
Data Steward (H/F)
Publiée le
Data governance
1 an
45k-50k €
450-480 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre du renforcement de nos activités Data & IA , Winside recherche un Data Steward pour intervenir en régie chez un grand acteur national du secteur des services publics (nom volontairement anonymisé). Rattaché au Responsable Data du client, le Data Steward jouera un rôle clé dans l’ opérationnalisation de la gouvernance, de la qualité et de la valorisation des données , en collaboration avec les équipes IT et les équipes métiers. Le projet prioritaire du client en 2026 est la migration de son système d’information métier . L’enjeu consiste à capitaliser sur les travaux réalisés dans le cadre de cette migration pour structurer et documenter les données, tout en minimisant l’effort demandé aux équipes métiers. Les périmètres de données concernés sont : Les objets métiers impactés par les nouvelles fonctionnalités du SI cible. L’objet métier Client (référentiel client). Missions principales 1. Mise en place d’un Data Catalog & Glossaire métier Définir l’outil et la structure du data catalog dans une approche « juste nécessaire » (Excel, Notion… pas de solution outillée prévue en 2026). Rédiger les définitions fonctionnelles des données (glossaire). Formaliser le cycle de vie des données. Structurer, harmoniser et animer la documentation fonctionnelle et technique des données. 2. Mise en place d’un cadre de Data Quality Management Définir les principes, règles et contrôles de qualité des données. Concevoir les workflows de gestion entre acteurs IT et métiers. Participer à la conception des tableaux de bord de qualité et de l’alerting associé. 3. Appui à la conception du modèle de gouvernance des données Définir processus, rôles, responsabilités et instances de gouvernance. Accompagner la structuration du modèle opérationnel.
Offre d'emploi
Ingénieur Cloud VMware Senior – Pré-embauche (vSphere / VCF / NSX-T / AVI)
Publiée le
Cloud privé
VMware
1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte Dans le cadre d’un programme stratégique de construction d’un cloud privé souverain , nous recherchons un Ingénieur Cloud VMware Senior pour concevoir, déployer et sécuriser une plateforme VMware de nouvelle génération. Le projet s’inscrit dans un environnement exigeant, avec des enjeux forts de sécurité , haute disponibilité , résilience , et conformité . 📦 Livrables attendus Conception & développement des plateformes VMware Documentation d’exploitation (Runbook, Architecture, Procédures) Hardening & fiches de conformité sécurité 🛠️ Missions principales Conception & Build Concevoir et optimiser des plateformes VMware (vSphere, NSX-T, AVI, VCF) Définir des services Cloud adaptés aux besoins internes Participer au développement du Cloud privé souverain Administration & Exploitation avancée Administrer les infrastructures VMware : NSX-T, AVI, VCF, BGP Garantir la disponibilité, la performance et la résilience réseau (Cisco/Juniper) Assurer le troubleshooting avancé sur les incidents critiques Sécurité & Conformité Mettre en place des contrôles de sécurité avancés Réaliser audits, hardening et mises en conformité Support & Collaboration Accompagner les équipes internes (Dev, Cloud, Infra) Former et apporter un soutien technique Produire une documentation complète et fiable 🧰 Compétences techniques impératives VCF – Expert NSX-T – Expert AVI (NSX Advanced Load Balancer) – Expert vSphere / VMware Cloud Réseaux & BGP Très bonne connaissance des architectures Datacenter Français courant (impératif) 🎓 Profil attendu Bac+5 en informatique ou équivalent Minimum 6 ans d’expérience sur VMware Cloud Forte expertise architecture VMware / virtualisation / SDN Excellente capacité d’analyse, troubleshooting et sécurisation Goût pour l’innovation, la rigueur et les environnements critiques
Offre d'emploi
Business Analyst Data / Expert Data Management - Banque
Publiée le
Data analysis
Data governance
Data Lake
6 mois
45k-60k €
470-700 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un projet stratégique pour une grande banque européenne , nous recherchons deux profils complémentaires : Business Analyst Data et Expert Data Management. Vous interviendrez sur des sujets clés liés à la migration de Datalake et à la gouvernance des données . Vos responsabilités incluront : Participer à la migration et à la valorisation des données. Implémenter des contrôles de Data Governance (Ownership, Definition, Quality). Gérer les Metadata et le Data Lineage . Superviser le End User Computing (EUC) . Définir et exécuter des plans pour garantir la conformité avec les frameworks Data Management & EUC.
Mission freelance
Expert Azure Data Factory F/H - 3 mois
Publiée le
Azure Data Factory
ETL (Extract-transform-load)
3 mois
500-600 €
Saint-Denis, Île-de-France
Notre client dans le secteur Assurance recherche un Expert Technique Azure Data Factory H/F Descriptif de la mission: Offre de mission – Expert Technique Azure Data Factory / Data Engineering – Secteur Assurance Contexte de la mission Au sein d’un grand acteur du secteur de l’assurance, l’Expert Technique Azure Data Factory (ADF) intervient dans le cadre de la modernisation des plateformes data et de la migration vers un écosystème cloud Microsoft Azure. Il contribue à la conception, l’industrialisation et l’optimisation des flux de données nécessaires aux usages métier : tarification, souscription, actuariat, gestion des sinistres, reporting réglementaire et analyse de risques. Missions principales 1. Architecture & conception des flux data - Concevoir et optimiser des pipelines Azure Data Factory adaptés aux besoins métier. - Définir l’architecture cible des flux d’intégration et de transformation dans un environnement Assurance. - Participer à la mise en place d’une architecture Data Lakehouse (Azure Data Lake Storage, Delta Lake, Synapse). - Garantir la résilience, la scalabilité et la conformité des traitements. 2. Développement & industrialisation - Développer des pipelines ADF (ingestion, orchestration, transformation). - Implémenter des Data Flows, du mapping et des transformations complexes. - Automatiser les déploiements CI/CD avec Azure DevOps. - Intégrer les solutions avec l’écosystème data : Azure Databricks, Synapse Analytics, SQL, APIs, etc. 3. Optimisation & performance - Optimiser les traitements pour supporter des volumes importants (données contractuelles, sinistres, historiques). - Mettre en place des mécanismes d’alerting, monitoring, retry et gestion d’erreurs. - Conduire des analyses de performance et formuler des recommandations d’améliorations. 4. Gouvernance & sécurité - Contribuer à la mise en place des bonnes pratiques de sécurité et de conformité RGPD. - Gérer les accès via Azure AD, Key Vault, Private Endpoints. - Documenter les flux, les métadonnées et les règles de gestion. 5. Support technique & expertise - Conseiller les équipes Data, AMOA et Métiers Assurance sur les meilleures solutions cloud. - Assurer un rôle de référent sur Azure Data Factory et les briques d’intégration data. - Accompagner les équipes dans leur montée en compétence. Profil / compétences recherchées Compétences techniques obligatoires - Maîtrise approfondie d’Azure Data Factory (pipelines, triggers, integration runtime, Data Flows). - Très bonne connaissance d’Azure Data Lake Storage (ADLS Gen2). - Expertise en Azure SQL, Synapse Analytics, Azure Functions. - Pratique des environnements CI/CD Azure DevOps. - Maîtrise du SQL avancé et de l’optimisation de requêtes. - Connaissance des enjeux du secteur de l’assurance : données contractuelles, sinistres, référentiels, réglementaire. Compétences nice to have - Notions de Databricks / PySpark. - Connaissance des modèles Data Vault / Lakehouse. - Expérience avec Power BI ou des outils de visualisation. - Compréhension des normes Solvabilité II, IFRS 17, des risques et de l’actuariat. Compétences / Qualités indispensables: Maîtrise approfondie d’Azure Data Factory Anglais courant
Offre d'emploi
Lead Technical Architect – Environnement Finance de Marché (H/F)
Publiée le
Big Data
Finance
Time series
3 ans
46k-58k €
400-550 €
Île-de-France, France
Télétravail partiel
🎯 Contexte Un département stratégique dédié à la recherche quantitative en finance de marché recherche un Lead Technical Architect pour renforcer ses équipes. La mission s’inscrit au cœur d’un environnement global, à forte intensité data et compute, travaillant en étroite collaboration avec des équipes Quant , IT , Research et Ops . Vous interviendrez sur des plateformes critiques liées au pricing , au risk management , aux time-series data et à la performance des systèmes de calcul. 🛠 Vos responsabilités Au sein du groupe en charge des infrastructures compute et market data, vous aurez pour missions : Repenser et optimiser l’architecture des services Compute et Histo . Améliorer la scalabilité , la performance et la résilience de l’infrastructure grid. Fournir des recommandations structurantes sur la stack haute disponibilité. Rewriting / refactoring de composants techniques ne répondant pas aux exigences de performance. Participer à la définition des frameworks pour les services de market data haute demande. Travailler au quotidien avec les équipes quant, recherche et ingénierie.
Offre d'emploi
Data Analyst H/F
Publiée le
Business Intelligence
Microsoft Power BI
Microstrategy
12 mois
45k-48k €
360-420 €
Montpellier, Occitanie
Télétravail partiel
HN Services recrute un·e Data Analyst pour intervenir sur des projets BI et Digital Data pour l’un de nos clients situé à Montpellier . Contexte et mission : Vous intégrerez un environnement agile (Scrum) au sein de l'équipe Data et collaborerez étroitement avec les équipes métiers et Business Analysts. Votre rôle sera de : Collecter, exploiter et restituer les données sous forme d’indicateurs et tableaux de bord. Conduire des analyses Data liées aux problématiques métiers. Présenter les résultats aux équipes et véhiculer les bonnes pratiques de gouvernance Data (Data Management, Data Privacy). Participer à l’évolution des pratiques dans une logique d’amélioration continue. Intervenir sur des activités BI (fabrication de dashboards via Microstrategy, calcul d’indicateurs SQL sur Teradata). Selon l’évolution de la mission : mise en œuvre du tracking des parcours utilisateurs et analyses marketing (Tag Commander, Piano Analytics, Cosmo Survey). Environnement technique : Outils de Data Visualisation : Microstrategy (expert), Power BI, Tableau. Langage : SQL (expert). Solutions analytiques : Tag Commander, Piano Analytics. Connaissance fonctionnelle de l’analyse data dans le domaine bancaire.
Mission freelance
Chef de Projet Technique DATA
Publiée le
BigQuery
Cloud
Comité de pilotage (COPIL)
6 mois
Paris, France
Télétravail partiel
Dans le cadre de la modernisation de son écosystème Data et de la montée en charge de projets stratégiques Cloud, nous recherchons un Chef de Projet Technique confirmé spécialisé GCP. Vous interviendrez au sein d’une DSI Assurance mobilisée autour de l’industrialisation de ses usages Data et de l’accélération des livraisons sur la plateforme Cloud. Votre rôle Vous jouez un rôle clé dans la coordination technique, la structuration des travaux DATA sur GCP et le pilotage global de l’avancement du programme. Vos responsabilités • Piloter les projets Data hébergés sur Google Cloud Platform. • Coordonner les équipes techniques (Data, IT, Cloud, Transverse). • Assurer le suivi planning, risques, charges et dépendances. • Organiser et animer les comités projet / comités techniques. • Consolider les besoins techniques et suivre l’avancement des actions. • Garantir la qualité des livrables, la cohérence technique et la bonne circulation de l’information. • Veiller au respect des normes internes, bonnes pratiques Cloud et exigences de sécurité.
Mission freelance
Consultant Data Snowflake SQL
Publiée le
Snowflake
SQL
12 mois
Paris, France
Télétravail partiel
Analyse de la données Le consultant freelance accompagnera la mise en place, l’optimisation et l’automatisation des traitements de données sur Snowflake et Databricks, ainsi que le développement de scripts pour améliorer les processus internes. Missions principales Analyse de la donnée Analyser les besoins métiers et produire des jeux de données fiables et pertinents. Concevoir, optimiser et maintenir des requêtes SQL et objets Snowflake (tables, vues, pipelines). Développer des transformations et workflows sur Databricks Créer et maintenir des scripts d’automatisation (Python, PowerShell, .NET selon besoins). Documenter les traitements et assurer un niveau de qualité élevé des données. Collaborer avec les équipes internes pour faciliter l’utilisation et la compréhension des datasets.
Mission freelance
Data Analyst - Part-time (DBT - GitLab- Looker- BigQuery)
Publiée le
BigQuery
Data analysis
Data cleaning
6 mois
350-470 €
Genève, Suisse
Télétravail 100%
Cette mission est en Mi-Temps Nous recherchons deux data analyst pour une migration de modèles DBT afin de changer une partie du sourcing de la partie principale des Datamarts. Environnement & Contexte : Principalement pour les tables Client & Transactions, mais aussi d’autres modèles (Campaign, Clienteling), nous souhaitons ne plus nous sourcer sur un Datalake central, mais sur des données préparées dans un Datamart par une autre équipe, ce qui permettra de simplifier les scripts et supprimer les transformations. Il est crucial d’assurer la consistance des Data à tous les niveaux. Une analyse de gap sur les outputs principaux (Transaction, Client) a déjà été effectuée, avec un presque alignement au niveaux du nombre de record par Primary Key, mais au cours de la migration, il y aura forcément des différences relevées sur les dimensions/mesures, que vous allez devoir analyser, investiguer et remonter. Le Data Engineer aura pour mission principales : Revoir une bonne partie des modèles DBT dans notre Datamart Client qui contient environ 45 modèles finaux (et 60 modèles intermédiaires), pour modifier le sourcing (au lieu de sources brutes, se reposer sur un Datamart qui contient déjà certains indicateurs que nous préparions de notre côté) Simplifier et supprimer les transformations du script Client pour en simplifier la maintenance, et les investigations. Test de non regression sur le modele final, pour garantir que les outputs sont ISO (ou très proches, avec investigations des écarts et remontée/échanges avec l’équipe en charge du Datamart) Validation dans les outils finaux (explores/dashboards Looker) de la consistance des chiffres. Mise à jour de la documentation des modèles (SQL, Yaml, Confluence, Data Model)
Offre d'emploi
Data Analyst H/F
Publiée le
Data analysis
Database
PL/SQL
35k-40k €
Saint-Brieuc, Bretagne
Lieu : Saint-Brieuc (22) Salaire : 35/40K€ Rythme : Présentiel Nous recrutons pour un intégrateur de solutions industrielles et tertiaires en pleine croissance situé à proximité de Saint-Brieuc dans les Côtes d’Armor. Il s’identifie comme un interlocuteur global pour les entreprises ayant besoin de solutions logicielles innovantes en automatisation, informatique, électricité, GTB, maintenance… Il souhaite couvrir l’ensemble du cycle, de l’étude/conception à la mise en œuvre, la formation, la maintenance et le suivi de leurs clients, afin d’apporter une solution clés-en-main. Dans le cadre de leur développement, notre client souhaite recruté un Data Analyst confirmé. Les missions sont les suivantes : - Interpréter les besoins métier et les transformer en problématiques analytiques exploitables. - Veiller à la qualité, la cohérence et la robustesse des données utilisées dans les modèles et analyses. - Préparer, explorer et modéliser des jeux de données complexes afin d’en extraire des résultats actionnables. - Développer et maintenir des indicateurs, rapports avancés et outils analytiques pour soutenir les décisions stratégiques. - Documenter les méthodes, modèles et workflows, et contribuer à la diffusion des bonnes pratiques data au sein de l’organisation. - Accompagner et former les utilisateurs aux analyses, modèles et outils développés pour garantir leur bonne appropriation. - Effectuer une veille continue sur les technologies, méthodes statistiques et avancées en machine learning, puis partager les évolutions pertinentes avec l’équipe.
Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data
Publiée le
Cloud
Data analysis
Microsoft Power BI
3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Passage sasu à eurl: transition mutuelle/prévoyance
- Décider quand on est freelance selon ses chiffres
- Résultat négatif veut dire CCA débiteur donc illégal ?
- Transfert d'activité - cession du fond de commerce
- Mise à jour info-retraite
2267 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois