L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 49 résultats.
Offre d'emploi
ARCHITECTE DATA / BI / POWER BI SENIOR
Publiée le
Azure
Microsoft Power BI
3 ans
40k-60k €
400-650 €
Paris, France
Télétravail partiel
Bonjour 🙃, Pour le compte de notre client, nous recherchons un Architecte DATA / BI / CLOUD AZURE / POWER BI. Contexte : Dans le cadre de projets stratégiques de transformation digitale et d’exploitation des données, nous recherchons un Architecte Data expert sur les environnements Azure et outils Power BI . Le consultant sera intégré aux équipes Data & BI pour définir l’architecture cible, piloter les projets d’intégration, et garantir la qualité et la sécurité des flux de données. Missions principales : Définir et mettre en œuvre l’architecture Data sur le cloud Azure (Data Lake, Data Factory, Databricks, Synapse). Concevoir et structurer les pipelines de données pour ingestion, traitement et transformation des données massives. Développer et superviser des solutions Power BI : dashboards, rapports, cubes tabulaires, DAX, modèles analytiques. Assurer la qualité, sécurité et gouvernance des données , en lien avec les référents Data et équipes infrastructure. Piloter les phases de modélisation et intégration des données, en collaboration avec les Data Engineers et Data Analysts. Participer à la définition des standards de développement , bonnes pratiques et documentation technique. Réaliser des revues techniques et valider les choix d’implémentation des équipes projet. Conseiller les métiers sur l’exploitation des données et la prise de décision via les outils BI . Participer à l’accompagnement et formation des équipes sur les pratiques et outils Data. Compétences techniques indispensables : Expertise en Azure Data Platform : Data Lake, Data Factory, Synapse Analytics, Databricks. Maîtrise des langages SQL / T-SQL et des pratiques de modélisation de données. Power BI : développement de dashboards, rapports, modèles analytiques et DAX. Connaissance des ETL/ELT , pipelines et intégration de flux complexes. Connaissance de la sécurité, gouvernance et gestion des accès aux données. Expérience avec CI/CD sur Azure DevOps et versioning. Compétences transverses : Vision globale et capacité à traduire les besoins métiers en architecture technique. Leadership et capacité à piloter et conseiller des équipes techniques. Excellent relationnel et communication avec les équipes techniques et métiers. Sens de l’organisation et capacité à gérer plusieurs projets simultanément.
Mission freelance
POT8768 - Un Architecte Data Azure sur Lyon
Publiée le
Azure
6 mois
260-380 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Architecte Data Azure sur Lyon. Profil: Un expert capable de concevoir et piloter des architectures robustes et évolutives sur Azure, Faveod, et d’autres technologies pertinentes. Il interviendra sur des projets complexes : reprise et évolution de systèmes, transfert de compétences, et accompagnement stratégique. Missions : Mise en place technique : Installation et configuration des environnements, paramétrage des données, des accès et de la sécurité, mise en place des connecteurs hors production, proposition d’architecture et documentation. Adaptation des cas d’usage : Collecte des besoins, formalisation des scénarios, configuration des parcours et automatisations, recommandations d’optimisation. Formation & transfert : Création de supports et animation de sessions pour les équipes techniques et métiers. Pilotage & ajustement : Suivi des livrables et du planning, contrôle des KPI et qualité des données, ajustements, rapport final et recommandations (bilan et ROI). Profil : Expertise confirmée : Technologies Azure, Faveod, et autres outils pertinents. Expérience significative : Projets de consultation IT, reprise et évolution de systèmes, transfert de compétences, projets IT complexes. Certifications appréciées : Certifications Azure et autres liées aux technologies utilisées.
Offre d'emploi
PIXIE - Architecte Data Sénior Lyon/Paris +7 ans - Data IA
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
3 ans
France
Bonjour Pour un de mes clients, je recherche un(e) Architecte Data Sénior Site : Lyon (2 jours par semaine sur site) ou Paris Expérience : +7 ans Contexte : Mission pour la cellule Marché Data IA Profil recherché : Architecte Data Sénior Missions principales : Définir la stratégie et la feuille de route Data Structurer et cadrer les chantiers Data Animer la communauté Data Mettre en place la gouvernance des données Contribuer aux choix d’architecture et d’outils Produire des livrables Data Piloter l’avancement en mode Agile avec reporting Compétences clés : Stratégie Data expert Gouvernance Data expert Architecture Data expert Animation transverse maîtrise Agile et Planisware connaissance Environnement : Planisware Outils Data GitLab, Jira, Confluence, ITSM Teams, SharePoint AWS, GCP Résumé : Architecte Data Sénior avec forte expertise en stratégie, gouvernance et architecture Data, environnement cloud et Agile Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger.
Mission freelance
architecte data senior API Lyon/3 jours TT
Publiée le
API REST
Architecture
6 mois
520-700 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
architecte data senior API Lyon . Compétences attendues : Architecture technique : compréhension des infrastructures, intégration, scalabilité Maitrise des briques techniques, APIs, frameworks et librairies Maîtrise des démarches de design Solution technique (concept, ateliers, livrables Traduction des exigences fonctionnelles et non fonctionnelles en spécifications techniques. Connaissance des standards d’intégration (REST, GraphQL, ESB, etc.). Communication et vulgarisation : capacité à expliquer des concepts complexes au sein d’une équipe pluridisciplinaire Collaboration interdisciplinaire : capacité à travailler étroitement avec différentes parties prenantes (métiers et IT) Méthodologies agiles Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Séniorité : Minimum 7 ans d’expérience Missions : Contributions à la découverte du périmètre fonctionnel (Collaborer avec l’équipe produit pour aligner l’architecture sur les objectifs métier, clarifier les exigences, définir les personas et scénarios d’usage afin de répondre aux besoins des utilisateurs finaux.) Design de solution technique (Définir les exigences non fonctionnelles et critères de succès techniques, tout en analysant les intégrations et dépendances avec les systèmes et infrastructures existants.) Contribuer à l’amélioration du design de solution Compétences attendues : Architecture technique : compréhension des infrastructures, intégration, scalabilité Maitrise des briques techniques, APIs, frameworks et librairies Maîtrise des démarches de design Solution technique (concept, ateliers, livrables Traduction des exigences fonctionnelles et non fonctionnelles en spécifications techniques. Connaissance des standards d’intégration (REST, GraphQL, ESB, etc.). Communication et vulgarisation : capacité à expliquer des concepts complexes au sein d’une équipe pluridisciplinaire Collaboration interdisciplinaire : capacité à travailler étroitement avec différentes parties prenantes (métiers et IT) Méthodologies agiles
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
Publiée le
Azure
BI
24 mois
275-550 €
Massy, Île-de-France
Télétravail partiel
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Mission freelance
Architecte Data – Expert Azure
Publiée le
Azure
Big Data
3 ans
650-700 €
Paris, France
Télétravail partiel
Architecte Data – Expert Azure L’Architecte Data interviendra en tant que référent transverse sur les études, les cadrages et la conception d’architectures data bâties autour de l’écosystème Azure (Azure Data Lake, ADF, Databricks, Synapse/Fabric, Purview…). Au-delà de l’expertise Azure, il jouera un rôle de conseil , capable de vulgariser les enjeux data et de présenter des solutions claires et impactantes auprès des directions métier et exécutives, dans une posture “cabinet de conseil”. Responsabilités principales : Réaliser des études d’architecture et de chiffrage (DAT, estimations, roadmaps) avec un focus fort sur Azure Data . Concevoir des architectures data modernes sur Azure : ingestion, stockage, modélisation, gouvernance, analytics/AI. Traduire les besoins métier en solutions Azure pragmatiques, sécurisées et alignées sur les standards de l’entreprise. Produire des livrables premium : présentations PowerPoint, supports de cadrage, pitchs d’arbitrage, dossiers de décision. Vulgariser les sujets Azure auprès d’interlocuteurs non techniques (métiers, directions). Conseiller, challenger et proposer des trajectoires data orientées Azure, en réalisant benchmarks et recommandations. Travailler en proximité avec les équipes Data Engineering, BI, IA, Cloud et les autres architectes. Profil recherché : Bac+5 (ingénieur ou équivalent). 5 à 10 ans d’expérience minimum en architecture data , avec une expertise Azure confirmée . Maîtrise des principaux services Azure Data : Data Lake, ADF, Databricks/Fabric, Synapse, Purview, ETL/ELT, sécurité, gouvernance. Excellent relationnel, capacité à adapter son discours selon les interlocuteurs (métiers, DSI, direction). Solide maîtrise de la structuration et mise en scène de l’information (slides, storytelling, cadrage). Expérience en conseil / ESN appréciée (présentation, posture, relation client). Équilibre stratégie / technique : parler d’architecture sans rentrer dans le code. Soft skills clés : Pédagogue, excellent vulgarisateur. Curieux, structuré, orienté impact. Parfaitement à l’aise dans les présentations. Posture de consultant : écoute, influence, crédibilité.
Mission freelance
Architecte Data - Toulouse
Publiée le
Architecture
AWS Cloud
Big Data
6 mois
Toulouse, Occitanie
Environnement technique de la prestation À la suite d’une réorganisation interne ayant entraîné le départ de collaborateurs clés, le client fait face à une perte de maîtrise opérationnelle de sa plateforme Data. Cette dernière, incluant les services BI (Data Warehouse et Power BI), est désormais considérée comme un service critique, avec une exigence de disponibilité et de performance 24/7. Cette évolution s’accompagne d’une sollicitation accrue de la plateforme et d’une consommation continue des données, nécessitant une réactivité renforcée et une supervision proactive. Prestation attendue La mission consistera à travailler sur : Frameworks d’ingestion et restitution : Définir les standards pour ingestion (batch, streaming, CDC) et restitution (API, BI, data services). Vision AS IS > TO BE Framework « Observabilité & qualité des données » : Définir métriques et roadmap pour monitorer la qualité des données critiques, en lien avec une initiative déjà lancée avec SODA. Monitoring des flux & santé de la plateforme : Contribuer à la mise en place des indicateurs et outils pour surveiller la performance et la disponibilité des pipelines, service et ressources de la plateforme. (en lien avec le plan de robustification déjà lancé et les travaux menés en parallèle sur la partie FinOps) Plan de migration SSIS + SQL Server → Snowflake : Définir la méthodologie (phases, outils, patterns). Identifier les risques et dépendances. Stratégie d’Access Management : (priorité 2) Définir les rôles, politiques RBAC/ABAC. Garantir la conformité avec les standards de sécurité et gouvernance. Tous éléments de documentation jugés nécessaires pour sécuriser la gestion quotidienne et évolutive de la plateforme : des travaux de retro-documentations pourraient être réalisés afin d’illustrer les écarts VS état de l’art. Ces activités mèneront à la production des livrables ci-dessous : Documentation des frameworks ingestion & restitution(As is > To be). Plan d’observabilité & qualité des données (métriques, outils, roadmap). [CONTRIBUE]Tableau de bord pour monitoring des flux et santé plateforme. Plan de migration (méthodologie, roadmap, estimation effort). Stratégie d’Access Management (modèle de rôles, règles d’accès). Formaliser la feuille de route opérationnelle 2026+ avec le data architect déjà en place pour limiter les écarts avec l’état de l’art.
Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)
Publiée le
Architecture
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Mission freelance
Product Owner Data (Finance)
Publiée le
Backlog management
Data management
Finance
1 an
Montréal, Québec, Canada
Télétravail partiel
Product Owner Data – Secteur Bancaire (Montréal) Dans le cadre d’un programme de données stratégique, nous recherchons un(e) Product Owner Data pour intervenir chez un client majeur du secteur bancaire, basé à Montréal. 🎯 Contexte du mandat Programme de transformation et gouvernance des données Gestion de données transverses à l’échelle de l’organisation Collaboration étroite avec les équipes Data, IT et métiers 🧩 Responsabilités Porter la vision produit Data et gérer le backlog Recueillir, analyser et prioriser les besoins métiers liés aux données Travailler avec les équipes techniques (Data Engineers, Architectes, BI, etc.) Assurer la valeur business des produits Data livrés Participer aux cérémonies agiles (planification, refinement, reviews) Contribuer à la gestion de produit dans un contexte bancaire réglementé.
Offre d'emploi
Architecte Big Data GCP & Cloudera (H/F)
Publiée le
Cloudera
Google Cloud Platform (GCP)
1 an
55k-70k €
550-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Architecte Big Data confirmé maîtrisant les environnements GCP (Google Cloud Platform) et Cloudera , capable d’allier vision stratégique et excellence technique. En tant qu’Architecte Big Data, vous interviendrez sur des projets de transformation data à grande échelle : Concevoir et faire évoluer des architectures Big Data hybrides (Cloud & on-premise). Définir la stratégie de données et les bonnes pratiques de gouvernance, sécurité et performance. Encadrer les équipes techniques (Data Engineers, DevOps, Data Scientists). Piloter les choix technologiques sur les écosystèmes GCP (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc) et Cloudera (CDP, HDFS, Hive, Spark, Kafka) . Garantir la scalabilité, la résilience et l’optimisation des coûts des plateformes data. Participer aux revues d’architecture et à la veille technologique sur les solutions Cloud et Open Source.
Mission freelance
ARCHITECTE DATA SNOWFLAKE AWS-anglais courant- Habilitable H/F
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Snowflake
40 jours
400-600 €
Blagnac, Occitanie
La mission consistera à travailler sur : •Frameworks d’ingestion et restitution : oDéfinir les standards pour ingestion (batch, streaming, CDC) et restitution (API, BI, data services). Vision AS IS > TO BE •Framework « Observabilité & qualité des données » : oDéfinir métriques et roadmap pour monitorer la qualité des données critiques, en lien avec une initiative déjà lancée avec SODA. •Monitoring des flux & santé de la plateforme : oContribuer à la mise en place des indicateurs et outils pour surveiller la performance et la disponibilité des pipelines, service et ressources de la plateforme. (en lien avec le plan de robustification déjà lancé et les travaux menés en parallèle sur la partie FinOps) •Plan de migration SSIS + SQL Server → Snowflake : oDéfinir la méthodologie (phases, outils, patterns). oIdentifier les risques et dépendances. •Stratégie d’Access Management : (priorité 2) oDéfinir les rôles, politiques RBAC/ABAC. oGarantir la conformité avec les standards de sécurité et gouvernance. •Tous éléments de documentation jugés nécessaires pour sécuriser la gestion quotidienne et évolutive de la plateforme : des travaux de retro-documentations pourraient être réalisés afin d’illustrer les écarts VS état de l’art. Ces activités mèneront à la production des livrables ci-dessous : •Documentation des frameworks ingestion & restitution(As is > To be). •Plan d’observabilité & qualité des données (métriques, outils, roadmap). •[CONTRIBUE]Tableau de bord pour monitoring des flux et santé plateforme. •Plan de migration (méthodologie, roadmap, estimation effort). •Stratégie d’Access Management (modèle de rôles, règles d’accès). •Formaliser la feuille de route opérationnelle 2026+ avec le data architect déjà en place pour limiter les écarts avec l’état de l’art.
Offre d'emploi
Data Engineer Snowflake - Lyon
Publiée le
Snowflake
40k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser et conseiller pour améliorer l’efficacité des solutions Snowflake chez nos clients. - Participer à la rédaction des dossiers d’architecture et des spécifications techniques. - Mettre en œuvre des stratégies d’exploitation de la plateforme Snowflake. - Développer et superviser des flux d’intégration (batch ou streaming) pour des volumes importants de données. - Surveiller les jobs ETL/ELT, logs et alertes, et optimiser les temps de traitement. - Administrer Snowflake chez ton client (gestion des rôles, permissions, warehouses). - Optimiser les requêtes SQL (à l’aide du Query Profile). - Contrôler la qualité des données (Data Quality) et la consommation des ressources (FinOps). - Tester, valider et documenter les développements. - Réaliser des audits et projets d’optimisation.
Offre d'emploi
Développeur Stambia (H/F)
Publiée le
Stambia
36k-44k €
Lille, Hauts-de-France
Télétravail partiel
Dans le cadre de l’évolution de sa plateforme de données, le client souhaite renforcer son équipe Data Integration par un développeur Stambia . L’objectif est d’assurer le développement, la maintenance et l’optimisation des flux d’intégration de données, dans un contexte de modernisation du SI et de forte interconnexion entre systèmes métiers. Concevoir, développer et maintenir des mappings et processus d’intégration avec Stambia ETL / DI Réaliser les interfaces de chargement (batch ou temps réel) entre les différentes applications métiers et le Datawarehouse Mettre en place des flux d’alimentation de référentiels (produits, clients, ventes, etc.) Garantir la qualité et la cohérence des données (contrôles, rejets, logs) Contribuer à la documentation technique et au transfert de compétences Participer à la revue de code et à l’optimisation des performances Assurer le MCO des jobs Stambia (monitoring, correction des anomalies, évolutions) Participer à la migration des flux vers des environnements Cloud ou Big Data (selon roadmap du client) Équipe Data Integration (4 à 6 personnes) Product Owner / Data Architect Référent technique Stambia Collaborations transverses avec les équipes BI, DataOps et Infrastructure
Mission freelance
MDM Architecte
Publiée le
Master Data Management (MDM)
3 mois
Paris, France
Télétravail partiel
L’ Architecte Master Data occupe un rôle central au sein de l’équipe Master Data. Sur la base des cas d’usage métier (c’est-à-dire des besoins exprimés par les équipes business), il ou elle est responsable de : Définir et concevoir la solution (avec les spécifications fonctionnelles et techniques) dans le cadre de notre Master Data Operating Model — incluant les entités, les champs, les interfaces et les métadonnées — maintenu dans notre l'outil. Gérer le consultant développement chargé de réaliser les développements techniques dans l’outil MDM, Définir les tests appropriés pour valider la solution développée, Collaborer avec l’équipe de la Dev Factory responsable de la couche AWS Redshift , afin de les informer sur les liens à établir entre les données transactionnelles Analyser les besoins et concevoir l’architecture / les spécifications des interfaces avec les autres systèmes. Ainsi, le ou la Master Data Architect est à la fois orienté(e) métier (pour comprendre les besoins business) et technique (pour concevoir des solutions adaptées). Une bonne connaissance de l’outil MDM sont fortement appréciées. Enfin, la maîtrise de l’anglais et une expérience dans un environnement international sont indispensables.
Mission freelance
DATA Engineer - AWS(H/F)
Publiée le
AWS Cloud
Azure DevOps
Data Lake
1 an
510-540 €
Île-de-France, France
Télétravail partiel
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Mission freelance
Data Engineer (F/H) - 56
Publiée le
Apache Kafka
Java
Shell
1 an
Vannes, Bretagne
Télétravail partiel
- Participer à la définition de l’architecture Data avec les architectes et la Squad - Concevoir, affiner et développer des solutions de collecte et de stockage multi-sources (batch et streaming) pour les usages métiers - Mettre en œuvre des tests unitaires et automatisés - Déployer le produit sur les différents environnements - Assurer le bon fonctionnement en production : suivi, assistance, gestion des incidents - Contribuer à l’amélioration continue et à la qualité du code //////////----------))))))))))
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Création de site Wordpress : BIC ou BNC ?
- Quel logiciel de compta en ligne avez vous choisi et pourquoi ? Avec quel compte pro en ligne ?
- Passage sasu à eurl: transition mutuelle/prévoyance
- Meilleure banque pour compte pro
- Est ce que Indy est suffisant ?
49 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois