Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 195 résultats.
Offre d'emploi
Responsable de Domaine Data (H/F) - 92
Publiée le
ETL (Extract-transform-load)
Microsoft Power BI
Sap BO
Antony, Île-de-France
Télétravail partiel
Je recherche pour l’un de mes clients, un groupe français d’envergure nationale, engagé dans une refonte et une structuration ambitieuse de sa stratégie Data, un(e) Responsable de Domaine Data / BI en CDI. Vous rejoindrez une DSI en transformation, avec des enjeux forts autour de la modernisation du socle décisionnel, de la gouvernance de la donnée et de l’accompagnement des métiers dans l’exploitation de la data comme levier de performance. Mission Rattaché(e) à la Direction des Systèmes d’Information, vous êtes garant(e) de la stratégie Data du Groupe et du pilotage opérationnel des plateformes décisionnelles. Vous jouez un rôle clé à la fois managérial, stratégique et opérationnel, avec la responsabilité directe de l’équipe BI et de l’évolution de l’architecture Data. Vos principales missions seront les suivantes : Pilotage de la stratégie Data et BI - Définir et piloter la feuille de route Data en lien avec le DSI et les directions métiers. - Participer activement à la refonte du système d’information décisionnel. - Être force de proposition sur les choix d’architecture et d’évolutions technologiques. - Contribuer à la gouvernance de la donnée (qualité, fiabilité, sécurité, conformité). Management de l’équipe BI - Encadrer et animer une équipe BI de 5 à 10 personnes, internes et prestataires. - Organiser la charge de travail, prioriser les demandes et garantir le respect des engagements. - Accompagner la montée en compétences et diffuser les bonnes pratiques. - Fédérer les équipes autour d’une vision Data claire et structurante. Supervision technique et opérationnelle - Garantir le bon fonctionnement, la maintenance et l’évolution des plateformes BI existantes. - Superviser les environnements décisionnels : SAP BW, BO, Power BI, Snowflake, ETL. - Assurer la performance, la fiabilité et la disponibilité des flux et entrepôts de données. - Intervenir ponctuellement de manière opérationnelle sur des sujets techniques à forte valeur ajoutée. Relation métiers et accompagnement - Recueillir, challenger et prioriser les besoins Data des différentes directions métiers. - Garantir la qualité et la pertinence des livrables : indicateurs, tableaux de bord, KPIs. - Accompagner les métiers dans l’appropriation et l’usage de la donnée. - Participer aux projets transverses DSI à dimension Data.
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Offre d'emploi
Data Analytics - Gestion de projet Data (F/H)
Publiée le
42k-47k €
Dijon, Bourgogne-Franche-Comté
Télétravail partiel
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Dijon - Expérience de 5 ans minimum Et si votre prochain poste vous permettait d’influencer directement les décisions de directions métiers ? Si vous aimez donner du sens aux chiffres, structurer la donnée pour éclairer la décision et travailler au cœur de la gouvernance de portefeuilles de projets, ce poste mérite clairement votre attention. Nous renforçons aujourd’hui une équipe Data intervenant auprès d’un grand acteur bancaire, sur des sujets de mesure de performance, pilotage de portefeuille projets et restitution stratégique. Pourquoi ce poste existe ? Les directions métiers pilotent de nombreux projets Data et ont besoin d’une vision fiable, lisible et partagée de leur performance. Votre rôle : transformer des mesures brutes en indicateurs exploitables, puis en leviers d’amélioration concrets. Concrètement, à quoi va ressembler votre quotidien : Vous intervenez comme référent Data & pilotage de la performance sur un portefeuille de projets : - Vous pilotez l’échantillonnage des projets soumis à mesure de performance, en lien avec des prestataires externes, - Vous suivez la production des mesures, challengez leur qualité et sécurisez la fiabilité des données, - Vous construisez, analysez et faites vivre les indicateurs de performance du portefeuille projets, - Vous préparez et restituez les analyses lors de points mensuels avec des directeurs et instances de gouvernance, - Vous proposez et animez des plans d’actions concrets pour aider les directions à progresser dans le pilotage de leurs projets. Ici, la Data n’est pas décorative : elle sert à décider et à améliorer.
Offre d'emploi
Architecte Data & IA H/F
Publiée le
75k-90k €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : ej5xc6vlwk
Offre d'emploi
Chef de projets DATA F/H
Publiée le
40k-50k €
Niort, Nouvelle-Aquitaine
Chef de projets DATA F/H - Niort Chef de Projet DATA F/H Rejoignez EXPERIS et participez à des projets stratégiques autour de la valorisation de la donnée ! Nous accompagnons nos clients dans leur transformation digitale et nous recherchons un Chef de Projet DATA expérimenté pour piloter et animer des initiatives clés dans le domaine de la Data et de l'IA. Votre rôle Au sein d'une équipe dédiée à la DATA, vous serez un acteur central dans la mise en œuvre d'un nouveau modèle Data. Votre mission : garantir la qualité, la fiabilité et la performance des solutions déployées. Vos principales responsabilités : Piloter l'activité et assurer le management opérationnel d'une équipe composée de 2 pôles. Accompagner les équipes dans la conception et les PO dans la relation métier. Garantir les livrables et la satisfaction des clients internes. Animer des ateliers métiers et des task forces en cas d'incidents. Challenger les solutions techniques et contribuer à la qualification des projets.
Mission freelance
Architecte Data Cloud Salesforce
Publiée le
Salesforce Sales Cloud
3 ans
400-550 €
Paris, France
Télétravail partiel
Expert de la nouvelle plateforme Data Cloud de Salesforce, vous pilotez la stratégie d'unification des données clients en temps réel. Votre rôle consiste à concevoir l'architecture d'ingestion des données provenant de sources hétérogènes (Data Lakes, systèmes legacy, web/mobile) pour créer une "Golden Record" unique. Vous paramétrez les processus d'harmonisation, de réconciliation (Identity Resolution) et de segmentation avancée pour alimenter les cas d'usage marketing et service. Vous travaillez sur l'activation des données vers les différentes clouds Salesforce et les systèmes externes via des Data Actions. Vous garantissez la performance des flux de données à haute vélocité et veillez au respect des politiques de confidentialité. Véritable trait d'union entre le CRM et le Big Data, vous permettez à la banque de passer d'une vision transactionnelle à une vision client ultra-personnalisée et prédictive.
Mission freelance
Responsable d’Application (RUN & DATA GCP)
Publiée le
Git
Reporting
Shell
6 mois
Lille, Hauts-de-France
Télétravail partiel
Localisation : Lille Contexte : International 1) Description de la mission Située dans un contexte international, cette mission concerne la gestion de plusieurs produits digitaux récemment déployés, avec des enjeux clés tels que : la fiabilité la continuité de service la qualité des données la performance opérationnelle Le poste de Responsable d’Application combine une responsabilité majeure dans le domaine du RUN applicatif (support, gestion des incidents, maintien en conditions opérationnelles, performance) et une contribution technique liée aux composants DATA sur GCP. Il s’inscrit dans une démarche d’amélioration continue et de développement progressif des compétences sur la stack technologique. Le profil recherché doit être à la fois technico-fonctionnel, avec une orientation vers le pilotage du RUN et du support applicatif, plutôt que vers un rôle exclusivement de développement. 2) Objectifs & responsabilités principales Pilotage du RUN applicatif Assurer la gestion des incidents et des problèmes Garantir le maintien en conditions opérationnelles (MCO) Suivre la performance à l’aide de KPI et produire un reporting régulier Maintenir la stabilité et la continuité du service pour le périmètre concerné Pilotage opérationnel & coordination transverse Animer les instances de projet et de run : COMOP / COPIL Coordonner les différentes parties prenantes : équipes IT, métiers, TMA, éditeurs, pays Gérer le pilotage opérationnel global et assurer le suivi des actions Mise en production & évolutions Accompagner les mises en production (MEV) Suivre l’avancement des projets et évolutions du périmètre Garantir la maîtrise à la fois fonctionnelle et technique des outils Assurer la maintenance évolutive Contribution DATA (GCP) Analyser et comprendre les flux de données et leurs usages Intervenir techniquement sur des aspects tels que SQL ou troubleshooting data Développer ou faire évoluer certains composants sous GCP si nécessaire Participer activement à l’amélioration continue et à la montée en compétences sur la stack DATA 3) Livrables attendus Suivi du RUN avec : – Tableaux de bord KPI – Reporting régulier (incidents, performance, disponibilité) Comptes rendus et supports d’instances : – COMOP / COPIL – Plan d’actions pour le RUN et l’amélioration continue Suivi des mises en production (MEV) : – Préparation, coordination, validation et accompagnement Documentation opérationnelle et technique du périmètre Analyses des flux DATA et résolution d’anomalies
Offre d'emploi
Consultant senior Movex / M3 spécialisé en data migration (H/F)
Publiée le
ERP
6 mois
40k-71k €
400-840 €
Île-de-France, France
Nous recherchons pour l’un de nos clients un Consultant senior Movex / M3 spécialisé en data migration (H/F). Le poste est à pourvoir en freelance ou en CDI. Missions : Conduire la migration et la transformation de données sur Movex / M3. Analyser les données legacy. Définir les règles de mapping. Assurer la qualité et la cohérence des données migrées. Piloter les cycles de migration (mock, cutover). Mettre en œuvre les opérations d’extraction, de nettoyage et de chargement de données. Travailler en coordination avec les équipes métiers et IT.
Offre d'emploi
Consultant Data / BI (H/F)
Publiée le
Data Center
Oracle SQL Developer
PL/SQL
12 mois
30k-44k €
280-390 €
Nancy, Grand Est
CITECH recrute ! 👌 👍 Si vous souhaitez mettre vos compétences au service d’un environnement Data structuré et stratégique, nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Consultant Data / BI (H/F) 🚀 🌟 Vous interviendrez au sein d’une équipe Data existante , en collaboration avec les équipes métiers et techniques. Votre rôle sera central dans le reporting décisionnel, l’exploitation des données et la conception de Data Marts. 🌟 🙌🔽 Vos missions principales seront les suivantes : 🔽🙌 🔸 Concevoir, développer et maintenir des reportings décisionnels 🔸 Développer des rapports et indicateurs adaptés aux besoins métiers 🔸 Analyser les besoins métiers et proposer des solutions de reporting 🔸 Développer et optimiser des requêtes SQL / PL/SQL (impératif) 🔸 Participer à la conception, à l’alimentation et à l’exploitation de Data Marts 🔸 Contribuer à l’amélioration de la qualité, de la fiabilité et de la performance des données 🔸 Documenter les développements et les reportings réalisés
Mission freelance
Data Engineer DBT & IICS
Publiée le
DBT
Informatica
Snowflake
3 mois
400-420 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
L’équipe est à la recherche d’un Data Engineer senior pour piloter et structurer la migration des flux existants depuis Informatica Intelligent Cloud Services (IICS) vers une architecture moderne basée sur DBT et Snowflake . Ce rôle est clé dans la transformation de la plateforme data : le candidat retenu interviendra à la fois sur les aspects techniques, méthodologiques et de gouvernance des transformations de données. Le candidat idéal devra jouer un véritable rôle de « traducteur » entre l’existant et la cible. Il devra être capable de : analyser et comprendre des mappages IICS hérités , souvent complexes, peu documentés et construits de manière monolithique, effectuer un travail approfondi de rétro-ingénierie afin d’identifier précisément la logique métier, les règles de transformation et les dépendances, refactoriser ces traitements en modèles DBT SQL clairs, modulaires et maintenables , en appliquant les bonnes pratiques DBT (tests, documentation, modularité, réutilisabilité), garantir la qualité, la performance et la traçabilité des données sur Snowflake, tout en facilitant l’évolutivité et la maintenance à long terme. Ce poste nécessite une forte capacité d’analyse, une excellente maîtrise du SQL et une approche structurée de l’ingénierie data, ainsi qu’une aptitude à faire le lien entre des logiques techniques historiques et des architectures data modernes orientées analytics.
Mission freelance
Data engineer(H/F)
Publiée le
Azure
Python
SQL
3 ans
400-500 €
Hauts-de-Seine, France
DATA ENGINEER AZURE (KPI, DBT, MÉTIER) Intitulé Data Engineer Azure – KPI, dbt (Data Build Tool) & compréhension métier __________ Contexte Dans le cadre du renforcement de son équipe data, le client recherche un Data Engineer capable d’intervenir à la fois sur la technique et sur la compréhension de l’usage de la donnée. L’équipe data est déjà en place. Le besoin porte sur un profil capable de : • dialoguer avec les équipes métier, • établir des KPI, • et maîtriser dbt (Data Build Tool), outil central permettant de modéliser la donnée et de définir clairement comment elle doit être utilisée et exploitée. __________ Attentes principales du client Le client attend un consultant qui : • Sait établir des KPI à partir des besoins métier, • Comprend la logique métier derrière les indicateurs, • Maîtrise dbt (Data Build Tool) pour transformer et modéliser la donnée, • Est capable d’expliquer et de justifier les règles de calcul des KPI. dbt est utilisé comme un outil de structuration et de compréhension de la donnée, et non uniquement comme un outil technique. __________ Rôle du consultant • Être un interlocuteur data privilégié des équipes métier • Comprendre les processus et enjeux business • Traduire les besoins métier en KPI clairs et cohérents • Utiliser dbt (Data Build Tool) pour modéliser la donnée et formaliser les règles de calcul • Travailler en complément et en accompagnement de l’équipe data existante __________ Missions principales Métier & KPI • Échanger avec les équipes métier • Comprendre leurs objectifs et problématiques • Établir et formaliser des KPI • Clarifier les définitions et règles de calcul des indicateurs • S’assurer que la donnée produite correspond à un usage concret Data & technique • Intervenir sur un environnement Microsoft Azure • Travailler sur Microsoft Fabric • Transformer et modéliser la donnée avec dbt (Data Build Tool) • Exploiter la donnée via SQL et Python • Garantir la cohérence, la lisibilité et la compréhension des modèles de données • Participer à la mise en production et à l’industrialisation • Documenter les modèles, transformations et KPI __________ Environnement technique • Cloud : Microsoft Azure • Plateforme data : Microsoft Fabric • Transformation & modélisation : dbt (Data Build Tool) • Langages : SQL, Python • Collaboration étroite avec équipes data et métier __________ Profil recherché • Data Engineer confirmé • À l’aise dans les échanges avec des interlocuteurs métier • Capable d’établir des KPI • Bonne compréhension de l’usage et de la valorisation de la donnée • Expérience concrète sur dbt (Data Build Tool) • Expérience sur Microsoft Fabric • Solide niveau en SQL • Esprit collaboratif, pédagogue et pragmatique __________ Qualités attendues • Bon communicant • Capacité à vulgariser la donnée • Sens du service et du collectif • Approche orientée valeur métier • Capacité à s’intégrer dans une équipe existante
Offre d'emploi
Ingénieur Big Data Production - Cloudera / Kafka (H/F)
Publiée le
Apache Kafka
Cloudera
Production
1 an
65k-70k €
450-500 €
Gironde, France
Télétravail partiel
Il s’agit d’un poste d’ingénierie d’exploitation Data senior , orienté support N2/N3, performance et fiabilité , et non d’un rôle projet, Data Engineering ou DevOps cloud généraliste. VOS MISSION PRINCIPALES Le poste est fortement hands-on , centré sur l’exploitation avancée de la plateforme Data : Assurer le support N2/N3 d’une plateforme Big Data Cloudera en production Diagnostiquer et résoudre des incidents critiques complexes (performance, disponibilité, latence) Garantir la stabilité et la performance des clusters Hadoop / Spark Administrer et optimiser Kafka : performance, gestion des offsets, scalabilité, haute disponibilité, sécurité Superviser et optimiser les composants annexes (dont Elasticsearch ) Réaliser le tuning, le dimensionnement et l’optimisation des ressources Automatiser les opérations récurrentes : scripts Shell et Python, industrialisation via Ansible, pipelines CI/CD orientés exploitation Participer à l’ évolution de l’architecture Data en lien avec les architectes Documenter, transmettre et accompagner les équipes N1 / N2 Être point de contact technique avec l’ éditeur Cloudera en cas d’escalade
Mission freelance
DATA ENGINEER GCP
Publiée le
Google Cloud Platform (GCP)
1 an
Paris, France
Télétravail partiel
EXPERIENCE DANS LES MEDIAS IMPERATIF Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestation de cette équipe : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestations attendues : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
Mission freelance
Mission Freelance – Expert BI / Data Analyst
Publiée le
Azure Data Factory
Microsoft Power BI
Microsoft SSIS
6 mois
Nantes, Pays de la Loire
Télétravail partiel
Mission Freelance – Expert BI / Data Analyst Secteur : Services aux entreprises – Ressources Humaines Lieu : Nantes (habitation obligatoire à Nantes) Démarrage : ASAP Télétravail : 2 jours/semaine Langue : Anglais courant apprécié Description de la mission : En tant qu’Expert(e) BI Entreprise, vous interviendrez au sein de la DSI d’une entreprise du secteur Recrutement et Intérim pour gérer les besoins métiers et piloter les projets d’ingénierie DATA Vous serez en charge de : 1. BI Entreprise (Finance, AdV, Comptabilité, RH, Recrutement, Services généraux, Commerce) : Intégration des données et création de mesures Conception d’architectures décisionnelles complètes Élaboration de reporting, tableaux de bord et modèles sémantiques Documentation et maintien en condition opérationnelle Optimisation des livrables existants 2. BI Opérationnelle Client (ponctuel) : Analyse des KPI des centres de relation clients (téléphonie, ticketing, etc.)
Mission freelance
Data Manager - Migration Microsoft Business Central - Valréas (84)
Publiée le
Data management
ERP
Migration
3 mois
Valréas, Provence-Alpes-Côte d'Azur
Nous recherchons en urgence un(e) Data Manager pour le site de Valréas (secteur Orange / Nyons). Le contexte : Les données ont été centralisées récemment sous la responsabilité du DSI (équipe de 6 personnes). Le projet de migration vient de démarrer, et le rôle de data manager est clé pour la réussite de ce projet. Type de poste : À terme, il s’agit d’un CDI . Pour répondre à l’urgence, nous pouvons envisager une mission ponctuelle le temps du projet. Profil recherché : Si consultant : Connaissance impérative de Microsoft Business Central . Sinon : un(e) spécialiste Data sur des ERP en manufacturing avec gestion qualité et traçabilité.
Offre d'emploi
DATA PLATFORM GCP / KUBERNETES
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Kubernetes
12 mois
Île-de-France, France
Télétravail partiel
1. Conception & expertise data plateforme Concevoir et déployer des services data cloud native (batch et/ou streaming) Participer à la définition et à l’évolution des architectures data sur GCP Accompagner les équipes projets dans l’adoption de Kubernetes et des bonnes pratiques DataOps Challenger les choix techniques et proposer des solutions pérennes et scalables 2. Industrialisation DevOps / data Mettre en place des pipelines de déploiement et d’exploitation de services data Automatiser l’industrialisation des solutions data (infra as code, CI/CD) Contribuer à la fiabilité, la performance et l’observabilité des plateformes data 3. Accompagnement & transverse Intervenir en support d’expertise auprès des équipes data du groupe Participer à l’animation de communautés techniques (data, plateforme, open source) Contribuer à la veille technologique, aux POC et au partage de retours d’expérience
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- deduction loyer et contrat de mise à disposition
- Mes données de la CIPAV (trimestre, droit) ont disparues sur lassuranceretriate
- Micro-entreprise après EURL ?
- Ajout d'une deuxième activité en tant que micro-entrepreneur
- domiciliation et etablissement principal
- Compte Autoentrepreneur - Création ou modification
1195 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois