L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 667 résultats.
Mission freelance
Data Analyst Informatica
Publiée le
Data analysis
Informatica
PowerBI
1 an
300-450 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
Offre d'emploi
Consultant BI / Data ANALYST (Cognos , SQL , Snowflake , ETL/ELT ) (H/F)
Publiée le
BI
Cognos
Microsoft Power BI
12 mois
40k-45k €
400-550 €
Paris, France
Dans le cadre de la modernisation de son écosystème Data, notre client déploie une nouvelle plateforme basée sur Azure , intégrant Snowflake et Power BI . Ce projet s’inscrit dans une démarche globale de transformation visant à migrer un volume important de rapports existants provenant d’un ancien environnement on-premise (Datawarehouse + Cognos) vers une infrastructure Cloud plus performant Contexte Dans le cadre de la mise en place d’une nouvelle plateforme Data sur Azure, intégrant Snowflake et Power BI , notre client du secteur bancaire lance un vaste chantier de migration de l’ensemble de ses rapports existants depuis une plateforme on-premise (Datawarehouse + Cognos) vers ce nouvel environnement Cloud. Environ 250 rapports ont été identifiés comme prioritaires. Ils sont principalement utilisés au quotidien par les équipes métiers (recouvrement, fraude, contrôle interne, etc.) via un portail interne. Ces rapports étant essentiels à l’activité opérationnelle, l’objectif est de les reproduire à l’identique , sans refonte fonctionnelle, pour respecter les échéances fixées à août 2025 . Les choix finaux concernant le modèle (datamarts dédiés, vues sur datamart global, etc.) et l’outil de restitution sont encore en cours de définition, et le consultant pourra contribuer à ces orientations. Mission Vous participerez à la reconstruction des rapports sur la nouvelle plateforme Data. Vous travaillerez en étroite collaboration avec deux experts internes (Datawarehouse & Cognos). Vos principales responsabilités :1. Analyse des rapports Cognos existants Étude des frameworks, champs, règles de gestion, filtres et logiques de calcul. 2. Recréation des rapports dans Snowflake / Power BI Construction des couches nécessaires dans Snowflake avec les Data Engineers / Analysts. Création éventuelle de dashboards Power BI (cas limités). 3. Validation et contrôle de qualité Comparaison des résultats Snowflake avec les rapports Cognos. Investigation des écarts avec les référents internes (métier, Data Office, DSI). 4. Documentation Documentation des tables/vues créées (Excel pour alimenter Data Galaxy). Définition et rédaction de la documentation fonctionnelle liée aux rapports.
Offre d'emploi
Expert migration SAS vers Dataiku
Publiée le
Dataiku
Méthode Agile
SAS
2 ans
40k-65k €
400-550 €
Tours, Centre-Val de Loire
Télétravail partiel
Notre client souhaite migrer ses solutions analytiques et ses processus de traitement de données de l’environnement SAS vers la plateforme Dataiku . Dans ce cadre, vous interviendrez en tant qu’expert pour accompagner cette transformation, en garantissant la continuité des processus métiers et l’optimisation des performances. Missions principales : Analyser les processus existants sous SAS (scripts, macros, workflows) et identifier les dépendances. Concevoir des solutions équivalentes ou optimisées sur Dataiku, en collaboration avec les équipes métiers et techniques. Développer et tester les nouveaux workflows Dataiku, en assurant la compatibilité avec les systèmes existants. Former les équipes internes à l’utilisation de Dataiku et documenter les bonnes pratiques. Accompagner le déploiement progressif des solutions et assurer le support post-migration. Optimiser les performances des nouveaux processus et proposer des améliorations continues. Compétences techniques : Expertise confirmée en développement SAS (Base SAS, SAS Macro, SAS SQL, SAS DI Studio, etc.). Maîtrise avancée de Dataiku (création de workflows, utilisation des recettes, intégration avec d’autres outils, etc.). Connaissance des bonnes pratiques en migration de données et en gestion de projets data. Expérience avec les bases de données (SQL, Oracle, PostgreSQL, etc.) et les environnements Big Data . Familiarité avec les outils de versioning (Git) et les méthodologies Agile/DevOps . Compétences transverses : Capacité à travailler en équipe pluridisciplinaire (métiers, IT, data scientists). Pédagogie pour former et accompagner les utilisateurs finaux. Autonomie , rigueur et sens de l’organisation pour gérer des projets complexes. Excellente communication écrite et orale pour documenter et présenter les avancées.
Offre d'emploi
DBA Cassandra / PostgreSQL – Ops & Automation (H/F)
Publiée le
Ansible
Cassandra
PostgreSQL
3 ans
49k-61k €
430-540 €
Montreuil, Île-de-France
Télétravail partiel
Nous recherchons un Administrateur Bases de Données spécialisé en environnements Cassandra et PostgreSQL , avec une forte orientation production / run et une excellente maîtrise des environnements distribués et de l’automatisation. Compétences techniques recherchées Cassandra : administration avancée, gestion de clusters, optimisation, troubleshooting. PostgreSQL : administration, performance, sauvegardes/restaurations. Compétences Ops Gestion et administration d’environnements de production. Monitoring, supervision, MCO. Gestion d’incidents, capacité d’analyse et résolution rapide. Compréhension solide des environnements distribués : réplication, haute disponibilité, partitionnement. Automatisation Python : scripts, automatisation de tâches, outils internes. Ansible : industrialisation, déploiement, configuration, gestion des environnements. Soft skills Très orienté run/production . Proactif, autonome, rigoureux. Excellente capacité à résoudre des incidents critiques . Bon communicateur, esprit d'équipe, sens du service. Profil recherché Un DBA passionné par les environnements distribués, fiable, solide techniquement, capable d’assurer la stabilité, la disponibilité et l’automatisation des bases de données essentielles à la production.
Offre d'emploi
Ingénieur de Production - Analyste Technique Traçabilité sur Paris
Publiée le
API
CI/CD
Python
6 mois
Paris, France
Télétravail partiel
Je recherche pour un de mes clients un Ingénieur de Production - Analyste Technique Traçabilité sur Paris Résumé Analyste technique spécialisé en traçabilité pour contribuer aux projets de traçabilité, tout en apportant un soutien sur les sujets techniques. Interlocuteur technique clé chargé d’analyser, diagnostiquer et résoudre les incidents en production, garantissant ainsi la stabilité et la fiabilité de nos systèmes et services. Une fois les flux et le fonctionnement des systèmes maîtrisés, référent technique sur les projets : participation à la conception, à l’implémentation et aux phases de revue. Idéalement une forte expertise technique, une vraie capacité d'analyse et de résolution de problèmes, ainsi qu’une aptitude à collaborer avec les parties prenantes, les équipes projet, les développeurs et les équipes d’exploitation. Responsabilités • Expertise Technique & Projets Agir comme point de contact technique sur les projets de traçabilité. Participer à la conception des solutions et évaluer les impacts techniques. Contribuer aux activités de tests. Collaborer avec les autres équipes pour concevoir, faire évoluer et intégrer les flux de bout en bout en production. • Gestion des incidents & Résolution technique Superviser et prioriser les incidents selon leur impact et leur urgence. Diagnostiquer et résoudre les problèmes techniques. Identifier et proposer des solutions de contournement si nécessaire. Réaliser des analyses de causes racines (RCA) pour éviter les récidives et limiter l’impact sur les utilisateurs et le business. • Développement d’outils & Extraction de données Développer et maintenir des scripts et utilitaires (ex. : extractions SQL, scripts d’automatisation, outils d’analyse). Soutenir les activités d’investigation, de reporting et les tâches opérationnelles récurrentes. • Supervision proactive & Maintenance Effectuer des contrôles réguliers de santé des applications de traçabilité et de leurs interfaces. Contribuer à l’amélioration de la stabilité, de la performance et de la fiabilité des solutions. • Documentation & Capitalisation Rédiger et maintenir des guides de résolution et des documentations techniques. Compétences Expérience 2 à 5 ans d’expérience dans un rôle technique (analyste technique/fonctionnel, développeur, support applicatif) en environnement de production. Expérience pratique des solutions de supply chain / traçabilité (impératif), idéalement sur des environnements multi-systèmes ou intégrations complexes. Expérience en gestion d’incidents et résolution de problèmes (diagnostic, RCA, workarounds) sur des applications critiques. Expérience de travail avec des équipes transverses (intégration, développement, opérations, métier) dans un contexte Agile ou projet, incluant participation aux phases de tests. Compétences techniques Solide expérience en ingénierie logicielle et en tests. Maîtrise d’au moins un langage de programmation / scripting (Python, TypeScript…). Très bonne maîtrise de SQL pour l’extraction et l’analyse de données. Connaissances des modèles d’intégration (API, REST, JSON…). Bonne compréhension des bases de données relationnelles et des concepts de conception. Connaissance des architectures systèmes (IaaS, PaaS, environnements cloud). Maîtrise des outils : Postman, Swagger/OpenAPI, Git/GitHub, Jira. Connaissance des concepts CI/CD et outils type GitHub Actions. Compétences comportementales Excellentes capacités d’analyse et de résolution de problèmes, avec un sens aigu du détail. Excellentes compétences en communication, à l’écrit comme à l’oral, et capacité à vulgariser des sujets techniques. Autonomie, proactivité et aptitude à travailler en équipe transverse comme en individuel. Démarrage asap
Mission freelance
Expert Axway
Publiée le
Administration linux
Administration Windows
Axway
6 mois
Paris, France
Télétravail partiel
Métier : Pilotage de projet ou de programme, Expert Spécialités technologiques : Gestion des incidents, MFT, Monitoring, Reporting Technologies et outils : Apache Tomcat, Composer, Linux, VMware, Jboss, ServiceNow, AWS, Axway Synchrony, Python, PHP, Azure, HTTP, Perl, PowerShell, SFTP, Windows, Swift, TCP/IP Normes / Méthodes : ITSM, ITIL, Command Secteur d'activité : Assurance Description de la prestation : Le projet concerne un grand groupe international du secteur assurance et services financiers, avec une organisation IT centrale fournissant des services technologiques à ses entités (assurance, banque, services). L'objectif est de concevoir, exploiter et faire évoluer des solutions de transferts de fichiers sécurisés, robustes et très disponibles, dans un contexte de transformation digitale continue. Les équipes IT interviennent à l’échelle internationale dans des environnements complexes réglementés, avec une forte exigence de sécurité et de disponibilité. Le poste consiste à rejoindre une équipe d’experts en support, maintenance et delivery de plateformes techniques mutualisées, principalement centrée sur la gestion et l’optimisation des plateformes de Managed File Transfer (MFT). Principales responsabilités : Garantir la disponibilité, la sécurité et la performance des plateformes critiques Installer, maintenir et faire évoluer les plateformes de transferts de fichiers Superviser la production et résoudre les incidents techniques complexes Administrer les transferts de données en interne et avec des partenaires Soutenir les utilisateurs et équipes applicatives dans l’exploitation des flux Prioriser et sécuriser les transferts en environnement de production Développer des scripts et automatisations pour les transferts et traitements batch Suivre, monitorer et faire du reporting sur les flux applicatifs Analyser incidents, produire une documentation d’exploitation conforme Participer à la gestion des incidents, problèmes et changements (support niveau 3) Améliorer la stabilité, la performance et la résilience des systèmes Rédiger et mettre à jour guides opérationnels, procédures et instructions Utiliser l’outil ITSM (ServiceNow) pour les demandes standards Diagnostiquer et résoudre les incidents techniques Collaborer à l’automatisation et l’industrialisation des traitements avec de développement Objectifs : Renforcer la valeur ajoutée IT pour l’organisation Soutenir l’innovation en collaboration avec les équipes métiers et techniques Favoriser la simplicité, la fiabilité et l’autonomie dans les pratiques quotidiennes
Offre d'emploi
Data Ops
Publiée le
Apache Spark
1 an
40k-45k €
400-550 €
Quartier du Montparnasse, France
Télétravail partiel
· Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Offre d'emploi
Data Engineer (H/F)
Publiée le
Big Data
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
480-580 €
Paris, France
Télétravail partiel
La Direction Technique du Numérique pilote des projets transverses en collaboration avec la Direction Data, dont la mission est de faire de la donnée un levier de performance et d’aide à la décision. L’équipe Gold Pilotage , composée d’un Product Owner et de deux Data Ingénieurs, développe et maintient la solution Data4All , un produit destiné à la centralisation et à la diffusion des données analytiques via des dashboards et des reportings internes. Objectifs de la mission Le Data Ingénieur interviendra sur : La conception, la mise en production et la maintenance de pipelines data robustes et scalables. Le développement de modèles de données et l’organisation du stockage. La qualité, la fiabilité et la gouvernance des données. La mise en place et la maintenance des workflows CI/CD. L’industrialisation des traitements via des infrastructures scalables et sécurisées. Le partage de bonnes pratiques et la mise à jour continue de la documentation.
Mission freelance
Data Engineer Python AWS
Publiée le
AWS Cloud
Python
12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir l'architecture de données Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Mission freelance
Développeur Senior Java / Big Data — Mission Paris
Publiée le
Apache Kafka
Big Data
Java
6 mois
400-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un vaste programme de transformation digitale , nous accompagnons un acteur majeur du transport dans la valorisation de ses données industrielles . Au cœur du dispositif : une plateforme Big Data dédiée au stockage, à la qualification et à l’exposition des données en temps réel. 🎯 Vos missions Vous interviendrez sur deux projets stratégiques : Application de localisation en temps réel (Kafka). S ystème d’analyse des incidents des systèmes embarqués. À ce titre, vous serez amené(e) à : Maintenir et faire évoluer les composants des projets. Participer à l’industrialisation des développements autour des API Gateway et microservices ; Accompagner la transition vers le cloud (Databricks, Snowflake, AWS…) ; Mettre en place les flux de données et chaînes d’alimentation ; Développer des API , microservices et interfaces Kafka ; Modéliser les données dans l’environnement Big Data ; Participer aux rituels agiles (Daily, Sprint Review, Planning…) ; Rédiger la documentation technique et automatiser les processus de mise en production. 📅 Conditions de mission Démarrage : 17/11/2025 Rythme : 3 jours sur site / 2 jours en télétravail
Offre d'emploi
Data Scientist
Publiée le
Google Cloud Platform (GCP)
Machine Learning
1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'améliorer la personnalisation de l'expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d'un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur une plateforme cloud majeure et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l'orchestration des traitements. La stack inclut aussi d'autres services de la plateforme cloud. Missions de l'équipe Créer les premiers cas d'usage en lien avec la personnalisation de l'expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues En interaction avec les membres de l'équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l'exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l'évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l'équipe
Offre d'emploi
Analyse SOC et CERT - N2
Publiée le
Business Analyst
18 mois
40k-45k €
100-400 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Objectif global : Participer à l'activité fraude du SOC "Dans le cadre du développement du SOC, nous recherchonsun anayste d'assistance en cybersécurité N2, principalement sur la lutte contre la fraude. MISSIONS Intégré au sein du SOC, cette mission portera principalement sur les activités suivantes : - Détection, qualification et analyse des incidents de sécurité infrastructures, applicatifs et fraude - Pilotage des plans de réponse à incident - Suivi des plans de remédiation - Mise en place de scénario de détection et du traitement des alertes associées - Amélioration et mise en place de playbook d'automatisation Le profil pour cette mission supposera : - Une expérience de 2 ans minimum en cybersécurité - Une expérience opérationnelle en SOC est souhaitable - Une bonne capacité de communication, d'analyse et de synthèse - Capacité à travailler avec rigueur et en équipe - Connaissance Splunk impérative - Connaissance en développement PHP et Python
Mission freelance
Data Engineer DBT / Snowflake
Publiée le
DBT
3 mois
400-500 €
Paris, France
Télétravail partiel
Acteur majeur du luxe Le poste Développer et maintenir les modèles DBT dans l’environnement Snowflake Réaliser les tests unitaires pour garantir la fiabilité et la performance des pipelines Documenter le code et les flux de données selon les standards internes Collaborer étroitement avec les équipes Data Engineering et BI Participer à l’amélioration continue des pratiques de développement et d’intégration Stack technique DBT (Data Build Tool) – confirmé (4 ans min) Snowflake – confirmé Git / GitLab CI/CD Python (pour scripting ou ingestion) DataOps / FinOps / QA (environnement du client) Modélisation : Kimball, Data Vault (bonus)
Offre d'emploi
Développeur IA
Publiée le
IA Générative
Nosql
Python
12 mois
42k-47k €
400-420 €
Montpellier, Occitanie
Télétravail partiel
Vos missions seront le développement de solution IA génératives, le tests et le déploiement de ses dernières. Vous travaillerez sur plusieurs projets en simultanée. Nous recherchons quelqu’un de motivé pour travailler sur des solution innovante en perpétuelle évolution, avec une capacité à s'inscrire dans un collectif (partage, collaboration) Compétences demandées : IA GEN Landing Zone Python Back end & data science Frameworks : TensorFlow Libraries : scikit-learn, pandas, NumPy, PyKrige, Pyspark NoSQL, mySQL
Offre d'emploi
Data Analysis – AMOA NIveau 3
Publiée le
Business Analyst
18 ans
40k-45k €
100-400 €
Strasbourg, Grand Est
Télétravail partiel
CONTEXTE : La demande porte sur une mission de contribution à des projet de BI en lien avec le Datalake . Ce rôle combine des compétences techniques en analyse de données avec une compréhension approfondie des processus métiers. La demande porte sur une mission de maitrise d’ouvrage spécialisée Data avec un profil Business Analyst orienté Data/BI. MISSIONS Data Analyst / Assistance à Maitrise d’ouvrage Le profil interviendra dans l’équipe offre métier ; rattaché au responsable d’équipe, il interviendra sur des projets orientés DATA impactant le Datalake. Ces projets spécifiques nécessitent : • Une bonne compréhension des besoins de reporting attendus par les utilisateurs métiers • Une bonne compréhension des processus métiers sous-jacents à l’origine de la production des flux de données Nature des tâches : • Compréhension des process métier et des besoins de reporting des interlocuteurs métiers (back office, chefs produit…) • Analyse des données existantes pour définir les modalités de production de ce reporting • Rédaction des spécifications à destination de l’équipe Data (composée de data engineers) pour la phase d’industrialisation : formalisation des données manipulées, des règles de gestion (filtres, relations, etc.), règles de gestion, définition métier des fonctions de collecte de données • Suivi et pilotage du projet jusqu’à la livraison au client Compétences requises : • Fonctionnelles et transversales o Capacité à traduire des besoins métiers en analyses concrètes o Esprit critique et rigueur dans l’interprétation des données o Excellentes compétences en communication et vulgarisation de données complexes o Autonomie, proactivité et capacité à travailler en équipes • Techniques et analytiques : o Utilisation des outils d’analyse de données (SQL, Notebooks Python, Excel, Power Query…) o Utilisation des outils de Visualisation de données (Power BI)
Mission freelance
Consultant Migration base de données (H/F)
Publiée le
Oracle Database
PostgreSQL
3 mois
400-550 €
Toulouse, Occitanie
Télétravail partiel
Notre client dans le secteur Agroalimentaire recherche un/une Consultant Migration base de données H/F Description de la mission : Dans le cadre de l'un de ses programmes, notre client souhaite faire appel à un freelance expérimenté sur la migration de base de données. Vous intégrerez ainsi l'équipe de notre client pour l'accompagner sur les différentes étapes de la migration de ses bases de données d'Oracle vers PostgreSQL. Vous serez en charge des activités suivantes : - Analyser les impacts des migrations - Définir les scénarios de migrations - Accompagner le client et ses équipes dans chaque étape du projet
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
3667 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois