L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 580 résultats.
Mission freelance
DATA ANALYST
Publiée le
Azure
Cloud
ETL (Extract-transform-load)
1 an
Strasbourg, Grand Est
Télétravail partiel
Nous recherchons un Data Analyst expérimenté pour rejoindre un projet stratégique au sein d’un grand groupe industriel international. Cette mission, de longue durée, vise à renforcer la qualité des données à l’échelle du groupe et à accompagner les équipes métiers dans la mise en place de processus robustes. Votre rôle : Dans le cadre de cette prestation, vous serez responsable de la création et du maintien des reportings de qualité des données au niveau global. Vous interviendrez en étroite collaboration avec les différentes fonctions métiers afin de collecter les problématiques liées à la qualité des données , puis de traduire leurs besoins en spécifications techniques claires et exploitables . Vous jouerez également un rôle clé dans l’accompagnement des équipes à travers les différentes étapes de la méthodologie qualité des données, incluant la découverte des données , la définition des règles , leur exécution et le monitoring continu .
Mission freelance
PO Testing & Quality Gate - Datadog
Publiée le
Agile Scrum
API
API Platform
12 mois
480-550 €
Île-de-France, France
Télétravail partiel
Product Owner Technique – Performance Testing & Quality GateContexte Dans un environnement digital à forte volumétrie et à forts enjeux de fiabilité, nous recherchons un Product Owner Technique spécialisé en tests de performance, tests de charge et qualité applicative . Vous interviendrez au sein d’une plateforme transverse fournissant des outils et services de Performance Engineering aux équipes de développement. L’objectif : garantir la performance, la scalabilité et la non-régression des applications avant mise en production.
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
Publiée le
Azure
BI
DevOps
24 mois
300-600 €
Nanterre, Île-de-France
Télétravail partiel
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Offre d'emploi
Data analyst confirmé marketing client
Publiée le
PowerBI
SQL
12 mois
40k-45k €
350-400 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission : Dans le cadre du renforcement de notre département IT Data, nous recherchons un(e) Data Analyst Confirmé(e) pour accompagner les équipes Marketing, CRM et Digital dans l'exploitation et l'analyse des données clients. L'objectif : améliorer la connaissance client, affiner la segmentation, et optimiser les actions marketing grâce à une analyse fine des comportements et parcours clients. Activités et responsabilités de la mission - Analyser les données clients pour identifier des comportements, profils et tendances de consommation. - Construire et maintenir des segmentation clients pertinentes (RFM, appétence, valeur client, cycle de vie.). - Réaliser des analyses ad hoc pour répondre aux besoins des équipes Marketing, CRM, Digital, Produit. - Mettre en place des tableaux de bord Power BI pour suivre les KPIs liés à l'acquisition, l'activation, la fidélisation, et la rétention client. - Collaborer avec les équipes Data Engineering pour la préparation et modélisation des données dans l'environnement Snowflake. - Identifier des opportunités business via des analyses prédictives ou des insights data-driven. - Contribuer à la qualité et cohérence des données clients, en lien avec les équipes IT et Data Governance. Résultats attendus - Mise en place de profils clients exploitables par les équipes métier. - Amélioration de la performance des campagnes marketing grâce à une segmentation plus fine. - Accroissement de la connaissance client et des insights comportementaux. - Mise en place de tableaux de bord dynamiques et accessibles, facilitant la prise de décision. Démarrage : rapide Localisation : métropolie lilloise (1j de télétravail par semaine non négociable)
Mission freelance
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis/ko
Publiée le
ETL (Extract-transform-load)
6 mois
400-420 £GB
Saint-Denis, Île-de-France
Télétravail partiel
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis Date de début : 05/01/2026 Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple. Objectif de la mission Assurer la mise en qualité de la donnée énergétique et mettre en place les flux de data entre les outils internes de gestion de l’énergie (ConsoNG, eVision, Portail de Management de l’Énergie…). Périmètre opérationnel Le consultant interviendra sur : Définition et documentation des nomenclatures de compteurs et sous-compteurs Intégration de nouveaux objets énergétiques dans ConsoNG : → sous-compteurs, panneaux photovoltaïques, IRVE Participation aux programmes Linky (ENEDIS) et Gaspar (GRDF) → fiabilisation des données et échanges avec les distributeurs Mise en place et contrôle des flux inter-outils data Rédaction des expressions de besoins fonctionnels pour la DSI Mise en œuvre de règles de : contrôle d’accès aux données validation des données supervision du cycle de vie des données gestion des versions et historisation Livrables attendus Flux data inter-outils opérationnels Données énergétiques affichées de manière cohérente dans le Portail de Management de l’Énergie Documents fonctionnels et règles de qualité / gouvernance data Profil recherché Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple.
Offre d'emploi
TechLead Kubernetes
Publiée le
AWS Cloud
CI/CD
Kubernetes
6 mois
40k-50k €
400-600 €
Paris, France
Télétravail partiel
En tant que Tech Lead Kubernetes , la mission consiste à assurer l’administration, l’évolution et la fiabilité des plateformes Kubernetes on-premises (Tanzu Kubernetes Grid / VMware Cloud Foundation) et cloud public ( AWS EKS ). Le rôle implique le pilotage des migrations de clusters , l’optimisation de la performance, de la sécurité et de la résilience, ainsi que l’industrialisation des déploiements via des approches Infrastructure as Code (IaC) et GitOps . Le périmètre comprend également la gestion des incidents techniques complexes , la mise en place et l’optimisation des pipelines CI/CD , l’ automatisation des déploiements , la gouvernance des accès (RBAC) et l’accompagnement des équipes dans leur montée en compétences. Des livrables structurés sont attendus : documentation technique , procédures d’exploitation, schémas d’architecture et modules d’automatisation.
Offre d'emploi
Consultant BI / Data ANALYST (Cognos , SQL , Snowflake , ETL/ELT ) (H/F)
Publiée le
BI
Cognos
Microsoft Power BI
12 mois
40k-45k €
400-550 €
Paris, France
Dans le cadre de la modernisation de son écosystème Data, notre client déploie une nouvelle plateforme basée sur Azure , intégrant Snowflake et Power BI . Ce projet s’inscrit dans une démarche globale de transformation visant à migrer un volume important de rapports existants provenant d’un ancien environnement on-premise (Datawarehouse + Cognos) vers une infrastructure Cloud plus performant Contexte Dans le cadre de la mise en place d’une nouvelle plateforme Data sur Azure, intégrant Snowflake et Power BI , notre client du secteur bancaire lance un vaste chantier de migration de l’ensemble de ses rapports existants depuis une plateforme on-premise (Datawarehouse + Cognos) vers ce nouvel environnement Cloud. Environ 250 rapports ont été identifiés comme prioritaires. Ils sont principalement utilisés au quotidien par les équipes métiers (recouvrement, fraude, contrôle interne, etc.) via un portail interne. Ces rapports étant essentiels à l’activité opérationnelle, l’objectif est de les reproduire à l’identique , sans refonte fonctionnelle, pour respecter les échéances fixées à août 2025 . Les choix finaux concernant le modèle (datamarts dédiés, vues sur datamart global, etc.) et l’outil de restitution sont encore en cours de définition, et le consultant pourra contribuer à ces orientations. Mission Vous participerez à la reconstruction des rapports sur la nouvelle plateforme Data. Vous travaillerez en étroite collaboration avec deux experts internes (Datawarehouse & Cognos). Vos principales responsabilités :1. Analyse des rapports Cognos existants Étude des frameworks, champs, règles de gestion, filtres et logiques de calcul. 2. Recréation des rapports dans Snowflake / Power BI Construction des couches nécessaires dans Snowflake avec les Data Engineers / Analysts. Création éventuelle de dashboards Power BI (cas limités). 3. Validation et contrôle de qualité Comparaison des résultats Snowflake avec les rapports Cognos. Investigation des écarts avec les référents internes (métier, Data Office, DSI). 4. Documentation Documentation des tables/vues créées (Excel pour alimenter Data Galaxy). Définition et rédaction de la documentation fonctionnelle liée aux rapports.
Offre d'emploi
Développeur Magento 2
Publiée le
Adobe
API
CI/CD
6 mois
Paris, France
Télétravail partiel
Notre client recherche un Développeur Magento 2 afin de renforcer son équipe produit agile et effectuer la mission suivante : Vous avez pour mission de concevoir, développer, maintenir et optimiser le tunnel de commande d'une plateforme e-commerce de haut volume, construite en architecture Headless sur Magento 2 / Adobe Commerce Cloud. Votre expertise technique et votre rigueur seront cruciales pour garantir la stabilité, les performances et l'évolutivité de ce périmètre critique. Les principales missions sont les suivantes: 1. Développement & Architecture (70%) : Conception et développement de nouvelles fonctionnalités sur le périmètre tunnel de commande (panier, passage de commande, modes de livraison, méthodes de paiement) en mode headless. Développement et maintenance d'APIs GraphQL robustes, performantes et bien documentées pour servir le front-end headless. Intégration et gestion des services Adobe Commerce Cloud liés au tunnel de commande. Contribution à la définition et à l'évolution de l'architecture technique, en privilégiant la scalabilité et la maintenabilité. Mise en place et amélioration des tests automatisés (unitaires, d'intégration) sur votre périmètre. 2. Performance, SRE & Monitoring (20%) : Analyse et optimisation continue des performances du tunnel de commande (temps de réponse, optimisation des requêtes GraphQL, cache). Mise en place, configuration et analyse des outils de monitoring (ex: New Relic, Datadog, Kibana) pour assurer la supervision de l'application. Collaboration avec l'équipe SRE/DevOps sur les sujets liés à l'infrastructure Kubernetes (déploiements, configurations, debugging). Participation aux démarches de résilience (circuit breaker, retry) et de gestion d'incidents. 3. Travail d'équipe & Méthodologie (10%) : Participation active aux cérémonies agiles (daily, planning, retro). Revue de code pair et partage des connaissances avec les autres développeurs. Rédaction et mise à jour de la documentation technique. Collaboration étroite avec les équipes Front-end (consommatrices des APIs), Produit et QA.
Mission freelance
DevOps Cloud & Réseau AWS
Publiée le
Ansible
Argo CD
AWS Cloud
3 mois
100-600 €
Paris, France
Télétravail partiel
Intitulé du poste Ingénieur DevOps orienté Cloud & Réseau AWS Mission principale Assurer la mise en place et l’automatisation des infrastructures Cloud tout en garantissant la performance et la sécurité des réseaux AWS. Gérer les différents projets en cours et à venir en respectant les standards Ratpdev et les bonnes pratiques Cloud AWS. Mettre en place les chaines de déploiement CI/CD. Gérer le Run et les changements sur infrastructure AWS. Responsabilités clés · Automatisation & CI/CD : Concevoir et maintenir des pipelines CI/CD (GitLab CI/CD, Jenkins). Intégrer des tests automatisés et des contrôles qualité. · Infrastructure as Code (IaC) : Déployer et gérer des environnements via Terraform, Ansible. Implémenter des pratiques GitOps (ArgoCD). · Cloud & Conteneurisation : Administrer des environnements AWS (EC2, S3, RDS, Lambda). Gérer Kubernetes (EKS) et conteneurs Docker. · Réseau AWS : Configurer VPN, Direct Connect, et Transit Gateway pour la connectivité hybride. Superviser la sécurité réseau (pare-feu, segmentation, Zero Trust). Optimiser la latence et la résilience des architectures réseau. Mettre en places des stack network AWS Multi régions · Observabilité & Performance : Monitoring réseau et applicatif (Datadog,CloudWatch). Analyse des flux et optimisation des coûts (FinOps). · Sécurité & Conformité (DevSecOps) : Intégrer la sécurité dans les pipelines (scan vulnérabilités, secrets management). Respecter les standards de gouvernance et conformité Cloud.
Offre d'emploi
Architecte Cloud AWS
Publiée le
Amazon Elastic Compute Cloud (EC2)
Ansible
Argo CD
36 mois
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de missions d’accompagnement Cloud auprès de clients grands comptes, vous serez amené(e) à : Concevoir des architectures Cloud AWS sécurisées, robustes et évolutives , adaptées aux exigences métiers et techniques des clients ; Implémenter, automatiser et déployer des solutions AWS en respectant les standards de sécurité, de performance et de conformité ; Conseiller et orienter les clients sur les bonnes pratiques Cloud (Well-Architected Framework, FinOps, sécurité, gouvernance) et les aider à optimiser leurs environnements et investissements AWS ; Gérer, superviser et maintenir les infrastructures AWS , tout en garantissant une haute disponibilité, un niveau de sécurité optimal et de bonnes performances opérationnelles ; Collaborer étroitement avec les équipes de développement, d’exploitation et de sécurité afin d’assurer une intégration fluide des solutions Cloud dans les workflows existants.
Offre d'emploi
OpenStack Architecte Cloud / DevOps Sénior -(H/F)
Publiée le
Automatisation
CI/CD
Docker
1 an
Île-de-France, France
Télétravail partiel
CONTEXTE DE LA MISSION : Nous recherchons un Ingénieur Cloud / DevOps expérimenté pour rejoindre une équipe en charge de la conception, du déploiement et de l’exploitation de plateformes Cloud privées basées sur OpenStack. Ce poste stratégique s’inscrit au cœur des infrastructures Cloud d’un grand groupe français. Vous interviendrez sur le build (design, déploiement, automatisation) et le run (exploitation, optimisation, sécurité) dans un environnement hautement technologique. MISSIONS PRINCIPALES : BUILD – Architecture & Automatisation : Concevoir, déployer et faire évoluer les infrastructures Cloud OpenStack. Participer à la définition des architectures techniques (HLD/LLD). Mettre en œuvre une approche Infrastructure as Code (Terraform, Ansible). Automatiser les déploiements via CI/CD (GitLab CI, Jenkins, ArgoCD…). Intégrer les bonnes pratiques DevOps et sécurité dans les pipelines. Rédiger et maintenir la documentation technique. RUN – Exploitation & Maintien en Condition Opérationnelle : Administrer et superviser les plateformes OpenStack (compute, storage, réseau). Gérer les environnements datacenter : hardware, urbanisation, capacité, obsolescence. Assurer le support de niveau 3/4 sur les incidents complexes (hardware, cloud, stockage). Analyser les métriques et optimiser la supervision (Prometheus, Grafana, ELK…). Intégrer et appliquer les exigences de sécurité (IAM, patching, durcissement, audits).
Mission freelance
INGENIEUR DEVOPS IaC H/F
Publiée le
Ansible
Azure DevOps
Bash
3 mois
Le Havre, Normandie
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un(e) Ingénieur(e) DevOps H/F spécialisé(e) Infrastructure as Code. Vous interviendrez dans un contexte d’éditeur de logiciels disposant d’une infrastructure cloud hybride Azure / on‑premises, engagée dans une transformation vers des architectures microservices. La mission consiste à reprendre, rationaliser et industrialiser l’existant IaC, tout en contribuant à l’automatisation, à la sécurisation et à la standardisation des pratiques DevOps. Objectif et livrable: Audit et refonte des scripts Terraform et Ansible existants Mise en place de modules IaC réutilisables et documentés Automatisation CI/CD (Azure DevOps ou GitHub Actions) Pipelines de gestion du cycle de vie des certificats SSL/TLS Documentation technique, runbooks MCO/MCS et recommandations d’architecture Compétences attendues: Maîtrise de Microsoft Azure (VNet, NSG, VM, Storage, Application Gateway/WAF, AKS, Key Vault) Automatisation CI/CD avec Azure DevOps ou GitHub Actions Infrastructure as Code : Terraform avancé, Ansible, scripting Bash Administration systèmes Linux (Red Hat, Debian) et Windows Server Environnements hybrides : on‑premises, virtualisation (Proxmox, Hyper‑V, Nutanix) Connaissances Kubernetes (RKE2, K3s, OpenShift), Helm/Kustomize
Offre d'emploi
Développeur Full-Stack (H/F)
Publiée le
Back-end
CI/CD
DevOps
6 mois
30k-55k €
250-650 €
Île-de-France, France
Vous aimez les environnements techniques exigeants, la rigueur du code bien pensé et les défis liés à l’automatisation et à la donnée ? Chez Scalesys , nous recherchons un Développeur Full-Stack passionné , à l’aise avec les environnements modernes de développement et d’intégration, prêt à relever les défis d’applications critiques et de plateformes de données complexes. Vous interviendrez au sein d’une entité publique, dans une division dédiée à la valorisation de la donnée et à l’ingénierie logicielle . L’équipe (environ 10 personnes) est en charge de la conception, du développement et de l’exploitation d’un parc applicatif et de stocks de données sensibles , utilisés par différents services de l’État. Votre expertise participera directement à la conception, la modernisation et la sécurisation de solutions logicielles et de plateformes de données utilisées dans des contextes sensibles et stratégiques.
Mission freelance
Data Engineer Talend / GCP
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
Talend
3 ans
400-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la Data Factory de notre client grand compte, nous recherchons un Data Engineer Talend / GCP expérimenté. Vous interviendrez sur la conception, le développement et l’optimisation de solutions Data destinées à répondre aux besoins analytiques et opérationnels des métiers. Votre rôle sera clé dans la mise en place d’une infrastructure Data performante, fiable et scalable sur Google Cloud Platform . Missions principales Analyser les besoins métiers et leurs impacts sur la donnée Concevoir et développer des pipelines de données robustes et évolutifs avec Talend et les services GCP (BigQuery, DataForm, Dataflow, Pub/Sub, Cloud Composer) Optimiser la performance et la scalabilité des solutions existantes Collaborer avec les architectes, Product Owners et Data Analystes pour garantir la qualité et la cohérence des données Maintenir une documentation technique claire et complète Mettre en place le monitoring et les contrôles d’intégrité des pipelines Participer à la recette technique et fonctionnelle des livrables Assurer la maintenance corrective et évolutive des traitements en production Garantir la conformité des développements avec les bonnes pratiques Data et Cloud
Mission freelance
Data Analyst Senior
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
SQL
6 mois
540 €
Paris, France
Télétravail partiel
Data Analyst Senior (Power BI / SSAS) – Mon client bancaire assurance Nous recherchons un Data Analyst Senior (+5 ans d'expérience) pour rejoindre les équipes de Paris, dans le cadre d'un projet d'envergure mêlant maintenance de l'existant et innovation Cloud. Le Contexte de la Mission Au sein du pôle Assurance, vous intégrerez la plateforme Data responsable du Build et du Run d'un parc applicatif décisionnel complexe. Votre rôle sera double : Gestion des cubes SSAS : Création et maintenance des cubes via Visual Studio . Reporting Power BI : Développement de rapports avancés et participation active à la transition vers une plateforme Power BI Cloud . Profil Recherché Expertise technique : Maîtrise confirmée de Power BI et SSAS (Tabular/Multidimensional). Compétences annexes : Très bon niveau en SQL et aisance sur l'IDE Visual Studio. Une expérience sur Power BI Cloud est un plus majeur. Soft Skills : Capacité à animer des ateliers de cadrage avec les métiers, esprit de synthèse et autonomie. Modalités Pratiques Lieu : Paris (Rythme : 3 jours/semaine sur site). Démarrage : Février 2026. Durée : 6 mois + (visibilité longue). Tarif : Maximum 540 € HT/jour.
Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote
Publiée le
Data quality
ETL (Extract-transform-load)
Linux
12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Entretiens et tests techniques developpeurs Java Angular junior
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
4580 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois