Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka à Paris
Votre recherche renvoie 53 résultats.
Mission freelance
Consultant Kafka H/F
Publiée le
Apache Kafka
API
DevOps
3 ans
550-650 €
Paris, France
Télétravail partiel
Contexte Au sein de l’équipe Data Analytics, nous concevons, déployons et maintenons des architectures Big Data destinées à répondre aux besoins internes de l’entreprise. Dans le cadre du renforcement de notre équipe support, nous recherchons un Data Engineer spécialisé Kafka pour intervenir sur des plateformes critiques à fort volume de données. Missions principales Mettre en œuvre son expertise sur Kafka (conception, configuration, optimisation et troubleshooting) Assurer le support, l’automatisation et le maintien en conditions opérationnelles (MCO) des plateformes Kafka Participer aux développements de l’équipe Data Analytics, notamment sur le projet “Topic as a Service” Contribuer à l’amélioration continue des architectures Big Data et des processus d’exploitation Assurer le support de la plateforme Worlwide Participer à la documentation technique et au partage des bonnes pratiques Interagir avec des équipes internationales dans un environnement anglophone Environnement technique Apache Kafka OpenSearch Elastic Stack : Elasticsearch, Logstash, Kibana, Beats Ansible Git / Bitbucket Développement Python REST APIs
Mission freelance
Consultant Technique API & Event (REST / Kafka)
Publiée le
API
Apigee
Run
18 mois
100-350 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 2 ans et plus Métiers Fonctions : Etudes & Développement, Consultant technique Spécialités technologiques : API Contexte Dans le cadre des projets 2026 et du RUN de la plateforme API, notre client renforce son Centre d’Excellence API & Events (6 personnes : production & gouvernance). Objectifs de la mission : - Contribuer au BUILD et au RUN des APIs et Events - Accompagner la structuration et la montée en maturité du centre d’expertise APIs Répartition : - 50 % BUILD / 50 % RUN MISSIONS - Rédaction/écriture d’API (Swagger / OpenAPI) - Accompagnement des équipes techniques et métiers sur le design d’APIs - Conception technique des Events et APIs asynchrones (AsyncAPI) - Contribution à la gouvernance de la plateforme Kafka - Participation à la modélisation des objets métiers du SI : JSON / NoSQL (documents, dénormalisation) & SQL relationnel selon les cas d’usage - Documentation des APIs - Support aux équipes consommatrices Un Architecte d’Entreprise accompagne la mission pour les aspects métiers si nécessaire. Expertise souhaitée Profil recherché : - 2 à 3 ans d’expérience minimum - Forte orientation API & Event-driven Compétences clés : - Excellente maîtrise de Swagger / OpenAPI - Excellente maîtrise de Kafka : Expert – impératif - Une connaissance de APIGEE est un +
Mission freelance
Lead Dev Python - FastAPI
Publiée le
Apache Kafka
FastAPI
Python
12 mois
580-630 €
Paris, France
Télétravail partiel
Contexte du poste Nous recherchons un Tech Lead expérimenté pour encadrer une équipe de 4 personnes (2 développeurs et 2 QA) au sein d’un environnement agile et orienté produit. Le rôle exige un haut niveau d’expertise technique , en particulier autour de Python et FastAPI , avec une participation active au développement et aux revues de code. En étroite collaboration avec le Product Owner , le Tech Lead sera responsable de la définition des besoins fonctionnels et techniques, de la conception de l’architecture, ainsi que du découpage des tâches pour l’équipe. Il jouera également un rôle clé dans l’amélioration continue des pratiques d’ observabilité et de sécurité . Missions principales Encadrer et accompagner une équipe composée de 2 développeurs et 2 QA. Participer activement au développement backend en Python et intervenir directement sur le code. Assurer des revues de code rigoureuses pour maintenir un haut niveau de qualité. Travailler conjointement avec le Product Owner pour : définir les besoins, concevoir l’architecture technique, découper les tâches et prioriser les développements. Mettre en place et améliorer les solutions d’ observabilité (logs, métriques, traces, dashboards). Renforcer les bonnes pratiques de sécurité applicative et d’architecture. Garantir la qualité, la performance et la maintenabilité des composants techniques développés. Compétences techniques recherchées Maîtrise avancée de Python (expert). Excellente connaissance de FastAPI et de la conception d’API performantes. Expérience significative avec Kafka (publication/consommation, patterns d’event streaming). Connaissances solides en observabilité : monitoring (ex. Grafana), logs, métriques, traces distribuées. Sensibilité forte à la sécurité applicative et infrastructurelle . Pratique confirmée des revues de code et des bonnes pratiques d’ingénierie logicielle. Capacité avérée à encadrer une équipe technique , accompagner les développeurs et structurer les travaux. Profil recherché Tech Lead / avec au moins 5 à 7 ans d’expérience , dont au moins une expérience en tant que Tech Lead. Forte culture engineering, sens du détail et exigence sur la qualité du code. Bon relationnel, capacité à collaborer étroitement avec un Product Owner et les QA. Esprit d’analyse, structuré, orienté solution. Envie de faire monter l’équipe en compétence et de participer activement aux décisions technologiques.
Mission freelance
Tech Lead Kafka/Angular/fa
Publiée le
Angular
Apache Kafka
12 mois
Paris, France
Télétravail partiel
Tech Lead Kafka/Angular/fa Kafka (kafka streams) Java 21 Kubernetes API RESTclient Banque basé à Paris Gare de Lyon, un Tech Lead - Expérimenté avec un minimum de 4 ans d’expériences sur des projets similaires. Démarrage ASAP Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Maintenir une solution permettant de prioriser la liste des clients à contacter dans le cadre de la gestion de la relation client Concevoir et développer des solutions pour les équipes et les Conseillers. Assurer l’assistance fonctionnelle auprès des utilisateurs Principaux livrables : Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives Préparer la mise en production avec les équipes expertes Gérer et maintenir la documentation fonctionnelle et technique Assurer l’assistance à l’utilisation des applications Assurer le diagnostic et la résolution des dysfonctionnements Compétences requises : Kafka (kafka streams) Java 21 Kubernetes API REST Autres Compétences : Conception technique Conception archi Volontaire Bon relationnel
Mission freelance
Développeur Java/Kafka/Kubernetes
Publiée le
Apache Kafka
Java
Kubernetes
1 an
400-550 €
Paris, France
Télétravail partiel
Je suis à la recherche d'un Développeur Java/Kafka/Kubernetes. Maitrise des compétences techniques suivantes : - Kafka (kafka streams) - Java 21 - Kubernetes - API REST Autres Compétences - Conception technique - Conception archi - Volontaire - Bon relationnel - Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives - Préparer la mise en production avec les équipes expertes - Gérer et maintenir la documentation fonctionnelle et technique - Assurer l’assistance à l’utilisation des applications - Assurer le diagnostic et la résolution des dysfonctionnements Au sein de cette Tribu, vous intégrerez la squad Proactivité Commerciale composée d’un PO/SM/Expert solution et 6 membres de la dev team (Business analysts/développeurs) et qui a pour missions de : - Maintenir une solution permettant de prioriser la liste des clients à contacter dans le cadre de la gestion de la relation client - Concevoir et développer des solutions pour les équipes Marketing et les Conseillers des Caisses Régionales - Assurer l’assistance fonctionnelle auprès des utilisateurs
Mission freelance
Lead Dev Python - FastAPI
Publiée le
Apache Kafka
FastAPI
Python
12 mois
580-630 €
Paris, France
Télétravail partiel
Contexte du poste Nous recherchons un Tech Lead expérimenté pour encadrer une équipe de 4 personnes (2 développeurs et 2 QA) au sein d’un environnement agile et orienté produit. Le rôle exige un haut niveau d’expertise technique , en particulier autour de Python et FastAPI , avec une participation active au développement et aux revues de code. En étroite collaboration avec le Product Owner , le Tech Lead sera responsable de la définition des besoins fonctionnels et techniques, de la conception de l’architecture, ainsi que du découpage des tâches pour l’équipe. Il jouera également un rôle clé dans l’amélioration continue des pratiques d’ observabilité et de sécurité . Missions principales Encadrer et accompagner une équipe composée de 2 développeurs et 2 QA. Participer activement au développement backend en Python et intervenir directement sur le code. Assurer des revues de code rigoureuses pour maintenir un haut niveau de qualité. Travailler conjointement avec le Product Owner pour : définir les besoins, concevoir l’architecture technique, découper les tâches et prioriser les développements. Mettre en place et améliorer les solutions d’ observabilité (logs, métriques, traces, dashboards). Renforcer les bonnes pratiques de sécurité applicative et d’architecture. Garantir la qualité, la performance et la maintenabilité des composants techniques développés. Compétences techniques recherchées Maîtrise avancée de Python (expert). Excellente connaissance de FastAPI et de la conception d’API performantes. Expérience significative avec Kafka (publication/consommation, patterns d’event streaming). Connaissances solides en observabilité : monitoring (ex. Grafana), logs, métriques, traces distribuées. Sensibilité forte à la sécurité applicative et infrastructurelle . Pratique confirmée des revues de code et des bonnes pratiques d’ingénierie logicielle. Capacité avérée à encadrer une équipe technique , accompagner les développeurs et structurer les travaux. Profil recherché Tech Lead / avec au moins 5 à 7 ans d’expérience , dont au moins une expérience en tant que Tech Lead. Forte culture engineering, sens du détail et exigence sur la qualité du code. Bon relationnel, capacité à collaborer étroitement avec un Product Owner et les QA. Esprit d’analyse, structuré, orienté solution. Envie de faire monter l’équipe en compétence et de participer activement aux décisions technologiques.
Offre d'emploi
Spécialiste Informatica IDMC sur Paris
Publiée le
Apache Kafka
Informatica
Master Data Management (MDM)
3 mois
Paris, France
Télétravail partiel
Je recherche pour un de mes clients un Spécialiste Informatica IDMC sur Paris Mission: Contexte Le client utilise la plateforme Informatica, à la fois en version OnPrem et SaaS (IDMC). La mission actuelle concerne uniquement la partie SaaS, où quatre référentiels sont déjà en production. Ces référentiels exploitent les composants suivants : CAI (Cloud Application Integration), CDI (Cloud Data Integration), MDM (Master Data Management), R360 (Reference 360), et B360 (Business 360). L’intégrateur aura pour mission de : Répondre aux demandes d’anomalies et d’évolutions pour chaque référentiel (TMA). Conseiller sur les possibilités et limites de la plateforme IDMC. Principales Tâches Travaux sur IDMC : Gestion et maintenance des composants de chaque référentiel sur B360, R360, CAI, CDI, et MDM. Intégration et traitement des données via Kafka. Diffusion des données des référentiels via Kafka. Taille de l'Équipe d'Intervention 1 personne en interne (ICDC) assurant le bon fonctionnement technique du socle. 1 personne en interne sur la partie pilotage projet 1 personne en externe sur la partie dev Expertise Requise Expérience minimale : 2 ans sur IDMC. Compétences techniques : Maîtrise des composants CAI, CDI, MDM, R360. Expérience avec Kafka pour l’intégration et la diffusion de données. Qualités Recherchées Capacité à travailler en autonomie et en collaboration avec l’équipe interne. Rigueur et réactivité dans la gestion des anomalies et des évolutions. Bonne communication pour conseiller et orienter sur les possibilités de la plateforme IDMC. Environnement de Travail Plateforme SaaS d’Informatica (IDMC)
Offre d'emploi
Architecte technique / Plateforme de flux
Publiée le
Apache Kafka
RabbitMQ
4 mois
40k-80k €
590-810 €
Paris, France
Télétravail partiel
Diagnostic & état des lieux Cartographie des solutions d’échanges existantes (MQ, API, Kafka, CFT/FTP (Artemis), …). Identification des cas d’usage, volumes, contraintes techniques et réglementaires. Analyse des pratiques actuelles (choix des flux, coûts, délais, limitations, volumes). Politique d’échanges de flux applicatifs Formalisation des principes directeurs (SLO/SLA, sécurité, observabilité, gouvernance). Élaboration d’une matrice de décision pour orienter le choix MQ / Kafka / API / CFT / … selon les cas d’usage (latence, volumétrie, synchronicité, criticité, confidentialité, B2B vs interne, coûts/TCO, réutilisation). Formalisation d’un document « Politique d’échanges de flux applicatifs » incluant les mécanismes de gouvernance nécessaires. Formalisation d’une roadmap/trajectoire pour convergence de l’existant vers la cible. Étude Artemis 2.0 Formalisation de l’existant Artemis : capacités, limites, coûts, TCO, qualité des rapports (passages OK/KO), dette, roadmap actuelle (“Artemis 2.0”) Finalisation du Benchmark des solutions alternatives. Une première analyse a été faite mais non finalisé. Il faudra capitaliser sur cette première analyse. Options à instruire (au minimum) avec les équipes du Client : Conserver l’outillage actuel “as is” ; Remplacer l’outillage actuel par une autre technologie (étude de marché, shortlist) ; Conserver l’outillage actuel et industrialiser/automatiser la création des flux (“Artemis as code”, API d’intégration, self‑service). Pour chaque option : bénéfices/risques, TCO 3–5 ans, impact et prérequis techniques, trajectoire de migration, critères de décision. Formalisation d’une roadmap/trajectoire pour convergence de l’existant vers la cible. Formalisation d’une note de décision à partager avec les CIO. Flux Back-to-Back Internes Formalisation des limitations actuelles avec Apigee pour des échanges internes PF. Formalisation des contraintes de sécurité, d’auditabilité et d’observabilité (traces, métriques, corrélation), et modalités d’onboarding. Formalisation de patterns alternatifs adaptés (légers, sécurisés, rapides à mettre en oeuvre). Estimation du cout d’implémentation de la solution et roadmap. Ces documents seront formalisés avec les inputs du Client.
Offre d'emploi
Développeur Full Stack Senior - Flux Paiement - Java 17 + / Kafka / Spring (H/F)
Publiée le
Apache Kafka
DevOps
Finance
12 mois
75002, Paris, Île-de-France
Télétravail partiel
Contexte Le projet comprend la construction d’une plateforme de services destinés aux prestataires de services de paiement (PSP) , ces derniers gérant toutes les interactions avec les utilisateurs (particuliers, entreprises, administrations) d’une monnaie numérique. Mission La mission porte sur le développement d’un composant responsable du règlement (vérification, exécution, enregistrement) des transactions de paiement. Date de début et de fin du contrat : Début Décembre 2025 (mission longue) Statut : CDI / Freelance Missions : - Conception et développement des composants et des prototypes - Définir et implémenter les tests unitaires des modules - Respecter les standards de développement, revues de code - Assurer le respect des exigences de performance, montée en charge, résilience) - Rédiger de la documentation technique (en anglais)
Mission freelance
Administrateur d'Applications - Plateforme Instant Payment (IP)
Publiée le
Apache Kafka
ITIL
Maintien en condition opérationnelle (MCO)
12 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Ingénieur de Production expérimenté pour intégrer la Direction des Opérations (DOP) de notre client, une institution clé dans le secteur des paiements électroniques. Vous serez au cœur de l'administration d'une plateforme stratégique dédiée à l' Instant Payment (IP) . Niveau de Complexité : 3 Compétence Clé : Très bonne maîtrise des Middlewares . 🎯 Vos Missions Principales En tant qu'Administrateur d'Applications, votre rôle sera double : garantir la performance et participer à l'évolution de la plateforme. 1. Maintenance et Exploitation (MCO) Assurer la Maintenance en Condition Opérationnelle (MCO) des services applicatifs, en respectant rigoureusement les bonnes pratiques ITIL . Gérer le suivi quotidien de l'exploitation et veiller au respect des niveaux de service . Assurer le support (N2/N3) aux incidents et problèmes applicatifs et métiers. Réaliser les opérations de maintenance courante et d'administration des applications. 2. Projets et Amélioration Continue Participer activement à la mise en œuvre de nouveaux projets stratégiques de l'institution. Mettre en production une nouvelle solution de Lutte Contre La Fraude (LCF) . Participer à la mise en place d'indicateurs de supervision et de suivi de la plateforme . Proposer et mettre en œuvre des actions d’amélioration (procédures, scripts) pour optimiser la qualité et la productivité (réalisation de scripts d’amélioration de la Production ). Assurer le support à l’équipe de pilotage/supervision. 📝 Livrables Attendus Dossiers et rapports de Recette d'Exploitation . Dossiers de préparation et rapports des Mises en Production (MEP) . Rédaction et mise à jour des Fiches et Procédures d'Exploitation . Documentation de supervision. Rapports de reporting réguliers. 🛠️ Votre Profil Technique Une solide expérience sur les environnements suivants est indispensable : Domaine / Technologies Requises Fonctionnel:Instant Payment (Connaissance impérative) Middleware / EAI: Très bonne maîtrise, WMQ , Kafka , CONFLUENT Base de Données : Cassandra Système & Scripting : Linux , Scripts (Shell, Python, etc.) Méthodologie : ITIL Autres atoutsSpark , Github, Cloud, Sécurité, Virtualisation Langue : Anglais technique (lecture de documentation et échanges)
Mission freelance
Développeur EBX Senior
Publiée le
Apache Kafka
API REST
AWS Cloud
3 mois
480-520 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme de transformation digitale, nous recherchons un Développeur EBX senior pour contribuer à la construction et à l’évolution d’un référentiel de données d’entreprise (MDM). Objectifs et responsabilités Paramétrer et développer la solution EBX pour la gestion des données référentielles Concevoir et développer des interfaces d’exposition des données (API REST, topics Kafka) Participer à la définition de l’architecture applicative en collaboration avec les équipes métiers, techniques, sécurité et infrastructure Contribuer à la conception technique des projets : analyse des besoins, rédaction des exigences techniques Assurer la documentation technique et le suivi des phases de tests et de mise en production
Mission freelance
[SCH] Développeur Backend Senior – Java 21 / Kafka - 1068
Publiée le
10 mois
400-450 €
Paris, France
Contexte : Nous recherchons un Développeur Backend expérimenté pour renforcer une équipe tech sur un projet à forte volumétrie de données. L’objectif est de concevoir, développer et optimiser des services backend robustes, scalables et orientés événementiel, en s’appuyant sur Java 21 et Kafka comme technologies centrales. Missions principales : -Concevoir et développer des micro-services backend en Java 21. -Participer à l’architecture, au design applicatif et aux choix techniques. -Implémenter des pipelines et flux asynchrones basés sur Apache Kafka. -Optimiser les performances, la résilience et la scalabilité des services existants. -Effectuer des revues de code, maintenances correctives et évolutives. -Participer aux rituels agiles (daily, sprint planning, review). -Rédiger la documentation technique associée. Profil recherché : -8+ ans d’expérience en développement backend. -Maîtrise 21, programmation fonctionnelle + bonnes pratiques clean code. -Solide expérience Kafka : topics, schemas, partitions, consumer groups, replay, DLQ. -Bonne compréhension des architectures Microservices / Event-Driven. -Connaissance des bonnes pratiques CI/CD, conteneurisation, tests automatisés.
Mission freelance
Expert Camunda V8
Publiée le
Apache Kafka
API
Camunda
1 an
400-550 €
Paris, France
Télétravail partiel
Je suis à la recherche d'un expert Camunda V8. Camunda V8 - Expert - Impératif Java Full Stack - Expert - Impératif Confluence/Kafka - Confirmé - Important Participer au développement de l'automatisation de processus métiers en BPNM dans l'outil Camunda V8. Les taches à réaliser seront : - Modélisation BPMN (Camunda V8), - Développement de workers camunda V8 (Java, Kafka) - Paramétrage de connecteurs (api, kafka,..) Participer au développement de l'automatisation de processus métiers en BPNM dans l'outil Camunda V8. Les taches à réaliser seront : - Modélisation BPMN (Camunda V8), - Développement de workers camunda V8 (Java, Kafka) - Paramétrage de connecteurs (api, kafka,..)
Mission freelance
Administrateur de plateforme Big Data
Publiée le
Apache Kafka
Elasticsearch
HDFS (Hadoop Distributed File System)
3 ans
Paris, France
Télétravail partiel
Vous interviendrez pour un grand acteur du secteur de l’énergie, au sein d’une prestation pluridisciplinaire. Votre rôle sera de gérer, maintenir et optimiser les plateformes Big Data afin d’assurer leur performance et disponibilité. Vous travaillerez en étroite collaboration avec les équipes de développement et les analystes de données. 4. Missions principales Gérer et maintenir les plateformes de données massives. Optimiser les performances des systèmes Big Data. Assurer la qualité et la sécurité des données. Collaborer avec les équipes de développement pour intégrer les solutions de données. Surveiller et maintenir les systèmes en production. Analyser les besoins en données et proposer des solutions adaptées.
Offre d'emploi
Ingénieur Support Applicatif – Expertise Linux / Ansible / Kafka - Anglais
Publiée le
Ansible
ServiceNow
Paris, France
Télétravail partiel
Les missions sont : SUPPORT : -Création du modèle de support APS -Organisation d'un support à l'international sur un modèle Follow the sun - prise en charge du niveau 2 du support applicatif: diagnostic fonctionnel, coordination, gestion de la base de connaissance - Coordination avec les équipes de niveau 3 lorsque leur intervention est nécessaire - Ouverture des incidents d' infrastructure auprès des équipes de production - production des indicateurs de suivi opérationnels et de suivi des engagements de service et des tableaux de bords - Réalisation de la communication autour des incidents (à chaud en début et en cours d'incident si besoin, et à froid périodiquement sur des reportings) - Communication utilisateurs lors des opérations exceptionnelles (Mises en production ..) - Mise à jour de la base de connaissances permettant de capitaliser sur les incidents - Partage avec les niveaux de support L1 afin de favoriser leur autonomie ( animation instance, élaboration et mise à disposition d'arbres de décision) - Interaction avec les équipes projets pour mise en place de plans d'actions correctifs pérennes - Participation à la recherche d'amélioration continue du fonctionnement l'équipe support (process, rôles, livrables, outils) OPS : EN BUILD : - Suivi de projet et co-construction avec l'IT Métier - Point d'entrée OPS dans le cadre des projets confiés - Gestion, dans le cadre des évolutions et des projets, de l'ensemble des gestes techniques pour la mise en production des applications - Création ou mise à jour des environnements - Réalisation de l'ensemble des gestes techniques d'installation ou de mise à jour d'application - Mise à jour des consignes d’exploitation et contribution au passage en RUN - Accompagnement technique et conseil - Veille à l’application des bonnes pratiques, des standards du groupe EN RUN : - Gestion des incidents et des changements pour l'ensemble du périmètre de la squad - Proposition d'axes d’optimisation, d’industrialisation - Veille a l'amélioration continue du monitoring et exploitation des applications. Mindset AGILE et DEVOPS fortement recommandés. Anglais nécessaire. Expertise Linux, Ansible ; pratique des solutions Kafka, MongoDB, Elastik, Dynatrace et Service NOW
Offre d'emploi
Data Engineer Senior
Publiée le
Apache Kafka
Apache Spark
Hadoop
Paris, France
Télétravail partiel
En tant qu’Ingénieur Data Senior, vous jouerez un rôle clé dans la conception, le développement et l’optimisation de solutions data innovantes pour le secteur bancaire. Vous serez un membre essentiel de l’équipe Data Engineering et collaborerez avec des experts métiers, data scientists et développeurs pour transformer les plateformes digitales de nos clients. Vos missions principales Concevoir, développer et maintenir des solutions big data robustes et évolutives avec Hadoop, Spark, Kafka… Mettre en œuvre des pipelines de données temps réel et batch pour des cas d’usage complexes Garantir la qualité, la sécurité et la conformité des données à chaque étape du cycle de vie Intégrer des solutions de streaming avec Kafka pour des analyses quasi temps réel Développer et maintenir des microservices en Node.js Encadrer les ingénieurs juniors et promouvoir les bonnes pratiques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Futur freelance architecte logiciel
- Calcul de l'indemnité de la rupture conventionnelle
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Quel logiciel de compta en ligne avez vous choisi et pourquoi ? Avec quel compte pro en ligne ?
- Passage sasu à eurl: transition mutuelle/prévoyance
53 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois