Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Kafka à Paris
Votre recherche renvoie 55 résultats.
Offre d'emploi
DataOps Kafka
KLETA
Publiée le
Apache Kafka
DevOps
3 ans
Paris, France
Dans le cadre d’un programme d’industrialisation data, nous recherchons un DataOps Kafka pour fiabiliser, automatiser et exploiter des plateformes de streaming en production. Vous analyserez les pipelines existants, identifierez les points de fragilité et proposerez des améliorations en matière de résilience, de monitoring et de gouvernance des flux. Vous guiderez la mise en place de pratiques DataOps autour de Kafka : automatisation des créations de topics, gestion des schémas, versioning, tests de compatibilité et mise en place de contrôles qualité sur les événements. Vous serez responsable de l’intégration de Kafka dans les chaînes CI/CD, de la mise en place de mécanismes d’observabilité (métriques, alerting, tracing) et de la gestion proactive des incidents. Vous travaillerez main dans la main avec les équipes Data Engineering, DevOps et SRE pour optimiser les performances, la disponibilité et la traçabilité des flux. Vous participerez également à l’amélioration continue des pratiques d’exploitation et à la diffusion d’une culture DataOps autour du streaming.
Offre d'emploi
Expert Kafka
KLETA
Publiée le
Apache Kafka
DevOps
3 ans
Paris, France
Dans le cadre d’un programme de structuration des usages Fast Data, nous recherchons un Expert Kafka pour accompagner les équipes projets et promouvoir les bonnes pratiques autour du streaming événementiel. Vous interviendrez sur l’accompagnement des équipes applicatives dans l’adoption de Kafka, depuis la conception des flux jusqu’à la mise en production, en adressant des problématiques variées (design des topics, schémas, sécurité, performance). Vous participerez à la mise en place de mécanismes avancés tels que l’authentification OAuth pour les clients Confluent Cloud et à la définition de stratégies de gouvernance des flux. Vous contribuerez à la livraison de plans de continuité d’activité et de reprise après sinistre garantissant l’intégrité des données. Vous animerez une communauté technique autour du Fast Data, en partageant les retours d’expérience, en organisant des sessions de présentation et en contribuant à la montée en compétence collective sur les technologies de streaming.
Mission freelance
DevOps Production Cloud GCP Kafka
CAT-AMANIA
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
12 mois
400-580 €
Paris, France
Vous accompagnerez les équipes sur les plateformes Confluent Cloud Kakfa SaaS, Kakfa Connect GCP & OnPremise. Vos missions consisteront à contribuer: Administration Kafka et Mise en oeuvre du socle autour de Kafka Faire évoluer et maintenir la plateforme technologique autour Confluent KAFKA Mise en place et Support aux équipes de développements sur les configurations & bonnes pratiques Confluent Kafka (topics..) Participer à l’administration et les optimisations des flux Assurer la conformité avec les standards réseaux de sécurité Participer à la mise en oeuvre du plan DRP (Disaster Recovery Plan) Contribuer à la migration vers une architecture PSC unifiée Mettre en place et améliorer les solutions de monitoring de la plateforme Confluent Cloud (métriques, alertes, dashboards) Participer à la Supervision des flux Kafka Participer à la surveillance des machines On-Premise participant à l'écosystème Kafka Participer à la Configuration et l’optimisation de la remontée des logs et traces dans Dynatrace Contribuer à Garantir la conformité des accès selon les standards de sécurité Contribuer à Superviser les mécanismes d'authentification (Service Accounts, API Keys, OIDC) Contribuer à l'audit et à la gouvernance des ressources Confluent Mettre en oeuvre les bonnes pratiques de sécurité réseau Participer aux revues de sécurité périodiques Automatisation & IaC Développer des modules Terraform pour la gestion de la plateforme Automatiser les tâches récurrentes Optimiser les processus de déploiement et de rollback
Mission freelance
246207/Dévelopeur C#.Net, Openshift, Kafka, SQL, API, Angular
WorldWide People
Publiée le
Angular
Apache Kafka
C#
6 mois
Paris, France
Dévelopeur C#.Net, Openshift, Kafka, SQL, API, Angular Dans le cadre de notre plan stratégique et de la transformation de notre architecture Pre Trade, mission de Développeur C#. Cette équipe a pour ambition de repenser nos processus et notre architecture, en collaborant étroitement avec les métiers pour répondre à leurs exigences en matière de robustesse, de performance et de scalabilité. Le consultant travaillera en étroite collaboration avec d'autres membres de l'équipe ainsi qu'avec les parties prenantes, y compris les architectes et les utilisateurs finaux. Objectifs et livrables Compétences techniques/fonctionnelles • C# et architecture applicative: Maîtrise du langage C# pour le développement d’applications robustes, avec une forte orientation objet, structures de données et modèles de conception. • SQL: Expérience avec les bases de données relationnelles, écriture et optimisation de requêtes, gestion des performances et des index. • API et intégration: Connaissance des principes RESTful et capacité à consommer/créer des services web pour faciliter la communication entre applications et systèmes. • Angular: Développement d’interfaces front-end réactives et robustes. • Kafka: Compréhension des principes de streaming et expérience avec l’intégration de données via Apache Kafka (producteurs, consommateurs, topics, schémas, gestion des offsets). • OpenShift: Connaissance des environnements containerisés et orchestrés sur OpenShift (déploiement, scaling, pipelines CI/CD, sécurité et gestion des projets). • Systèmes financiers: Développement d’applications C# pour des plateformes financières (trading, tenue de positions), en tenant compte des contraintes de résilience et de performance. • Produits financiers: Compréhension des instruments (actions, obligations, dérivés, etc.) et des marchés, avec capacité à développer des solutions logicielles adaptées. • Tendances du marché: Veille technologique dans les services financiers et intégration des innovations pertinentes dans les projets. Compétences analytiques • Analyse des besoins: Recueil et analyse des besoins techniques des utilisateurs et parties prenantes, en veillant à l’alignement avec les objectifs du projet. • Gestion des exigences: Rédaction de spécifications techniques claires et détaillées, avec traçabilité tout au long du cycle de vie du produit. • Évaluation des solutions: Analyse et évaluation des solutions proposées pour assurer leur adéquation avec les besoins métier et les contraintes techniques. Compétences demandées Compétences Niveau de compétence OPENSHIFT Avancé API Confirmé SQL Confirmé KAFKA Avancé ANGULAR Confirmé C# Expert Langues Niveau de langue Anglais Courant
Mission freelance
Ingénieur DevOps/ Administration MongoDB
CAT-AMANIA
Publiée le
Apache Kafka
Mongodb
12 mois
400-580 €
Paris, France
Vous rejoindrez notre équipe en charge de l’administration et du maintien en condition opérationnel de la plateforme MongoDB Atlas ainsi qu’à la mise en production et à l’industrialisation des projets. Vos missions consisteront à contribuer: Accompagner les équipes projet dans la mise en place des bases Gérer les installations, montées de version, paramétrage et optimisation des bases Amélioration des performances (tuning des requêtes SQL, configuration des services) Assurer le support en interne en cas de bug ou d’anomalies Assurer la relation avec les fournisseurs externes (MongoDB) Gérer les configurations Private Service Connect (PSC) pour les clusters Confluent Cloud Assurer la conformité avec les standards réseaux de sécurité Participer à la mise en oeuvre du plan DRP (Disaster Recovery Plan) Contribuer à la migration vers une architecture PSC unifiée Assurer le monitoring et Observabilité Mettre en place et améliorer les solutions de monitoring de la plateforme Superviser les clusters et les noeuds sur MongoDB Atlas Assurer la surveillance des services (Sharding, Archive Online, …) Configurer et optimiser la remontée des logs et traces dans Dynatrace Développer des tableaux de bord pertinents pour le suivi opérationnel Mettre en place des alertes proactives sur les métriques critiques Garantir la conformité des accès selon les standards de sécurité Contribuer à l'audit et à la gouvernance des ressources MongoDB Atlas Mettre en oeuvre les bonnes pratiques de sécurité réseau Participer aux revues de sécurité périodiques (interface avec KMS Google et FortaniX, gestion des rôles, cryptage, interface avec notre solution SoC ) Maintenir et enrichir les pipelines CI/CD pour le déploiement de l'infrastructure Contribuer au développement des modules Terraform pour la gestion de la plateforme Automatiser les tâches opérationnelles récurrentes Optimiser les processus de déploiement
Offre d'emploi
Data Engineer Streaming
KLETA
Publiée le
Apache Kafka
Apache Spark
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Développeur Java Angular (F/H)
ODHCOM - FREELANCEREPUBLIK
Publiée le
Angular
Apache Kafka
Java
12 mois
400-550 €
Paris, France
Description : Dans le cadre de la modernisation de notre plateforme et de l’adoption d’une culture You Build It, You Run It, nous recherchons un profil hybride : un lead développeur confirmé (Java / Angular) et un sens de l’exploitation. Ce rôle va au-delà du développement classique : il s’agit de construire, déployer et opérer les applications en production, d’assurer leur performance et de contribuer à l’automatisation de notre chaîne logicielle. Missions principales • Développer les services backend en Java / Spring Boot et les interfaces en Angular, dans une démarche craft (tests, clean code, revues). • Concevoir, industrialiser et maintenir les pipelines CI/CD pour automatiser les déploiements (GitLab CI). • Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK, OpenTelemetry). • Optimiser les performances du code, des requêtes, des API, ainsi que le dimensionnement des ressources cloud. • Assurer la continuité de service : disponibilité, résilience, gestion des incidents, analyse post-mortem. • Participer activement à la vie du produit : architecture, conception, revues de code, amélioration continue. • Apporter un regard Ops au sein de l’équipe : logging, alerting, observabilité, bonnes pratiques de run. • Veille et recommandation sur les bonnes pratiques DevOps et outils d’industrialisation.
Offre d'emploi
Architecte Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Offre d'emploi
Data Engineer Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
Offre d'emploi
DataOPs Kafka
JEMS
Publiée le
Apache Kafka
Kubernetes
3 ans
54k-70k €
470-630 €
Paris, France
Au sein du pôle technologique en charge des plateformes as a service , vous rejoignez la Squad Streaming qui est responsable du build et du run d’une plateforme Kafka (Confluent) de grande envergure, utilisée par de nombreuses entités du groupe. La plateforme compte plus de 30 clusters Kafka et constitue un socle critique pour les flux de données temps réel. Build & Architecture Déployer de nouveaux clusters Kafka (Confluent) Participer à la définition des architectures futures de la plateforme Concevoir et tester des prototypes liés aux nouveaux cas d’usage Industrialisation & Automatisation Automatiser les déploiements et opérations via Ansible Standardiser et fiabiliser les configurations Améliorer en continu les processus d’installation, d’upgrade et de scaling Run & Exploitation Assurer la mise en production et le maintien en condition opérationnelle des clusters Mettre à l’échelle les clusters existants (scaling horizontal et vertical) Participer aux astreintes techniques Diagnostiquer et résoudre les incidents complexes liés à la plateforme Support & Expertise Accompagner les équipes utilisatrices dans l’usage de la plateforme Kafka Fournir un support technique avancé Documenter les offres proposées par la plateforme Animer des formations, démonstrations et WebTech Rôle au sein de la Squad Prendre en charge des éléments du backlog Participer aux rituels agiles (daily, rétrospectives, démos, PI Planning) Co-construire la roadmap avec le Product Owner et le Squad Lead Endosser le rôle de lead technique sur un produit de la plateforme Compétences techniques requises Expertise solide Kafka (idéalement Confluent) Expérience d’exploitation de plateformes en production critique Automatisation avec Ansible Systèmes Linux Connaissance des architectures distribuées et résilientes Compétences appréciées Kubernetes Observabilité / monitoring Réseaux & sécurité Scripting (Python, Bash)
Mission freelance
Un DevOps Sénior Kafka Kubernetes sur la région parisienne
Almatek
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Kubernetes
3 mois
Paris, France
Almatek recherche pour l'un de ses clients, Un DevOps Sénior Kafka Kubernetes Data Platform Sur la région parisienne. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. Maîtriser les technologies GCP (Google Cloud Platform) telles que Google Kubernetes Engine (GKE), Cloud Storage, Cloud SQL et Cloud Monitoring. Maîtriser en profondeur Apache Kafka, de sa confi guration avancée (partitionnement, réplication, compaction) à son exploitation en production, en passant par le tuning des performances, la gestion fi ne des topics et des offsets, la mise en oeuvre de la sécurité (TLS, SASL, ACL) et l’intégration avec des outils de supervision comme Prometheus et Grafana Avoir une solide expérience avec Kubernetes, notamment la création et la gestion de clusters, le déploiement d'applications et la supervision des performances. Être à l'aise avec les concepts DevOps, tels que l'intégration continue (CI) et la livraison continue (CD), et les outils associés. Connaissance des bonnes pratiques de sécurité et de la mise en place de politiques d'accès. Compréhension des concepts de base des bases de données relationnelles. Maîtrise des scripts de scripting (bash, Python, etc.). Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. Capacité à travailler de manière autonome et à gérer son temps effi cacement. Excellente communication écrite et orale : Aptitude à produire des livrables et des reportings de haute qualité. Esprit d'équipe : Capacité à collaborer effi cacement avec les membres de l'équipe pour atteindre des objectifs communs. Maîtrise des concepts d’Agilité (Scrum, Sprint Planning, Backlog…). Le/la consultant(e) doit disposer de son propre matériel, adapté aux besoins de la mission : OS & CPU : Windows (Intel Core i7 ou i9, AMD Ryzen 7 ou 9), MacOS (M2 ou supérieur), Linux (AMD Ryzen 7 ou 9) RAM : minimum 16 Go, idéalement 32 Go ou plus Stockage SSD) : minimum de 512 Go, idéalement 1 To ou plus
Offre d'emploi
Développeur Fullstack (H/F)
Swood Partners
Publiée le
Angular
Apache Kafka
Java
Paris, France
Embarque dans l'aventure SWOOD Partners ! 🌟 Nous sommes à la recherche d'un(e) Développeur(se) fullstack Java, prêt(e) à fusionner expertise technique, créativité et esprit d'équipe pour concevoir des solutions innovantes et impactantes. Si le développement Java te passionne, que tu apprécies les défis, travailler avec des équipes dynamiques et que tu souhaites vraiment faire la différence, la communauté tech de SWOOD n'attend que toi ! 🚀 Concrètement, tu seras amené à : Coconstruire l'offre Web Java : Contribuer activement à l'élaboration et à l’amélioration de l'offre de la practice Web sur la techno Java. Définir de solutions techniques : Analyser les besoins métiers, proposer et mettre en œuvre des solutions techniques détaillées. Accompagner et former des développeurs : Guider et accompagner des développeurs pour optimiser les performances et la sécurité des solutions. Proposer un code de qualité : Produire du code respectant les bonnes pratiques, conventions et standards de développement, ainsi que les tests associés. Pourquoi nous rejoindre ? 🤩 ✨ Accès à la propriété : chaque Swoodies peut acheter des actions chez SWOOD ! Faire partie et évoluer dans la Communauté Product Design , pour apprendre et partager avec d’autres experts. Un accompagnement au top : un suivi RH, un suivi BM et un suivi PL (un expert design ou produit) pour construire un plan d’évolution personnalisé. ⚡ On valorise ton impact , pas juste ta rentabilité. Des moments de partage , de fun et de best practices avec tous les Swoodies ! ➕ Et plus encore… Prêt(e) à transformer l'avenir avec nous ? 💡 Alors capitalise sur ton talent ! Et prends part (au sens propre comme au figuré 😏) au développement de SWOOD Partners !
Offre d'emploi
Consultant IT Documentaire – Flux Kafka (Java)
CELAD
Publiée le
52 500 €
Paris, France
Contexte Dans le cadre d’une mission pour l’un de ses clients bancaires majeurs , CELAD renforce ses équipes et recherche un Consultant Communication Client / Quadient Inspire . La mission s’inscrit dans un contexte de forte volumétrie (plusieurs milliards de communications par an) et de modernisation du système d’information courrier , incluant l’industrialisation des flux documentaires, l’optimisation de la diffusion omnicanale et une architecture orientée événements . Vos missions 1. Conception & paramétrage des communications Prendre en charge les demandes de création et d’évolution de courriers de gestion Concevoir les maquettes sous Quadient Inspire en respectant les master templates Garantir la conformité aux chartes graphiques et aux standards internes Produire des livrables conformes aux processus de versioning 2. Intégration & flux événementiels Intégrer les modèles documentaires dans un SI orienté événements Exploiter les flux Kafka alimentant les communications clients Participer aux tests d’intégration des flux documentaires Garantir la cohérence entre les données entrantes et la composition documentaire 3. Déploiement & industrialisation Préparer et déployer les évolutions via GitLab Contribuer aux mises en production Assurer la traçabilité et le versioning des livrables 4. Documentation, support & amélioration continue Maintenir la documentation fonctionnelle et technique Diagnostiquer les incidents liés aux communications et aux flux associés Assurer le support fonctionnel aux utilisateurs Participer à l’amélioration continue des processus
Offre d'emploi
Senior DevOps / Platform Engineer
KLETA
Publiée le
Apache Kafka
AWS Cloud
CI/CD
3 ans
Paris, France
Je recherche pour un client grand compte un Senior DevOps / Platform Engineer afin d’intervenir au sein d’une Software Factory en pleine structuration , dans un contexte de forte montée en charge des plateformes digitales. Contexte Vous interviendrez sur des plateformes critiques, avec des enjeux importants de : scalabilité standardisation des pratiques industrialisation des déploiements observabilité applicative data streaming Missions Structuration des pratiques DevOps / Platform Engineering Standardisation des déploiements applicatifs (Helm, CI/CD) Industrialisation des pipelines Mise en place et évolution de l’ observabilité applicative Accompagnement à l’adoption de OpenTelemetry / OpenSearch Contribution à l’évolution d’une plateforme Kafka / MSK Mise en place de mécanismes de self-service Participation à la définition de la roadmap technique
Mission freelance
Product Owner - Portail Investisseur (H/F)
Freelance.com
Publiée le
Apache Kafka
API
eFront
3 ans
400-640 €
Paris, France
Poste : Product Owner Portail Investisseur Localisation : Paris (2 jours présentiel mardi et vendredi, 3 jours télétravail) Expérience : +9 ans Mission : Longue, 3 ans Démarrage : ASAP Au sein du Train Agile Investissement , le Product Owner / Business Analyst prendra en charge la gestion du backlog produit "Portail Investisseur" en lien avec les métiers, les équipes éditeur et les équipes Digital / DSI. Le rôle inclut : Élaborer et partager la vision du produit avec les équipes métiers et l’équipe agile. Prioriser le backlog produit et rédiger les user stories avec critères d’acceptance. Assurer l’exécution des recettes fonctionnelles et applicatives , ainsi que le support utilisateur et l’assistance à la production (tickets d’incidents). Collaborer étroitement avec le Product Manager, le pilote digital, l’architecte et l’éditeur pour garantir la cohérence du produit avec la vision stratégique . Ce poste nécessite une capacité à coordonner plusieurs parties prenantes et à évoluer dans un contexte distribué, multi-sites.
Mission freelance
Tech Lead Databricks ( H/F)
ALLEGIS GROUP
Publiée le
Apache Kafka
Databricks
Scala
6 mois
150-620 €
Paris, France
Teksystems recherche pour un de ses client grand compte un Tech Lead Databricks ( H/F) . Missions principales1. Ingestion & Traitement de Données Concevoir et mettre en œuvre des pipelines d’ingestion de données en temps réel via Kafka . Assurer le traitement, la préparation, la qualité et la structuration des données sur la plateforme Databricks Data Intelligence Platform . Développer et optimiser les jobs de transformation avec Spark (Scala, PySpark si nécessaire). 2. Modélisation & Architecture Concevoir et maintenir des modèles de données robustes , scalables et alignés avec les besoins métiers. Définir une architecture technique viable, performante et pérenne , en lien avec les standards Data de l’entreprise. Encadrer les choix technologiques et identifier les solutions les plus adaptées aux cas d’usage. 3. Leadership Technique & Coordination Animer les ateliers techniques avec l’équipe Data (squad, data engineers, data analysts…). Assurer la gestion des risques techniques , anticiper les points de blocage et sécuriser la roadmap. Fournir un guidage technologique basé sur une expertise éprouvée des projets DATA. Accompagner la squad dans les bonnes pratiques de développement, de CI/CD et de gouvernance Data. 4. Méthodologie & Qualité Travailler dans un cadre Agile (Scrum / Kanban), avec participation active à la planification, aux revues et aux rétrospectives. Garantir la qualité des livrables : documentation, code propre, tests, performance.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
55 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois