Trouvez votre prochaine offre d’emploi ou de mission freelance MQTT (Message Queuing Telemetry Transport)
Votre recherche renvoie 8 résultats.
Mission freelance
Spécialiste données industrielles / Aveva PI
Signe +
Publiée le
MQTT (Message Queuing Telemetry Transport)
SCADA
6 mois
450-520 €
Pau, Nouvelle-Aquitaine
Bonjour, Nous recherchons pour l'un de nos clients un spécialiste données industrielles. La compétence AspenTech Inmation est vraiment un plus mais pas obligatoire. Le vrai plus c’est si la personne connaît très bien la solution Aveva PI et qu’elle souhaite découvrir Inmation (qui est un concurrent de Aveva PI). Contexte de la mission Le Spécialiste AspenTech Inmation intervient comme référent technique dans un environnement industriel complexe, multi-sites et fortement contraint par les exigences OT/IT, la cybersécurité et la disponibilité opérationnelle. Au sein de TotalEnergies, il assure un rôle central dans la mise en œuvre de la plateforme Inmation, utilisée comme couche d’unification, de contextualisation et de distribution des données industrielles en temps réel. La mission implique une articulation étroite avec les systèmes d’automatisme, SCADA, historiens et infrastructures réseau industrielles, tout en respectant les standards du Groupe et les principes de défense en profondeur. L’objectif est de garantir la cohérence des modèles d’objets, l’homogénéité des pratiques, la qualité des flux et la performance globale de l’architecture, tout en tenant compte de l’écosystème existant (notamment AVEVA PI) et de la trajectoire de convergence vers des solutions data plus intégrées. Le spécialiste contribue aux ateliers techniques avec l’éditeur, aux revues d’architecture et aux analyses d’usage pour aligner les choix techniques sur les priorités métiers : surveillance en temps réel, performance énergétique, maintenance conditionnelle, optimisation process, réduction des émissions, amélioration de la fiabilité des actifs.
Offre d'emploi
Architecte Technique Intégration de Flux – MuleSoft / Kafka / MQTT
R&S TELECOM
Publiée le
Apache Kafka
AWS Cloud
High Level Design (HLD)
1 an
Malakoff, Île-de-France
Le client recherche un Architecte Technique Intégration confirmé capable de concevoir et structurer les architectures d’intégration applicative. Le consultant interviendra sur les projets nécessitant la mise en place de flux applicatifs entre différents systèmes métiers et industriels. Ses missions principales seront : -concevoir les architectures techniques des flux applicatifs -garantir la cohérence et l’urbanisation des échanges inter-systèmes -produire les livrables d’architecture nécessaires aux projets -accompagner les équipes techniques lors de la mise en œuvre des solutions -assurer la conformité des architectures aux standards techniques et de sécurité du groupe Le consultant participera également aux instances de validation d’architecture et contribuera à l’évolution des standards techniques de l’organisation. Prestations attendues Architecture & Design: Recueil et analyse des besoins métiers Conception d’architectures d’intégration inter-applicatives Modélisation des architectures techniques Urbanisation des flux applicatifs Définition de patterns d’intégration Participation aux comités d’architecture Conseil & Expertise: Support aux équipes projets et équipes de delivery Accompagnement des équipes techniques lors du déploiement des solutions Contribution aux normes et standards IT du groupe Support aux équipes sécurité et architecture Vérification de la conformité des implémentations aux standards d’architecture Gouvernance & Delivery: Participation aux comités techniques et d’architecture Support aux phases de validation des architectures Accompagnement à la mise en production des solutions Suivi et reporting des activités Livrables attendus : HLD Flux (High Level Design) LLD / Design technique détaillé Patterns d’architecture et modélisation Documentation technique d’intégration Recueil des besoins métiers Rapports d’activité hebdomadaires Support aux comités de validation d’architecture
Mission freelance
Architecte Technique Intégration de Flux – MuleSoft / Kafka / MQTT
Groupe Ayli
Publiée le
Apache Kafka
API
ArchiMate
12 mois
400-600 €
Malakoff, Île-de-France
🎯 Contexte Dans le cadre d’un vaste programme de transformation digitale, la DSI d’un grand groupe industriel international renforce sa gouvernance des flux applicatifs entre les systèmes Enterprise et les systèmes Industriels. Ces environnements – bien que segmentés pour des raisons de sécurité – sont fortement interconnectés. Le groupe souhaite donc disposer d’architectures d’intégration robustes, sécurisées et conformes aux standards d’urbanisation IT définis à l’échelle internationale. Le consultant rejoindra l’équipe Solution Design & Architecture as a Service , au sein du département Enterprise Architecture , afin d’intervenir sur la conception d’architectures d’intégration et l’accompagnement des projets. 🔧 Environnement technique AWS (services natifs, data transfer) MuleSoft Kafka MQTT Architecture d’intégration inter-systèmes Urbanisation du SI CI/CD Environnements industriels sécurisés 🎯 Objectif de la mission L’objectif est de prendre en charge la conception et la structuration des architectures d’intégration applicative sur les projets nécessitant l’échange de données entre SI Enterprise et SI Industriels. 💼 Missions principales Concevoir les architectures techniques de flux applicatifs Garantir la cohérence et l’ urbanisation des échanges inter-systèmes Produire les livrables d’architecture (HLD / LLD) Accompagner les équipes techniques lors de la mise en œuvre Assurer la conformité avec les standards IT & sécurité du groupe Participer aux comités et validations d’architecture Contribuer à l’évolution des standards techniques globaux 📌 Prestations attendues 🧩 Architecture & Design Analyse des besoins métiers Conception d’architectures d’intégration inter-applicatives Modélisation des composants et flux techniques Urbanisation des flux Définition de patterns d’intégration Participation aux comités d’architecture 🧠 Conseil & Expertise Support aux équipes projets et delivery Accompagnement au déploiement des solutions Contribution aux normes et standards IT Support aux équipes sécurité / architecture Contrôle de la conformité technique 📊 Gouvernance & Delivery Participation aux comités techniques Support aux phases de validation Accompagnement à la mise en production Suivi des activités et reporting 📄 Livrables attendus HLD (High Level Design) LLD (Low Level Design) / Design technique détaillé Patterns & modèles d’architecture Documentation technique d’intégration Recueil des besoins métiers Rapports hebdomadaires Contribution aux comités de validation
Mission freelance
Architecte Technique Intégration de Flux – MuleSoft / Kafka / MQTT (H/F)
Freelance.com
Publiée le
Apache Kafka
AWS Cloud
MQTT (Message Queuing Telemetry Transport)
6 mois
Malakoff, Île-de-France
Dans le cadre de la transformation digitale d’un grand groupe industriel international, la DSI renforce la maîtrise et la gouvernance des flux applicatifs entre les systèmes d’information Enterprise et les systèmes d’information Industriels. Ces environnements, bien que séparés et segmentés, sont fortement interconnectés et nécessitent des solutions d’intégration robustes, sécurisées et conformes aux standards d’urbanisation IT du groupe. Afin d’accompagner cette évolution, le groupe souhaite renforcer son dispositif d’architecture sur les sujets d’intégration applicative et de gestion des flux de données. Le consultant intégrera l’équipe Solution Design & Architecture as a Service, rattachée au département Enterprise Architecture, et interviendra sur la conception des architectures d’intégration et l’accompagnement des équipes projets. Environnement technique : AWS (services natifs et solutions de transfert de données) MuleSoft Kafka MQTT Architecture d’intégration inter-systèmes Urbanisation du SI CI/CD Envionnement industriel sécurisé
Offre d'emploi
Senior Python Developer
VISIAN
Publiée le
API
AWS Cloud
PostgreSQL
1 an
Paris, France
Missions En tant que Développeur Python Senior, vous serez amené(e) à : Concevoir et implémenter des services backend en Python pour la gestion des actifs, des contrats et des opérations de marché. Développer des API et des pipelines de données pour intégrer les composants applicatifs à l'écosystème d'information global, incluant les applications internes et externes, le hub de données, les autres systèmes de stockage de données et les consommateurs de données. Intégrer des systèmes de messagerie (MQTT, RabbitMQ) pour l'ingestion de données en temps réel. Utiliser PostgreSQL pour la modélisation, l'optimisation et l'intégrité des données relationnelles et de séries temporelles. Exploiter les services AWS tels que RDS, S3, IAM, Lambda, ECS et Docker. Collaborer avec les chefs de produit et les experts métier pour traduire les besoins métier en fonctionnalités logicielles évolutives. Contribuer aux processus de développement agile, notamment la planification des sprints, les rétrospectives et la coordination d'équipe. Participer au processus de mise en production toutes les deux semaines. Assurer le support de niveau 2 sur les applications existantes et sur les mises en production dédiées. Assurer le développement logiciel, le suivi et la mise en œuvre des correctifs, évolutions et adaptations. Fournir des solutions correctives ou des solutions de contournement selon les besoins. Compétences techniques Plus de 6 ans d'expérience en développement Python (développement d'applications). Maîtrise de PostgreSQL, notamment la conception de schémas, l'optimisation des performances et la gestion des données de séries temporelles. Expérience des services AWS (RDS, S3, IAM, ECS, Docker). Expérience des API, des pipelines de données, du streaming et autres paradigmes d'intégration de systèmes. Familiarité avec les méthodes agiles et les environnements de développement collaboratif. Les plus : Expérience avec React ou en développement front-end. Expérience avec FastAPI ou des alternatives (par exemple, Flask, Django). Familiarité avec l'orchestration de conteneurs ou les pipelines CI/CD. Outils et environnement Python PostgreSQL AWS (RDS, S3, IAM, Lambda, ECS) Docker Systèmes de messagerie : MQTT, RabbitMQ Méthodologies agiles
Mission freelance
Ingénieur Test Système
HAYS France
Publiée le
Azure DevOps
Python
Robot Framework
3 mois
Nouvelle-Aquitaine, France
Informations générales Intitulé du poste : Ingénieur Test Système Lieu : Nouvelle Aquitaine Type de contrat : 3 mois, renouvelable par tranche de 3 mois mais visibilité sur 1 an à minima Disponibilité : À partir de maintenant Missions principales Réaliser, animer le plan de qualification systèmes à partir des spécifications, des exigences qualités et des cas d’usages exprimés Mettre en place un banc de test automatisé en fonction du plan de test (création de PCB de tests, codage arduino, cablage produits, programmation drivers/librairies python) Rédiger les scripts de tests sur Robot Framework Créer, modifier et maintenir les librairies de test en python Réaliser les tests automatisés et/ou manuels selon le plan de qualifications Créer et maintenir les pipelines de tests automatisés sous AzureDevOps Animer le suivi des tickets de bugs avec l’équipe projet Collaborer et participer avec les équipes projet Profil recherché Formation : Bac+5 (école d’ingénieur ou équivalent) en électronique, systèmes embarqués ou domaine similaire. Expérience : Débutant accepté Compétences techniques : Maitrise du langage python et bonne connaissance en C. Expérience en RobotFramework et Arduino Expérience en test produit ou équivalent Connaissance de l’environnement Visual Code Connaissance en électronique Analogique ou numérique et création de petit PCB Expérience en AzureDevOps ou équivalent (création de pipeline, gestion de ticketing) Connaissance en IoT ou Smart building serait un plus (protocoles radio, MQTT, etc.) Qualités : Rigueur, autonomie et sens du travail en équipe. Capacité à gérer plusieurs projets en parallèle. Anglais niveau B2 minimum Avantages Travail en équipe sur des projets innovants. Au sein d’une équipe de 6 testeurs, en collaboration avec les équipes R&D France et internationale. Environnement dynamique et technologique. Possibilité de prolongation et évolution interne.
Offre d'emploi
Expert Data Engineer / DevOps
R&S TELECOM
Publiée le
Apache Kafka
Java
Kubernetes
6 mois
40k-45k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d’un programme structurant de modernisation du système d’information , nous recherchons un profil Data Engineer / DevOps senior pour renforcer une équipe existante. La mission s’inscrit au cœur du SI cible , au service de plusieurs applications critiques orientées data, intégration et services temps réel. Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source . Démarrage souhaité : mai / juin Localisation : Rive gauche bordeaux, nécessite un véhicule Objectifs de la mission Le rôle est double : DevOps / Plateforme Industrialisation et sécurisation des chaînes d’intégration et de déploiement Standardisation des pratiques GitOps sur un socle Kubernetes multi‑environnements Renforcement de l’automatisation et de l’observabilité des plateformes applicatives et data Data / Streaming Accompagnement à la conception et à la standardisation des flux data temps réel Structuration d’un Data Lake orienté streaming et lakehouse Garantie de la performance, de la résilience et de la maintenabilité des flux Domaines d’intervention & compétences clés Socle Kubernetes & DevOps Orchestration : Kubernetes (Namespaces, Ingress, RBAC) GitOps : GitLab CI, Helm, ArgoCD Observabilité : Grafana, Prometheus, Loki, Tempo Sécurité CI/CD : SAST, DAST, Trivy Environnements : OpenStack Écosystème Data & Data Lake Streaming & CDC : Kafka, Debezium Processing : Spark SQL, Airflow Lakehouse : Apache Iceberg Query Engine : Trino (PrestoSQL) Stockage objet : Ceph (ou équivalent) Micro‑services & APIs Runtimes : Java / Quarkus, Python API Management : Kong Protocoles : MQTT (atout) Optimisation des performances applicatives et data Livrables attendus (exemples) Socle & automatisation Mise en place d’architectures ArgoCD (Application of Applications) Catalogue de Charts Helm industrialisés Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés Data & Streaming Provisionnement automatisé des clusters Kafka et connecteurs Debezium Configuration optimisée de Trino sur stockage objet Mise en place des DAGs Airflow pour l’orchestration des traitements Documentation & MCO Dashboards de supervision avancés Rédaction du Dossier d’Architecture Technique (DAT) Rédaction de Runbooks MCO / PRA Définition de standards techniques et bonnes pratiques cloud native Profil recherché Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer Très bonne maîtrise de Kubernetes et des pratiques GitOps Expérience concrète sur des plateformes Kafka et Data Lake À l’aise dans des contextes SI complexes et structurants Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet Autonomie, rigueur, sens de l’industrialisation
Mission freelance
Mission Freelance - Développeur sénior .Net - Bruxelles
KUBE Partners S.L. / Pixie Services
Publiée le
.NET
Python
Scala
1 an
350-550 €
Bruxelles, Bruxelles-Capitale, Belgique
Objectif du poste L'entreprise constitue une nouvelle équipe de développement afin de réécrire intégralement une application critique de pilotage énergétique en C#/.NET, après abandon total de l’ancien socle Python. Il ne s’agit ni de run, ni de maintenance legacy : la mission est entièrement orientée build, sur un socle moderne, dans un contexte temps réel à forte complexité. Le rôle peut varier selon l'expérience : développeur confirmé/senior ou tech lead / solution architect avec contribution hands-on. Contexte et environnement : La mission s’inscrit dans les produits dédiés au pilotage temps réel des actifs énergétiques, essentiels pour l’équilibrage du réseau : • aFRR Dispatcher : traitement toutes les 2 à 4 secondes des signaux du gestionnaire de réseau et calcul optimal de leur répartition vers les batteries, parcs renouvelables, etc. • TimeFlux : collecte et diffusion de données temps réel à faible latence. • GENCO : connexion avec les systèmes industriels SCADA. Vous rejoindrez une unité jouant un rôle clé, au sein de deux équipes d’architectes et développeurs collaborant étroitement avec les experts métier. Missions principales 1. Conception et développement en C#/.NET • Réécriture complète du code existant from scratch. • Conception et implémentation de services, API et microservices. • Architecture logicielle moderne, documentation, patterns propres. • Développement back-end, tests automatisés, intégration dans pipelines CI/CD. 2. Structuration d’une nouvelle équipe Les premiers arrivants auront un rôle fondamental dans : • la définition des standards et bonnes pratiques, • les choix techniques, • le partage de connaissances et la documentation, • les pair-reviews et le coaching selon séniorité. 3. Résolution de problèmes complexes On recherche des profils capables de : • analyser et abstraire, • prendre du recul, • challenger les besoins métiers, • proposer des solutions robustes plutôt que reproduire des recettes. 4. Leadership et architecture (selon séniorité) • Coaching technique d’une équipe de 3 à 5 développeurs. • Collaboration avec analystes et experts métier. • Conception d’architectures complètes : services, APIs, flux temps réel. 5. Activités opérationnelles associées • Découpage des évolutions en incréments agiles. • Mise en place et maintien des outils de build et de tests. • Participation aux tests, documentation utilisateur, support niveau 2. • Mise en place et suivi de l’observabilité : métriques, logs, alertes. Compétences techniques recherchées : Compétences essentielles • Excellente maîtrise de C# / .NET (Core). • Expérience en création d’applications from scratch. • Très bonne compréhension des architectures modernes (API, microservices). • Expérience en architectures event-driven : Kafka, Azure Event Hub, MQTT, Azure Service Bus. • Connaissances solides des systèmes distribués : scalabilité, résilience, ordering, idempotence, backpressure. • Cloud : Azure (ou AWS avec volonté de transition vers Azure). • Kubernetes en production : autoscaling, déploiements. • PostgreSQL, Redis, Azure Data Explorer (en test). • CI/CD : GitHub Actions, déploiement continu. • Observabilité : Grafana, Prometheus ou équivalent. Atouts • Connaissances Python (pour interaction avec d’autres équipes). • Connaissances éventuelles en Scala ou Rust. Soft skills recherchés • Communication claire et structurée. • Curiosité intellectuelle et capacité à sortir du cadre. • Capacité à expliquer et justifier ses choix techniques. • Autonomie, transparence, sens des responsabilités. • Leadership, pédagogie, esprit collaboratif. • Capacité à résoudre des problématiques complexes. • Humilité et esprit d’équipe.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
8 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois