Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 265 résultats.
Freelance
CDI

Offre d'emploi
INGENIEUR DE PRODUCTION - DEVOPS

HEEVOX
Publiée le
Ansible
Apache
Apache Tomcat

3 ans
50k-60k €
400-570 €
Île-de-France, France
INGENIEUR DE PRODUCTION - DEVOPS Démarrage : ASAP Durée : 3 Ans Localisation : Ile de France Télétravail : 50% Mission : - Support technique pour les environnements de développement, de recette et de production - Déploiement des nouveaux packages / Release applicatives - Contribution aux opérations de migration et répétitions associées - Maintien de la documentation technique relative aux déploiements, aux serveurs, et aux flux de données. - Exploitation et suivi de production - Contribution aux opérations d'upgrade d'infrastructure technique (serveurs Data, clusterisation, changement version Oracle) - Bonne maîtrise des outils de monitoring : GENEOS, Dynatrace, ELK, Grafana, Prometheus - Expertises nécessaires sur les outils DEVOPS : Ansible, Docker, kubernetes, bitbucket, Jenkins, Artifactory - Création et configuration de batchs sous l'ordonnanceur AUTOSYS - Développement des scripts Shell à des fins d’automatisation - Industrialisation et automatisation des processus de release - Suivi des tests de performances et anticipation des évolutions
Freelance

Mission freelance
Senior Data Ops Engineer

CAT-AMANIA
Publiée le
Apache Spark
CI/CD
Databricks

1 an
160-500 €
Lille, Hauts-de-France
Ta mission sera de Garantir la robustesse de la platforme Monitorer et prendre des actions proactive de management de la plateforme de compute Assurer le support et l'accompagnement d'équipes sur Spark, Databricks et EMR Travailler sur les optimisations des traitements Athena/Pyspark Accompagner et former Définir et promouvoir les bonnes pratiques de software engineering et de data engineering sur les technologies proposées au sein de l'équipe participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Travailler sur le concept d'accessibilité et de gouvernance de la donnée Tester de nouveaux outils / features intéressants à intégrer dans notre stack
Freelance
CDI
CDD

Offre d'emploi
Senior Java Développer (+5 ans d'expérience)

Gentis Recruitment SAS
Publiée le
Apache Kafka
GitLab CI
Java

6 mois
Luxembourg
Senior Java Developer (H/F) Dans le cadre de l’expansion de nos activités, nous recherchons un Senior Java Developer pour rejoindre une équipe technique intervenant sur des projets d’envergure. Vous participerez au développement et à l’évolution d’applications au sein d’un environnement structuré, avec une attention particulière portée à la qualité des livrables et aux bonnes pratiques de développement. Missions principales Participer au développement et à la maintenance d’applications Contribuer à l’amélioration continue des solutions existantes Assurer la qualité du code et le respect des standards techniques Participer aux phases de tests et de mise en production Collaborer avec les équipes techniques dans un contexte collaboratif
Freelance

Mission freelance
Développeur Java/Kafka

ESENCA
Publiée le
Apache Kafka
Git
Github

1 an
400-430 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de produits digitaux liés aux fonctions Ressources Humaines , nous recherchons un Développeur Java afin de renforcer une équipe technique en charge du développement et de la maintenance de plusieurs solutions internes. Vous interviendrez au sein d’un environnement agile composé de plusieurs équipes produit (gestion administrative, recrutement, développement des talents, sécurité et diversité) et d’une squad technique transverse responsable de la réalisation des développements. Dans un contexte d’évolution rapide et d’intégration de nouvelles solutions SaaS, vous participerez au développement de nouvelles fonctionnalités et à l’intégration de plusieurs produits au sein de l’écosystème existant. Vos missions Participer au développement et à l’évolution des produits digitaux du domaine RH. Concevoir et développer des services backend en Java / Spring Boot . Contribuer à l’intégration de nouvelles solutions SaaS au sein du système d’information. Mettre en place et maintenir les mécanismes de gestion des accès (ACL) et des droits utilisateurs. Développer et maintenir les API et services applicatifs . Participer à la qualité du code via des tests unitaires et bonnes pratiques de développement. Contribuer aux rituels agiles et à la collaboration avec les équipes produit. Assurer le maintien et l’amélioration continue des solutions existantes. Compétences techniques requises Java / Spring Boot (expert – impératif). PostgreSQL (confirmé – impératif). Kafka (confirmé – important). Git / GitHub (confirmé – important). Environnement technique Java, Spring Boot JUnit, MapStruct, Flyway, Lombok PostgreSQL, MongoDB Kafka Git / GitHub Datadog Linux Méthodologie Agile / Scrum Compétences appréciées React / TypeScript Python / Django
Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
CDI

Offre d'emploi
Data Analytics Engineer Senior F/H

ASTRELYA
Publiée le
Apache Airflow
BigQuery
CI/CD

Paris, France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Data Analytics Engineer Senior, vous interviendrez au cœur des enjeux de modélisation analytique, de structuration de data products et de valorisation des données dans un contexte Risques (liquidité). Vous jouerez un rôle clé dans la transformation des données transactionnelles en modèles analytiques robustes, performants et exploitables par les équipes Risques, Finance et Data. Concrètement, vous allez : · Dé‑normaliser les transactions et les transformer en modèle en étoile adapté aux usages analytiques. · Concevoir et structurer un data product permettant le partitionnement et le clustering selon les axes d’analyse métiers. · Collaborer étroitement avec les équipes Risques pour comprendre les enjeux de liquidité, les indicateurs clés et les contraintes réglementaires. · Mettre en place des pipelines de transformation fiables, documentés et industrialisés. · Garantir la qualité, la performance et la gouvernance des données exposées. · Contribuer à l’amélioration continue des workflows DataOps et des bonnes pratiques d’ingénierie analytique. · Participer à la définition des standards de modélisation et d’architecture analytique au sein de l’équipe. Votre futur environnement technique : • Google Cloud Platform • BigQuery – entrepôt de données & moteur analytique • DBT – transformation & modélisation analytique • Airflow – orchestration • DataProc – traitements distribués • Cloud SQL – stockage & bases relationnelles • DataOps, CI/CD, bonnes pratiques d’ingénierie analytique
Freelance

Mission freelance
Ingénieur de Production OPS Cash Management – Cloud IBM/Kubernetes

BEEZEN
Publiée le
Ansible
Apache Kafka
Argo CD

12 mois
500-570 €
Montreuil, Île-de-France
Je recherche une prestation d'ingénierie de Production OPS/DevOps (rôle IT OPS) pour accompagner la gestion des applications du build au run du périmètre Cash Management dans un contexte Agile et cloud (IBM/Kubernetes). Les projets de déploiement sont en cours de construction avec pour objectif une mise en production avant la fin de l'année. Une forte culture cloud (infrastructure, système & réseau, base de données) est indispensable, ainsi qu'une expérience en contribution projets côté OPS. Profil confirmé ou senior apprécié. La connaissance du secteur bancaire / paiements constitue un atout. Une expérience en contribution OPS en mode projet est indispensable pour assurer une adaptation rapide au périmètre. MISSIONS PRINCIPALES Environnements & Infrastructure Création ou mise à jour des environnements cloud & on-premise (VM, bases de données, clusters, namespaces, message queues, VIP) Migration des applications vers le cloud DMZR (cloud IBM / Kubernetes) Gestion de l'intégration, installation, mise à jour et exploitation applicative Déploiement & Automatisation Gestion des chaînes de déploiements via Ansible Tower, Gitlab CI/CD, Digital AI Release, Jenkins Mise en place des Jalons Qualités (Quality Gates) Mise à jour des consignes d'exploitation et contribution au passage en patrimoine Monitoring & Performance Mise en place du monitoring avec indicateurs de performance / surveillance (stack Elastic et Dynatrace) Implémentation et surveillance des services de production (OpStore…) Proposition d'axes d'optimisations, d'industrialisations et d'amélioration des méthodes Maintien en Conditions Opérationnelles (MCO) Participation au diagnostic et à la résolution des incidents Gestion des problèmes (Time to fix / Time to repair) Application des principes du continuous operations / exploitation Veille à la disponibilité d'une documentation d'installation et d'exploitation à jour Accompagnement & Documentation Accompagnement technique et fonctionnel Participation à la documentation technique et applicative Assurance de la traçabilité des accès aux machines (OS, stockage, routeurs…) Opérations en HNO et astreintes RÔLE AU SEIN DE L'ÉQUIPE AGILE (SCRUM) L'Ingénieur OPS intervient au sein d'une équipe Agile (Scrum) autonome et pluridisciplinaire, composée de ressources IT métiers (Dev) et OPS, responsabilisées autour d'un ou plusieurs produits. Participation aux rituels & backlog Participation à l'ensemble des rituels Agile : Sprint planning, Daily Meeting, Review, Rétro Communication des exigences infrastructure et exploitation dans le product backlog Évaluation de la complexité des User Stories lors des sprint planning Implémentation des User Stories techniques et d'exploitation du Product Backlog Déclaration des obstacles (impediments) et remontée aux bons interlocuteurs Support & montée en compétences Sensibilisation et propagation des bonnes pratiques OPS au sein de l'équipe Assurance de la montée en compétence de l'équipe Agile sur les bonnes pratiques DevOps (profil confirmé et senior) Promotion des solutions standards ou expérimentales répondant aux problématiques de l'équipe Challenge de l'équipe sur les solutions proposées en s'appuyant sur l'expertise Ops Infrastructure & conformité Anticipation des problématiques de conformité aux règles et standards d'architecture et de sécurité Obtention et gestion des ressources techniques en tant que référent Test de l'exploitabilité des environnements techniques (backup/restore, accès aux données, performances…) Identification des points de blocage Ops (flux, sécurité, réseau…) et proposition de plans d'action STACK TECHNIQUE Containerisation: Kubernetes, Kubernetes/HELM, OpenShift Messaging / Flux: Kafka, EventStream, CFT, IBM MQ Déploiement: Ansible, Ansible Tower, Terraform, ArgoCD, Gitlab CI/CD, Jenkins, Digital AI Release Monitoring: ELK / Elastic, Dynatrace, IBM Cloud Logs, IBM Cloud Monitoring (Sysdig) Base de données: MongoDB, Oracle, PostgreSQL PROFIL RECHERCHÉ Compétences indispensables Intégration Applicative Open : Linux, Windows, Sortie d'Aix Compétences DevOps cloud : Ansible, Kubernetes, Micro-Services, Plateforme aaS (As A Service) Maîtrise du scripting Maîtrise de l'ordonnancement (schedulers) Connaissance de l'Intégration Continue (CI) : GitLab, Bitbucket, Nexus, Artifactory, Jenkins Infrastructure Cloud (IaaS, PaaS) et applications Open Expérience en contribution projets côté OPS Atout apprécié Connaissance de l'environnement bancaire, plus précisément des paiements
Freelance
CDI

Offre d'emploi
DevOps ( Cloud / Kafka / APIGEE)

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Nantes, Pays de la Loire
Contexte de la mission Améliorer l'industrialisation, la sécurisation et la supervision des plateformes d'échanges : KAFKA, APIGEE, Bucket GCP, SFTP. Travailler sur la résilience d'APIGEE/KAFKA/SFTP ainsi que les sujets de migration KAFKA (Move 2Paris) et sur les sujets autour de l'IA avec APIGEE (MCP Server), autre plateforme Google Kafka. Un nouveau périmètre à intégrer dans l'équipe Scripts, code Terraform pour ci/cd, Procédures explicatives Astreintes et Intervention à prevoir Objectifs et livrables lCoud Provider Public (idéalement GCP) Scripting (Shell, Python) Terraform, Git , Argo, Kubernetes, Ansible KAFKA, APIGEE, Bucket GCP, SFTP, Cloudflare
CDI

Offre d'emploi
Développeur Fullstack Java / React (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Kafka
CI/CD
DevOps

40k-45k €
Lille, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ingénieur Data Ops / Systèmes – Support & Exploitation Plateforme Data (Production / Run) (H/F)

TechOps SAS
Publiée le
Apache Airflow
Dremio
Grafana

12 mois
400-510 €
Île-de-France, France
Dans le cadre du renforcement d’une plateforme Data en production, nous recherchons un Ingénieur Système / Data Ops pour intégrer une équipe en charge du support et de l’exploitation d’un Data Hub et d’une plateforme de Data Virtualisation. Le poste consiste à assurer le bon fonctionnement des environnements de production, à superviser les traitements de données, à coordonner les incidents et à garantir la continuité de service. Vous interviendrez sur le monitoring quotidien des flux, la gestion des incidents et des problèmes, ainsi que sur la coordination des mises en production et des changements techniques. Vous serez également amené à analyser les incidents, proposer des actions correctives et préventives et participer à l’amélioration continue des processus et des outils de supervision.
Freelance
CDD

Offre d'emploi
Data Engineer Azure Databricks H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
CI/CD

8 mois
50k-60k €
460-500 €
Île-de-France, France
Analyse des traitements existants dans le cadre de projets de migration de données Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing , incluant l'optimisation des traitements et le tuning de requêtes SQL Rédaction de la documentation technique (Dossiers d'Analyse Technique, release delivery notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Freelance
CDI

Offre d'emploi
Data Engineer Streaming

KLETA
Publiée le
Apache Kafka
Apache Spark

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
tech lead java angular

Freelance.com
Publiée le
Angular
Apache Kafka
Apache Maven

1 an
510-590 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Agile organisée en train SAFe, nous recherchons un Tech Lead Java JEE confirmé pour intervenir sur des applications critiques liées à la gestion et à la facturation. Intégré à une équipe dynamique pilotée par un Product Owner et un Scrum Master, vous jouerez un rôle central dans la conception, la réalisation et l’amélioration continue des solutions. Vous serez le référent technique de l’équipe, garant de la qualité, de la sécurité et de la cohérence des développements. À ce titre, vous : Pilotez les orientations techniques et veillez au respect des standards d’architecture Assurez la mise en œuvre des exigences non fonctionnelles (performance, sécurité, résilience) Contribuez activement aux développements (correctifs, évolutions, enablers techniques) Supervisez les pipelines CI/CD et l’automatisation des tests Participez aux rituels Agile et aux échanges inter-équipes Portez les pratiques DevSecOps et améliorez en continu les processus Garantissez la qualité des livrables et le suivi en production Intervenez sur les problématiques de sécurité et de vulnérabilités Accompagnez l’équipe dans la montée en compétences techniques
Freelance
CDI

Offre d'emploi
Senior Java / Full Stack Developer – Trading Platform (H/F)

AVA2I
Publiée le
Angular
Apache Kafka
Java

3 ans
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre du développement et de l’évolution d’une plateforme de trading en environnement critique , nous recherchons un Software Engineer Senior (MOE) spécialisé en Java / Full Stack , avec une forte sensibilité aux enjeux de finance de marché . Vos missions Concevoir, développer et faire évoluer des composants critiques d’une plateforme de trading Intervenir sur l’ensemble de la chaîne Front to Back : de la cotation (quote) au post-trade Participer à la mise en place d’architectures modernes ( microservices, event-driven ) Développer des APIs performantes et robustes (REST, messaging…) Contribuer au support de production ( niveau 3 ) et à l’amélioration continue Collaborer étroitement avec les équipes trading, sales et métiers Environnement technique Backend : Java, Spring Boot Architecture : Microservices Concepts : CQRS, Event Sourcing API & Messaging : REST, Kafka (ou équivalent) Frontend (si full stack) : Angular ou React Environnement métier Finance de marché (obligatoire) Produits : Equity Derivatives (EQD) Plateforme de trading / structuration de produits Contexte banque d’investissement
Alternance

Offre d'alternance
Data scientist - Backend E-commerce (H/F) - - Alternance

█ █ █ █ █ █ █
Publiée le
Apache Spark
CI/CD
Docker

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Engineer Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

265 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous