Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 716 résultats.
CDI

Offre d'emploi
Data Engineer H/F

Publiée le
Big Data
Data Lake
Spark Streaming

Île-de-France, France
Télétravail partiel
Le Data Engineer est un développeur au sein de l’équipe Engineering Open Big Data du Département Data, qui regroupe l’ensemble des expertises technologiques liées à l’ingénierie de la donnée, de l’automatisation et à l’exploitation des modèles de Machine Learning. Ce déparetement est dédié au service de notre client et de ses équipes (Data office, Tribus data, Business, Transformation Office etc.), afin de fournir, en collaboration avec le Data Office, les plateformes (RPA, BI, Data, …) et les données nécessaires aux équipes chargées de délivrer les cas d’usages, puis les déployer et les maintenir en conditions opérationnelles.
Freelance

Mission freelance
Expert SharePoint / Powell / SPFx (H/F)

Publiée le
Power Platform
React
SharePoint

6 mois
Nanterre, Île-de-France
Télétravail partiel
Si coder est pour toi une passion plus qu'une compétence rejoins notre univers technique qui t'attend de pied ferme avec ce poste d’ Expert SharePoint / Powell ! 🚀 Ton challenge si tu l’acceptes : Concevoir et développer des solutions SharePoint & Powell avec un code performant et documenté Collaborer à la conception et à l’évolution de l’architecture M365 d’un acteur majeur du secteur assurance Gérer la maintenance corrective et évolutive des intranets et applications SharePoint Participer activement à l'amélioration continue interne et à l’industrialisation des usages Powell Implémenter des tests unitaires et d’intégration pour assurer la qualité des développements SPFx (React) Suivre les bonnes pratiques de développement et participer aux revues de code Travailler en méthodologie Agile/Scrum et participer aux rituels d’équipe
Freelance

Mission freelance
Expert Power Exchange/Powercenter

Publiée le
IBM Db2
Informatica
Linux

24 mois
440-600 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Pour le compte de l' un de nos clients dans le domaine assuranciel, nous recherchons un Expert Power Exchange/Power Center. Vous travaillerez sur trois Datacenters en multi sites . Vos missions seront les suivantes: -d'accompagner les équipes de support au dev de gérer les incidents d'effectuer le support aux projets de documenter les procédures d'exploitations Vous avez été acteur au sein d'un projet de montée de version d'Informatica Power Exchange vers Power Center. Vous êtes disponible rapidement.
Freelance

Mission freelance
développeur Cloud & IA

Publiée le
Azure
Azure Data Factory
Azure DevOps Services

6 mois
Les Ulis, Île-de-France
Télétravail partiel
Profil recherché : Senior disponible en début d’année, avec une charge estimée autour de 3/5 lors des trois premiers mois, sans exigence immédiate de plein temps. Spécialisation : Développeur senior spécialisé en IA Générative (Gen AI), notamment sur la stack GEn AI. Responsabilités Clés Développement Expert & Maintien : Créer des agents intelligents autonomes utilisant l’approche Agentic AI, capables d’utiliser des outils externes ou de collaborer avec d’autres agents via des API, MCP ou autres services. Développer des applications pour la consommation des agents et algorithmes, avec des interfaces spécifiques pour les utilisateurs finaux. Mettre en place des pipelines robustes pour alimenter les LLM/Agents avec Azure, Snowflake et Databricks (RAG, Fine-Tuning). Assurer le support en production, la supervision des modèles/agents et la résolution des problèmes techniques. Compétences clés IA générative (Gen AI) : Bonne maîtrise des modèles génératifs (GPT, diffusion, etc.), capacité à exploiter des LLM via API ou fine-tuning pour la génération de texte, code ou images, tout en comprenant leurs limitations et biais. Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud, gestion de l’orchestration d’agents, partage d’état via MCP, et enjeux de performance et coût pour des systèmes multi-agents. Architecture de solution & POC : Concevoir des POCs pour les usages en Gen AI et systèmes agentiques, en explorant et validant des architectures. Prendre des responsabilités architecturales en validant les choix techniques (stack d’agents, orchestration, modèles LLM, cloud Azure) pour assurer scalabilité, sécurité et performance. Conseiller sur l’optimisation des services Azure pour l’IA Générative, en termes de coût, performance et résilience.
Freelance

Mission freelance
Data ingénieur ( H/F) - Full remote

Publiée le
Apache Spark
Big Data
Google Cloud Platform (GCP)

1 an
370-500 €
France
Télétravail 100%
Contexte de la mission : Intégrez une équipe BI dédiée aux données de la relation client. Vous travaillerez dans un environnement en pleine transformation, avec une migration vers le cloud GCP en cours. Vos responsabilités : Intégrer une équipe agile et contribuer à la gestion et à l’évolution des données BI orientées CRM. Participer à la migration des environnements BI traditionnels vers GCP . Développer, maintenir et optimiser les flux de données (SQL, Big Data). Assurer la qualité, la performance et la fiabilité des traitements. Collaborer avec les équipes métiers et techniques pour répondre aux besoins de reporting et d’analyse.
Freelance

Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France

Publiée le
Big Data
Cloud
Infrastructure

6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
CDI
CDD

Offre d'emploi
Ingénieur DevOps Confirmé Accompagnement Évolution Produit- Sophia Antipolis (H/F)

Publiée le
CI/CD
Kubernetes

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre de l’évolution continue d’un produit stratégique, nous recherchons un Ingénieur DevOps Confirmé pour accompagner la construction, l’automatisation et l’optimisation des environnements techniques. La mission est orientée Kubernetes , CI/CD , Infrastructure as Code et observabilité . 📦 Livrables attendus Construction et maintien des environnements Automatisation complète des chaînes de delivery Documentation technique associée 🛠️ Missions principales Concevoir, déployer et administrer des clusters Kubernetes Intégrer et maintenir les outils de l’écosystème Kubernetes : Istio, Helm, ArgoCD, Prometheus, Grafana… Mettre en place et améliorer les pipelines CI/CD (GitLab CI, Jenkins, ArgoCD…) Surveiller les performances, la sécurité et la disponibilité des infrastructures Automatiser les tâches d’exploitation (Bash, Python, Terraform, Ansible…) Collaborer avec les équipes de développement pour optimiser les déploiements Assurer une veille technique et l’amélioration continue des pratiques DevOps 🧰 Compétences techniques requises (impératives) Kubernetes – Confirmé Jenkins – Confirmé Anglais professionnel – Impératif Compétences complémentaires recherchées Helm, Istio, ArgoCD, FluxCD Monitoring & observabilité : Prometheus, Grafana, Alertmanager, Loki CI/CD : GitLab CI, Jenkins, Argo Workflows IaC : Terraform, Ansible
Freelance

Mission freelance
Ingénieur Automatique - Intégration capteurs & bancs de tests

Publiée le
Big Data
C/C++
Linux

6 mois
200-310 €
Paris, France
Télétravail partiel
Contexte de la mission Vous rejoindrez l'équipe en charge de l'intégration des capteurs. Cette équipe pluridisciplinaire au sein du département Automatique : prototype et valide l'intégration des capteurs dans les différents produits, en collaboration avec les départements Mécanique et Électronique ; développe des méthodes de calibration innovantes, en collaboration avec l'équipe Bancs de Tests. Nous recherchons un candidat rigoureux, passionné, curieux, créatif, qui aime travailler dans un environnement dynamique et pluridisciplinaire, et qui n’a pas peur de s’attaquer à des challenges techniques nouveaux. Le candidat doit être diplômé d'une école d'ingénieur ou d'un master avec specialisation en Automatique, Mécatronique, Robotique ou similaire. Une experience professionnelle dans le domaine de l'automatique des systèmes embarqués ou dans la validation de capteurs MEMS est un gros plus. Objectifs et livrables Votre mission sera de contribuer au développement et à l'amélioration continue de nos produits en participant à l’ensemble des responsabilités de l’équipe. Vos missions : 1) Conception mécanique et électronique : Participer au design mécanique et électronique. S'assurer du respect des spécifications. 2) Validation du design & traitement des données des capteurs : Réaliser des tests de caractérisation des capteurs et de leur intégration. Prototyper, concevoir et documenter les méthodes de validation et calibration des capteurs. 3) Industrialisation des méthodes de validation et calibration & suivi de production : Développer et maintenir le code de test (C++, Python). Développer de nouveaux outils de tests. Industrialiser les méthodes de validation et calibration des capteurs. Analyser statistiquement les logs de production pour rejeter les valeurs aberrantes et détecter des problèmes de conception ou de production. Ces tâches nécessitent de : Rédiger des specifications techniques liées aux fonctions développées Réaliser un reporting régulier : documentation de résultats et méthodes, présentations au reste de l'équipe Respecter le planning projet Compétences demandées Compétences Python : Avancé Tests sur banc d'essai : Confirmé Big Data : Élémentaire Capteurs MEMS : Confirmé C++ : Avancé Automatique : Confirmé LINUX : Élémentaire Traitement du signal : Confirmé MATLAB : Confirmé Langues Anglais : Courant
CDI

Offre d'emploi
Data Engineer Databricks - Paris

Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Lead Conduite du changement /Transformation Qualité & Accélération Data

Publiée le
Stratégie

4 mois
Île-de-France, France
Télétravail partiel
1. Vision, Stratégie et Gouvernance (Pôle Prioritaire) ● Définir la Vision : Concevoir et déployer une feuille de route stratégique de qualité et de gouvernance pluriannuelle , en collaboration avec les équipes internes et le head of entreprise analytics. ● Standardiser l'Excellence : Définir et imposer un standard d'excellence unique pour tous les livrables techniques (data, IA, code, documentation) à l'échelle de l'organisation. ● Gouvernance de l'IA : Piloter la mise en place concrète de la gouvernance de l'IA en France (cartographie des systèmes, standards, estimation des risques en lien avec l'AI Act et le RGPD), en lien avec les équipes stratégies groupes. ● Structurer la Méthodologie : Fournir l'outillage et les méthodologies (Agile/DataOps) permettant de piloter la qualité, l'agilité et la conformité pour les 150 personnes. 2. Leadership, Culture et Conduite du Changement (Pôle Renforcé) ● Diffuser la culture : Devenir l'évangéliste interne pour ancrer la conviction que la qualité est un accélérateur. Animer les communautés de pratique (Data Quality, DataOps, Agilité) et coacher l'équipe de 150 experts pour une montée en maturité globale. ● Animation Fonctionnelle et Coaching : Guider fonctionnellement et coacher l'équipe Qualité/Agilité (2 personnes). Assurer le leadership d'influence et l'animation des communautés de pratique (DataOps, Agilité) pour garantir l'alignement et l'efficacité de la chaîne de production. ● Garantir l'alignement stratégique : Faire le lien et adapter ses standards aux spécificités de l'environnement Data & IA . 3. Pilotage Opérationnel et Mesure (Pôle Exécution) ● Structurer les Processus Qualité : Superviser la structuration des processus clés : Data Quality, bonnes pratiques de code (Software Craftsmanship), et animation des méthodologies Agiles. ● Mesurer l'Impact : Définir et suivre les KPIs de qualité pertinents, et piloter la mesure de la satisfaction (NPS) des livrables pour démontrer l'impact de la démarche Qualité. ● Product Owner (DataOps) : Agir comme Product Owner pour l'offre de service DataOps (recensement des besoins, priorisation de la roadmap, facilitation de l'adoption). ● Maintenir : Suivre la consommation cloud et co-animer les actions FinOps.
Freelance

Mission freelance
Data analyst

Publiée le
SQL

12 mois
400-500 €
Paris, France
Télétravail partiel
Cherry pick est à la recherche d'un Data analyst pour l'un de ses clients dans le secteur de l'énergie. 🎯 Objectifs de la mission Travailler en collaboration directe avec le Data Lead TGP , les BPO , les Data Domain Owners et les équipes achats afin de : Développer et maintenir le backlog des cas d’usage Data Quality . Paramétrer l’outil Tale of Data pour identifier les anomalies, rapprocher les données provenant de différents systèmes achats et produire les outputs attendus. Suivre et améliorer en continu le niveau de qualité des données à l’aide d’indicateurs fiables et automatisés. Accompagner les équipes dans la conduite et le pilotage des campagnes de nettoyage . Être force de proposition sur l’amélioration des processus, formats et traitements des données. 📌 Responsabilités & Livrables attendus 1. Gestion des cas d’usage Data Quality Identifier et co-construire les cas d’usage avec les BPO et Data Domain Owners. Maintenir et prioriser le backlog (nouveaux besoins, évolutions, corrections). 2. Paramétrage de l’outil Tale of Data Configurer les règles de contrôle qualité (contrôles automatiques, seuils, business rules). Réaliser les rapprochements de données entre les différents outils achats. Produire les livrables opérationnels : listes d’erreurs, fichiers de référentiels, exports de données, emails d’alertes automatiques. 3. Production de KPI Data Quality Définir et documenter les indicateurs de qualité par périmètre. Construire des dashboards permettant le suivi régulier de la qualité des données. 4. Support aux campagnes de nettoyage Préparation et communication des jeux de données à nettoyer. Suivi de l’avancement et relances auprès des équipes concernées. Consolidation des résultats et reporting. 5. Amélioration continue & Expertise Recommander des améliorations sur la structuration des données, les processus de traitement ou la gouvernance. Proposer des optimisations sur l’utilisation de l’outil Tale of Data.
Freelance

Mission freelance
Data Analyst & Enabler / SQL /Python / Outils de BI / Tableau Software (H/F)

Publiée le
Data analysis
ETL (Extract-transform-load)
Python

6 mois
460-550 €
Villeurbanne, Auvergne-Rhône-Alpes
Télétravail partiel
Nous sommes à la recherche d'un Consultant Data Analyst & Enabler pour rejoindre l’équipe agile Data Platform de notre client grand compte dans le domaine de l'Energie. Vous aurez pour mission principale : d'être en appui sur la construction de produits data (développements BI, requêtage SQL, scripts Python), d'animer la communauté des utilisateurs BI/Self-service, de piloter des projets data spécifiques pour garantir leur livraison et leur adoption. Vous jouerez un rôle clé pour fluidifier l'usage de la donnée par les métiers, garantir la qualité des livrables techniques et accélérer l'autonomie des analystes via le Self-Service. Missions : Construction de Produits Data (Build) : Conception & Développement : Prendre en charge la réalisation de produits data concrets : création de tableaux de bord complexes (BI), écriture et optimisation de requêtes SQL pour l'analyse, et développement de scripts Python pour des traitements de données spécifiques. Qualité & Recette : Assurer les tests et la validation technique des produits développés avant leur mise à disposition aux métiers. Maintenance : Assurer le maintien en condition opérationnelle des rapports et scripts déployés. Animation de Communauté & SelfService Support & Formation : Animer la communauté des utilisateurs selfservice de la plateforme (en self-BI via l’outil Tableau, en SQL etc.). Accompagner les analystes métier dans leur montée en compétence. Communication : Être le point de contact privilégié pour les questions d'usage et les bonnes pratiques de la plateforme. Adoption : Promouvoir les nouveaux outils et datasets auprès des utilisateurs finaux. S’assurer qu’ils appliquent les bonnes pratiques d’optimisation des requêtes Pilotage de projets : Gestion de Projet : Piloter des projets data de bout en bout (cadrage, suivi, livraison) en respectant les contraintes de coûts et délais. Backlog & Spécifications : Collaborer étroitement avec le product owner et l’équipe data platform performance énergétique pour mettre en place les fonctionnalités et produits nécessaires à la communauté
Freelance

Mission freelance
Data Manager/PMO

Publiée le
Gestion des risques
SQL
Transformation digitale

3 mois
450-500 €
Malakoff, Île-de-France
Télétravail partiel
Type de prestation : Data Manager / PMO Lieu de la mission : Malakoff (92) Durée de la prestation : 3 mois renouvelable TJM : 500€ Expériences : minimum 5 années Date de démarrage : 05/01/2026 Date limite de réponse: 15/12/2025 Anglais courant Merci de donner le nom, le prénom du consultant et de fournir un CV en anglais. Missions description : •Identifié(e) comme acteur(trice) transversal(e) dans la gouvernance du programme de transformation, il/elle représente les données au sein de tous les comités de cette gouvernance. • Garantit que chaque décision prise dans le cadre de cette gouvernance est étayée par des indicateurs quantifiés et mesurés. • Accompagne le changement par une pédagogie adaptée à tous les acteurs du programme, afin que les données soient considérées comme un élément essentiel de leur activité. • Met en œuvre l'approche « données dès la conception ». Pour chaque nouvelle fonctionnalité ou nouveau processus : définition des indicateurs clés de performance (KPI) pour son suivi et son pilotage ; définition des données à collecter tout au long du processus afin de garantir la faisabilité de la mise en œuvre de ces KPI ; définition et mesure du niveau de qualité des données requis et identification des risques liés à une qualité insuffisante. • Accompagne les responsables de la gestion des données (GPO et LPO) afin d'harmoniser les définitions et de permettre les comparaisons entre pays ou équipes (définition des KPI, de leurs valeurs cibles et des critères de comparaison). • Accompagne et intègre les utilisateurs lors du déploiement de nouveaux processus ou dans de nouveaux pays. • Apporte un soutien aux utilisateurs dans la gestion opérationnelle du processus grâce aux indicateurs clés de performance (KPI) définis et mis en œuvre. Livrables attendus : - Fournir les flux automatisés d’extraction et d’ingestion, ainsi que les couches de curation et d’accès aux données. - Fournir les rapports de type cube et Power BI. - Fournir la documentation relative à la mise en œuvre du processus.
CDI

Offre d'emploi
Développeur Python – Automatisation

Publiée le
Apache Airflow
CI/CD
Docker

40k-45k €
Île-de-France, France
Télétravail partiel
En tant que Développeur Python spécialisé en automatisation, vous interviendrez sur la conception, le développement et l’optimisation de scripts et d’outils destinés à automatiser les processus internes. Vous contribuerez à réduire les tâches manuelles répétitives, améliorer la fiabilité opérationnelle et accélérer les workflows techniques et métiers. Vous travaillerez en collaboration directe avec les équipes techniques (Ops, Data, Infrastructure) pour identifier les besoins, proposer des solutions innovantes et garantir la performance des outils développés.
Freelance
CDI

Offre d'emploi
Business Analyst Data Management - Nantes

Publiée le
Business Analyst
Data management
JIRA

1 an
40k-45k €
400-550 €
Nantes, Pays de la Loire
Nous recherchons un consulant(e) Business Analyste Data confirmé(e) pour intervenir chez notre client dans le secteur bancaire à Nantes. Informations sur la mission Tâches Recueil et analyse des besoins Déclinaison des besoins en récits Préparation des supports Animation des ateliers avec différents interlocuteurs (pôle utilisateur / pôle produit...) Embarquement sur les données essentielles Gestion du run Communication sur les produits Attendu : Qualité des récits Adapatabilité du discours en de l'interlocuteur Transcription claire pour la fabrication des besoins collectées Ecoute active Sens des responsabilité
Freelance

Mission freelance
Data Scientist

Publiée le
API
autonomie
Python

12 mois
Hauts-de-Seine, France
Télétravail partiel
Poste : Data Scientist Senior (>5 ans d’expérience) Objectif : Renforcer une équipe dédiée à la modélisation mathématique, intervenant sur l’optimisation, la simulation, l’analyse de performance, le développement de modèles et outils applicatifs dans un environnement multi-application. Responsabilités principales : Encadrement & supervision : Accompagner un Data Scientist junior, définir les standards méthodologiques, valider approches et modèles, garantir la cohérence des travaux. Développement & modélisation : Développer en Python, créer des APIs, intégrer des modèles, manipuler équations mathématiques, utiliser la librairie HiGHS pour l’optimisation (contraintes, optimisations linéaires/mixte). Contrôle qualité & validation : Revoir le code, auditer l’architecture, vérifier la cohérence des données, valider la robustesse des modèles, challenger les résultats, approuver les livrables. Expertise & conseil : Apporter une expertise sur la modélisation, faire des recommandations méthodologiques, effectuer une veille technologique, capitaliser les bonnes pratiques. Communication & coordination : Présenter les validations, faire le lien entre équipes techniques et direction, participer aux réunions, documenter les processus, contribuer à la montée en compétences du junior. Compétences requises : Maîtrise avancée de Python (APIs, librairies, équations) Maîtrise du solveur HiGHS ou équivalent pour l’optimisation linéaire/quadratique Solide background en mathématiques, physique, modélisation et statistiques Capacité à gérer plusieurs modèles simultanément Excellentes compétences en communication, forte autonomie, posture de référent Compétences appréciées : Expérience avec des modèles mathématiques à grande échelle Aisance en revue méthodologique et cadrage scientifique Aucune connaissance métier spécifique nécessaire
2716 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous