Trouvez votre prochaine mission.

Votre recherche renvoie 580 résultats.
Freelance
CDI

Offre d'emploi
Observability Expert

Ela Technology
Publiée le
Azure
Grafana

3 ans
40k-65k €
400-660 €
Paris, France
I. Contexte : Notre département IT souhaite mettre en place et animer une Communauté de Pratique dédiée à l’observabilité et à la supervision de nos applications métiers. En tant qu’expert Observabilité/Supervision, vous serez chargé de définir et mettre en œuvre une stratégie d’observabilité complète (monitoring, logs, alerting, tracing) afin de garantir une visibilité en temps réel sur l’état de santé, les performances et le comportement de nos applications. Ces solutions permettront une détection proactive des incidents, un diagnostic rapide des problèmes et assureront la disponibilité de nos services critiques. L’environnement applicatif est hybride, composé de solutions cloud (D365, Power Apps, services Azure, Data product Fabric) et d’applications hébergées on-premise sur serveurs Windows (sites web, serveurs IIS, etc.). II. Missions : · Référent technique pour contribuer à la construction et à l’implémentation des composants de supervision et des pipelines d’observabilité · Fournir une expertise et, si nécessaire, participer à la conception, l’intégration et le déploiement des solutions de supervision (dashboards, collecte de logs, tracing, détection d’anomalies basée sur l’IA, etc.) · Collaborer avec les équipes de développement, d’exploitation et de sécurité pour intégrer les outils et pratiques d’observabilité dans les pipelines CI/CD · Apporter son expertise lors des incidents et des analyses de causes racines. · Identifier les besoins spécifiques de chaque équipe et définir des plans d’accompagnement. · Développer et maintenir des tableaux de bord et rapports pour visualiser les performances applicatives · Analyser et interpréter les métriques pour identifier les tendances et détecter les problèmes de manière proactive · Définir la gouvernance, les règles de fonctionnement et les objectifs de la Communauté. · Mettre en place des outils collaboratifs (wiki, canaux Teams) · Organiser et animer des sessions de la communauté · Favoriser les échanges inter-équipes et le partage de connaissances · Co-construire des standards techniques et des guidelines avec les équipes · Rédiger des guides de bonnes pratiques et de la documentation technique · Assurer une veille active sur les technologies et pratiques d’observabilité · Évaluer et tester de nouveaux outils du marché · Proposer des POC et des expérimentations innovantes.
Freelance

Mission freelance
Profile LOOKER LOOKML Anglais

SEDONA SVP
Publiée le
Looker Studio

1 an
400-600 €
Clichy, Île-de-France
En tant que Senior Analytics Engineer , vous rejoindrez l’équipe de transformation financière du groupe afin de piloter le développement de la « dernière étape » des produits data. Il s’agit d’un poste hautement technique, orienté développement, conçu pour un expert qui considère la donnée comme du code. Vous serez responsable de transformer des conceptions financières complexes, définies par les Business Product Owners, en produits performants, scalables et sécurisés. Vous évoluerez dans un environnement multi-projets, nécessitant une grande rigueur technique ainsi qu’une capacité à communiquer efficacement avec les équipes data engineering et les parties prenantes métiers dans un contexte corporate finance à l’échelle du groupe. Vous n’êtes pas simplement une personne « data » qui construit des dashboards : vous êtes un Software Engineer dont l’application principale est la donnée. Responsabilités principales Analytics Engineering avancé : Construire et optimiser la couche sémantique en utilisant LookML à un niveau expert. Concevoir des modèles BigQuery comme sources de données Looker en appliquant les principes du Software Engineering : modularité, réutilisabilité et maintenabilité. Exécution & qualité : Transformer les spécifications en produits data robustes, garantissant des performances élevées, une optimisation des coûts et le respect des meilleures pratiques architecturales à long terme. Solutions embarquées & API : Concevoir l’intégration de Looker dans des applications web via les API/SDK Looker, en faisant le lien entre la donnée et des interfaces UI personnalisées. Sécurité & gouvernance : Comprendre les protocoles et concepts de sécurité (RLS, OLS, mapping des attributs utilisateurs) afin de traiter des données financières sensibles sur différents périmètres. Gestion multi-projets : Piloter plusieurs flux de travail simultanément en assurant des livraisons dans les délais et une communication proactive sur les blocages techniques ou choix architecturaux. Expérience Full-Stack (bonus) : Supporter le modèle « Analytics-as-a-Service » en utilisant Python pour la logique backend et React/HTML/CSS pour des expériences analytiques front-end sur mesure. Philosophie “Software First” : Comprendre le contrôle de version, ne pas seulement utiliser Git. Maîtriser les principes CI/CD, DRY, l’approche atomic design. Prioriser la maintenabilité plutôt que les « quick wins ». Savoir dire non aux solutions rapides mais non durables. Concevoir avec une vision long terme. Esprit innovant : Être un ambassadeur de l’IA et améliorer l’efficacité. Utiliser de manière proactive des outils GenAI (ex : Claude Code/Gemini, Copilot) pour accélérer l’écriture de code, l’optimisation SQL et la documentation automatisée, tout en gardant à l’esprit comment les LLMs pourront être intégrés dans les futurs produits data. Profil et compétences requises Formation : Diplôme de niveau Master en informatique, Data Engineering ou domaine technique équivalent. Une base solide orientée développement est indispensable. Expérience professionnelle : Minimum 5 ans d’expérience en Analytics Engineering ou Data Development, idéalement dans des environnements grands groupes avec des écosystèmes data complexes. Stack technique principal Looker : Maîtrise experte de LookML (approche modulaire via refinements et extends), connaissance des API Looker, maîtrise des architectures sémantiques. GCP / BigQuery : Expertise SQL avancée, optimisation performance/coûts et principes de modélisation des données. Les “plus” Développement web : Bonne maîtrise de Python et React fortement appréciée. Des bases solides en HTML/CSS sont requises pour des dashboards personnalisés et intégrations web. PowerBI : Expérience PowerBI est un atout important. Soft skills Communication : Capacité à expliquer des concepts techniques à des partenaires métiers en anglais et en français. Autonomie : Excellentes compétences en gestion du temps pour mener plusieurs projets et gérer différents interlocuteurs. Exigence qualité : Approche rigoureuse sur Git, les tests et la documentation. Présence & collaboration Localisation : Poste basé à Clichy. Rythme hybride : 3 jours par semaine sur site afin d’assurer une collaboration étroite avec les équipes métier ainsi que l’équipe centrale Analytics & AI Engineering.
Freelance
CDI
CDD

Offre d'emploi
Tech Lead .NET / Python

LEVUP
Publiée le
.NET
Python

12 mois
Bruxelles, Bruxelles-Capitale, Belgique
Nous recherchons un Tech Lead .NET/Python pour intégrer une feature team end-to-end , totalement autonome, responsable de l’ensemble du cycle de vie applicatif. L’environnement est moderne, peu de legacy, avec de nombreux environnements de pré-production et une forte culture DevOps . Missions En tant que Tech Lead , vous interviendrez sur l’ensemble de la chaîne de valeur : Technique & Architecture Concevoir et faire évoluer l’architecture applicative et technique Être référent technique de la feature team Participer activement au design , au développement backend (90%), aux tests et aux releases Garantir la qualité du code (revues, bonnes pratiques, standards) Développement & Qualité Développement backend en .NET et Python Mise en place et maintien des tests unitaires , tests d’intégration et tests de régression Participation aux phases de release (possibilité de rôle de Release Manager ) DevOps & Infrastructure Gestion complète de l’infrastructure sur Azure Kubernetes Service (AKS) Administration et exploitation des clusters Kubernetes Mise en place et maintien des pipelines CI/CD Supervision et monitoring via Splunk Gestion des environnements (pré-prod, prod, etc.) Systèmes distribués Travail sur des architectures distribuées Utilisation de RabbitMQ et Kafka Gestion des bases de données MongoDB Support & Exploitation Participation au support applicatif 24/7 Astreintes ponctuelles (charge maîtrisée) Analyse et résolution d’incidents en production Fonctionnel & Collaboration Capacité à comprendre les besoins fonctionnels et métiers Une connaissance des marchés financiers est appréciée Interaction directe avec les parties prenantes (pas d’équipe de Business Analysts) Aller chercher l’information et proposer des solutions adaptées Être force de proposition et acteur du changement Profil recherchéCompétences techniques Expérience confirmée en tant que Développeur Backend , Tech Lead ou Architecte Très bonne maîtrise de .NET et/ou Python Solide expérience en Kubernetes / AKS Bonne connaissance des architectures distribuées Expérience avec RabbitMQ , Kafka , MongoDB Maîtrise des pratiques CI/CD , monitoring et observabilité Toute expérience en IA / AI est un plus Soft skills Très forte autonomie Profil hands-on , orienté action Capacité à prendre des décisions techniques Sens des responsabilités (ownership total) Bon niveau de communication Esprit pragmatique et orienté solution Environnement & Avantages Feature team 100 % autonome (end-to-end) Stack moderne et évolutive Nombreux environnements de pré-production Forte liberté technique Télétravail flexible (2 jours sur site)
Freelance

Mission freelance
[FBO] Data Engineer Expert Elastic Search (5 années d'expérience) - Guyancourt - 1178

ISUPPLIER
Publiée le

5 mois
450-525 €
Guyancourt, Île-de-France
Confirmé (Au moins 5 ans d’expérience) Secteur : Bancaire La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l’essor de nos infrastructures et l’évolution des technologies associées, ou encore l’automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l’organisation du client et de ses Clients (équipes applicatives et socles multiples et dispersées). Prenant en compte ce cadre, vos missions seront plus spécifiquement : - Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source) Attendus. Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l’entreprise (flux : collecte, traitement, stockage et leur cycle de vie) - Rédiger les documents fonctionnels et techniques, d’exploitation, en veillant au respect des normes existantes - Mettre en œuvre en mode DevOps (CI/CD) - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles de l’entreprise pour prise en compte des flux de données - Développer les cas d’usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs Compétences requises - Connaissances en infrastructure : réseau / système - Connaissance indispensable en SGBD et langage de requêtage - Connaissance forte en streaming - Architecture d’Entreprise, plus particulièrement en base de données, flux de données - Conception et mise en place de solution de stockage et ingestion de données - Méthodologie Agile / DevOps, maitrise des outils associés - Gouvernance de la donnée - Maitrise de divers langages de programmation (Java/Python) - Anglais
580 résultats

Contrats
1

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous