Trouvez votre prochaine offre d’emploi ou de mission freelance Elasticsearch à Paris

Mission freelance
Développeur(euse) Expert(e) - Java 8 à 11 et Migration Elasticsearch
Développeur (euse) Expert(e) Elastic Search / Java CONTEXTE Au sein d'un domaine Front Web, la mission consiste à assister dans le développement la montée de version ElasticSearch au sein d'une application vente. Cette application à comme objectifs: • Les données « produits » sont enregistrées dans un cluster Elastic • Les données sont utilisées par différentes applications pour la recherche et l'affichage des informations produits sur une market place • D'être hautement disponible avec des performances idéales DESCRIPTION DE LA MISSION - Opérer la montée de version d'Elasticsearch actuellement en version 6 pour passer sur une version 8 latest dans un contexte fonctionnel riche - Participer aux développements à venir ENVIRONNEMENT TECHNIQUE - Java 8 - Elastic search 6+ - Framework Dropwizard -Application haute disponibilité, haute performance

Mission freelance
Product Owner Data (H/F)
Freelance / Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Paris 8 - 🛠 Expérience de 5 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Product Owner Data pour intervenir chez un de nos clients dans le secteur bancaire & assurance. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Piloter le backlog Data et définir la vision produit autour des flux de données, de la recherche et de la visualisation. - Recueillir les besoins métiers liés à la collecte, l’analyse et la restitution des données. - Prioriser le backlog en fonction de la valeur métier et des contraintes techniques. - Rédiger les user stories et collaborer étroitement avec les Data Engineers et DevOps. - Piloter les développements et intégrations sur Apache NiFi, Grafana et Elasticsearch. - Valider les livrables : pipelines NiFi, dashboards Grafana, index Elasticsearch. - Animer les cérémonies agiles : Daily, Sprint planning, Sprint demo, rétrospectives. - Assurer la qualité des données et la performance des flux. - Suivre les KPI clés : latence, disponibilité, pertinence des recherches. - Collaborer avec les équipes interfonctionnelles (ingénieurs logiciels, architectes, analystes).

Mission freelance
Product Owner Data (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Product Owner Data (H/F) à Paris, France. Contexte : Dans le cadre de la transformation data, vous interviendrez au sein de l'équipe Data dans un environnement agile pour apporter votre expertise en tant que Product Owner Data. Vous êtes en charge de piloter le développement et l’évolution des produits data liés à la collecte, la transformation, la visualisation et la recherche de données, en s’appuyant sur les technologies Apache NiFi, Grafana et Elasticsearch. Le PO Data est garant de la valeur métier apportée par les flux de données et les outils d’observabilité. Les missions attendues par le Product Owner Data (H/F) : Tâches : Piloter le backlog Data autour des technologies de la plateforme data. Définir la vision produit autour des flux de données, de la recherche et de la visualisation. Recueillir les besoins métiers liés à la collecte, l’analyse et la restitution des données. Prioriser le backlog en fonction de la valeur métier et des contraintes techniques. Rédiger les user stories pour les équipes techniques (Data Engineers, DevOps). Piloter les développements et les intégrations sur NiFi, Grafana et Elasticsearch. Valider les livrables : pipelines NiFi, dashboards Grafana, index Elasticsearch. Piloter les cérémonies agiles : Daily, Sprint planning, Sprint déma, Sprint rétrospectives. Assurer la qualité des données et la performance des flux. Suivre les indicateurs clés : latence des flux, disponibilité des dashboards, pertinence des recherches. Collaboration : Collaborer avec les équipes interfonctionnelles, notamment les ingénieurs logiciels, les architectes de données et les analystes, pour comprendre les exigences métier et assurer une intégration harmonieuse des pipelines de données. Bonne connaissance des architectures data distribuées. Idéalement connaissance des outils : Apache NiFi : orchestration de flux, gestion des processeurs, monitoring. Grafana : création de dashboards, alerting, intégration avec Prometheus ou Elasticsearch. Elasticsearch : indexation, requêtage, mapping, performance. Capacité à travailler en mode Agile / Scrum. Sens de l’analyse, rigueur, orientation valeur métier.

Mission freelance
Product Owner _ Data
Nous sommes à la recherche pour l'un de nos clients dans le domaine de l'assurance d'un Product Owner sur des projets DATA : Tâches : - Piloter le backlog Data autour des technologies de la plateforme data - Définir la vision produit autour des flux de données, de la recherche et de la visualisation. - Recueillir les besoins métiers liés à la collecte, l’analyse et la restitution des données. - Prioriser le backlog en fonction de la valeur métier et des contraintes techniques. - Rédiger les user stories pour les équipes techniques (Data Engineers, DevOps). - Piloter les développements et les intégrations sur NiFi, Grafana et Elasticsearch. - Valider les livrables : pipelines NiFi, dashboards Grafana, index Elasticsearch. - Piloter les cérémonies agiles : Daily, Sprint planning, Sprint déma, Sprint rétrospectives - Assurer la qualité des données et la performance des flux. - Suivre les indicateurs clés : latence des flux, disponibilité des dashboards, pertinence des recherches. -Collaboration : Collaborer avec les équipes interfonctionnelles, notamment les ingénieurs logiciels, les architectes de données et les analystes, pour comprendre les exigences métier et assurer une intégration harmonieuse des pipelines de données.

Mission freelance
Expert ELK (h/f)
emagine recherche un Expert ELK (Elasticsearch, Logstash, Kibana) Missions principales : Administration et configuration de la plateforme ELK. Développement de pipelines d’ingestion et scripts d’indexation. Création de dashboards et mise en place d’alertes. Contributions à la roadmap d’observabilité (études, architecture…). Participation aux opérations de maintenance et d’évolution des environnements Linux/Cloud. Automatisation & déploiement. Profil recherché : Solide expertise ELK (ops + développement). Expérience en environnement Linux et Azure. Connaissance des outils d’automatisation (Terraform, Puppet, Git). Sensibilité aux enjeux d’observabilité et monitoring global. Anglais courant (environnement international).

Mission freelance
Intégrateur d'applications en production
Pour l'un de nos clients situé à Paris, nous recherchons un(e) intégrateur d'application en production une couche Sysops Kubernetes / Docker et très à l'aise sur les serveurs d'applications Tomcat et Apache et qui connaisse également HAPROXY/ ELASTICSEARCH et VTOM. La mission : - Administrer les applications côté production - Bonne maîtrise de Kubernetes (analyse des configurations, modification de fichiers), - Elasticsearch : remonter des logs Elasticsearch, analyser et régler les problèmes de performance Les livrables sont - Fiches de consigne et d'exploitation - Scripts d'administrations et de supervision - Chaînes VTOM Description détaillée Transfert en production des applications - Assurer l'évolution et la maintenance des procédures d'exploitation - Assurer le support aux mises en production - Fabriquer les sondes de supervision dans centreon - Planifier les traitements et plans de production dans l'ordonnanceur (VTOM) Support aux utilisateurs - Assurer un support technique et fonctionnel aux utilisateurs. - Intervenir rapidement lors des incidents d'exploitation (analyse, diagnostic et résolution). - Assurer le support dans la gestion des problèmes. - Assurer l'assistance technique dans les plages de services non ouvrées. ( astreintes ) Définition des procédures d'exploitation - Élaborer et diffuser des procédures d'exploitation - Rédiger les fiches de consignes de supervision pour les équipes de pilotage - Définir les normes d'exploitation des environnements - Mettre en place des tableaux de bord de suivi des performances

Offre d'emploi
Big Data Engineer
Environnement Technique : Tous composants de la distribution HDP 2.6.5 (Hortonworks) Tous composants de la distribution HDP 3.1.x (Hortonworks) Technologie KAFKA Compétences de développements en Shell, Java, Python Moteur Elasticsearch incluant les fonctionnalités soumises à licence Docker, Kubernetes, système distribué sur Kubernetes Infrastructure as Code DevOps : Ansible, Git, Nexus, Jenkins, JIRA, etc... Os Linux, Kerberos, SSL, Ldap, RDBMS, SQL Mandatory : Tous les composants des distributions Hadoop Tous les composants de la suite Elasticsearch : Kibana, Logstash, suite beats Administration de composants big data

Mission freelance
DBA orienté devops (Ansible, gitlab CI)
Dans le cadre de la modernisation et de l’optimisation d’un système d’information complexe, Notre client, une organisation du secteur culturel et technologique recherche un Ingénieur DevOps / DBA pour renforcer son équipe IT. La mission consiste à : Administrer, exploiter et optimiser les bases de données (PostgreSQL, Vertica, MariaDB, Oracle). Mettre en place et maintenir des environnements Cloud (AWS) et on-premises. Participer au maintien en conditions opérationnelles (MCO) et au Run . Développer et automatiser l’infrastructure (Infrastructure as Code). Garantir la supervision, la sécurité, la haute disponibilité et la continuité de service. Accompagner la montée en compétences des équipes internes et assurer le respect des normes. Stack technique Bases de données : PostgreSQL, Vertica, MariaDB, Oracle 11g/19c Outils DevOps : Docker, Ansible, Git, Terraform, ElasticSearch, Kibana Systèmes & Réseaux : Linux, Réseaux Cloud : AWS (IAM, CloudWatch, CloudTrail, S3, EC2, services Core) Méthodologies : Cycle en V et Agile (Scrum, Kanban

Mission freelance
senior fullstack developper
Vos principales missions seront les suivantes : Participer à la définition d’architecture micro-services Participer à la conception et au développement d’API pérennes et sécurisées pour le développement d’un ERP international L’apport d’expertise sur des sujets relatifs à la sécurité, la conception d’API, la définition de best practices, la réalisation de tests Intervenir sur le développement et l’intégration Front des applications web et mobiles Le support au déploiement des solutions La rédaction des documents de référence (bestpractices) Organisation Agile avec un framework Scrum LeSS : plus d’informations à ce sujet dans l’onglet ‘’ de notre vitrine Voici le détail de notre écosystème à titre informatif (vous ne travaillerez pas sur tout) : Back-End : • Node.js •TypeScript • Express.js • Nest.js • API REST • GraphQL • Jest • MongoDB • Mongoose • PostgreSQL • Elasticsearch • RabbitMQ • Message Brokers • Redis Front-End : • React.js • Vite • Webpack • HTML/CSS • Final Form • Expo • Storybook • ReactHooks • Cypress Infrastructure • AWS • Docker • Gitlab • Datadog • Terraform • Temporal Gestion de projet : • JIRA • Confluence Autres outils : • Slack • Invision • Notion

Offre d'emploi
Expert·e Systèmes Linux (CDI)
Dans le cadre de recrutement sur profils ou sur missions et à l'intention de nos clients grands comptes du CAC40, BLUE SOFT Cloud Infrastructure recherche plusieurs profils aussi bien confirmés qu'Architecte sur les systèmes Linux. Vous serez amené·e à réaliser les activités suivantes : - Mettre en oeuvre et supporter les infrastructures de déploiement Linux - Gérer la haute disponibilité - Participer à la standardisation et à l'industrialisation des environnements Linux - Participer aux optimisations des environnements serveurs opérés - Administrer, exploiter et maintenir en conditions opérationnelles les infrastructures - Support N3 et éventuellement des astreintes (suivant mission/client) - Maitriser le scripting en environnement SHELL - Qualifier les évolutions technologiques sur les environnements Linux (changement de versions, patchs) - Automatiser les tâches et processus (scripting, Ansible) - Rédiger les documentations techniques (documents d'architecture ou d'exploitation...) Vous êtes familier des processus ITIL et du respect des engagements dans le cadre de KPI/SLA. Environnement technique : - OS : Linux RHEL - Cluster Veritas, GPFS - Automatisation : Scripting (shell, python), Ansible - Nice to have : RedHat Satellite, Elasticsearch
Mission freelance
[MDO] ML Engineering /IA (Min 8 XP)
Contexte : Dans le cadre du plan stratégique du Groupe BNP Paribas, Growth, Technology, Sustainability le Groupe joue un rôle clé dans la modernisation des Systèmes d'Information et l'accélération de la digitalisation. Pour répondre aux défis de l'innovation et de la sécurité, a été créé le département AI & IT Innovation, chargé de libérer le plein potentiel de l'Intelligence Artificielle pour le Groupe. Le département est composé de six équipes : • L'équipe Innovation Exposition crée et maintient des plateformes d'innovation destinées aux lancements des Proof of Concept (POC) exprimés par les Métiers et les Fonctions. • L'équipe Innovation Factory intervient en support des Métiers et des Fonctions pour accélérer les projets fonctionnels et garantir la bonne gestion et la mutualisation des données. • L'équipe APEX expose les produits autour des solutions collaboratives et assure leur déploiement dans l'ensemble du Groupe. • L’équipe Smart Auto Factory crée et maintient les plateformes nécessaires pour promouvoir et acculturer l'utilisation du RPA, de l’Intelligent Document Processing et du Process Mining tout en maintenant les plates-formes correspondantes. • L’équipe Data Analytics and Management Platforms fournit des plates-formes pour l'analyse, la préparation et la visualisation des données, en soutenant le story-telling et une organisation orientée données. • Le Centre de Compétence en IA (AICC) est chargé de développer et de maintenir les compétences en Intelligence Artificielle. Responsabilités : • Conception et développement des modèles de Machine Learning et Deep Learning adaptés aux besoins métiers. • Mise en place des pipelines d’entraînement et de déploiement robustes et scalables. • Optimisation et industrialisation des modèles en intégrant les meilleures pratiques de MLOps. • Garanti de la qualité, la frugalité et la conformité des modèles développés. • Collaboration avec les équipes de recherche et développement pour intégration des avancées en IA dans les systèmes existants. • Communication et collaboration avec les autres départements et équipes du groupe pour promouvoir l'utilisation de l'IA. Technologies : • Maîtrise des langages et frameworks IA/ML : o Python, Rust, Julia (langages pour IA et performance computationnelle). o Frameworks ML/DL : TensorFlow, PyTorch, Hugging Face Transformers. o Libraries pour le fine-tuning et l’optimisation : PEFT, LoRA, QLoRA, DeepSpeed. • Expérience en NLP et modèles génératifs : o LLMs et agents IA : LLaMA, GPT, Mistral, Mixtral. o Frameworks d’intégration : LangChain, LlamaIndex, Haystack, DSPy. o Orchestration d’agents : CrewAI, AutoGen, AgentGPT. o Recherche d’informations augmentée (RAG) : Elasticsearch, OpenSearch, FAISS, Weaviate. • Compétences en MLOps et industrialisation : o CI/CD pour IA : MLflow, DVC, Kubeflow. o Versioning et déploiement de modèles : ONNX. o Monitoring et observabilité : WhyLabs, Arize AI, Prometheus pour l'IA Vous travaillerez en étroite collaboration avec les équipes Data Science, IT et métiers afin d'industrialiser les solutions d'intelligence artificielle et d'assurer leur performance en production. Missions clés : 1. Conception et entraînemen des modèles IA • Sélection des algorithmes adaptés (ML/DL) • Préparation des données d'entraînement • Optimisation des performances des modèles 2. Mise en production des solutions IA • Intégration des modèles dans des applications ou services • Déployement via des pipelines MLOps (CI/CD, monitoring, versioning) 3. Collaboration avec les équipes métiers et techniques • Comprehension des besoins fonctionnels • Traduction des cas d’usage en solutions IA concrètes 4. Garanti de la qualité et de l’éthique des modèles • Évalution des biais, de la robustesse et de la transparence • Documentation des choix techniques et des limites 5. Veille technologique et amélioration continue • Suivi des évolutions en IA (modèles, frameworks, outils) • Testage de nouvelles approches ou architectures

Mission freelance
Développeur.se fullstack PYthon fastapi & angular
Démarrage courant septembre-octobre 3jours de remote par semaine Responsabilités •Concevoir, développer et maintenir des API REST. •Assurer la performance, la sécurité et la scalabilité des applications backend. •Collaborer avec le DevOps pour assurer une livraison continue des fonctionnalités. •Implémenter et maintenir des tests unitaires, d’intégration et fonctionnels. •Participer aux revues de code et garantir la qualité du code selon les bonnes pratiques. •Documenter les processus techniques et les API développées. -Développeur fullstack Python / Angular : ▪TMA -Développements des corrections et évolutions technico-fonctionnelles sur les produits en responsabilité du service ▪Projets-Développements des US sur la base des spécifications technico-fonctionnelles mises à disposition ▪Développements des tests unitaires inhérents ▪Rédaction des documentations techniques ▪Participation aux codes reviews d’équipesCompétences attendues : • Bonne maitrise des langages : o Back : Python 3+ (fastapi, aiohttp, aioredis, aiopika...) => doit savoirdévelopperen Python, pas uniquement développer dans un framework ▪Types de composants : WS / Workers / Consumers / Endpoints / Scripts/ Schedulers... ▪Notions : Async / Thread / Gestion exceptionsOu équivalent JAVA mais souhaitant basculer sur python. o Front : Angular / AngularJS / Javascript / Typescript • Bonne maitrise des bases de données (et requêtage associé) : o PosteGre / MySQLo Mongodb / Atlas Mongoo Rediso Elasticsearch • Maitrise des environnements d'intégration / déploiement continue (CICD) :o AKSo Blob Azureo Dockero GITo Jenkins • Maitrise des architectures micro-services • Maitrise des notions d'API http / OAUTH (JWT) / Cookie / Rate Limit

Mission freelance
Développeur fullstack Node/ React / Typescript
Descriptif du poste Dans le cadre de notre croissance, nous recherchons des Senior Full Stack Developers. Intégré(e) au sein d’une équipe de 5 à 7 Développeurs Fullstack, vous serez amené(e) à participer aux différentes phases d’un projet de la définition de la solution globale à l’architecture en passant par la conception d’API. Vos principales missions seront les suivantes : Participer à la définition d’architecture micro-services Participer à la conception et au développement d’API pérennes et sécurisées pour le développement d’un ERP international L’apport d’expertise sur des sujets relatifs à la sécurité, la conception d’API, la définition de best practices, la réalisation de tests Intervenir sur le développement et l’intégration Front des applications web et mobiles Le support au déploiement des solutions La rédaction des documents de référence (bestpractices) Organisation Agile avec un framework Scrum LeSS Back-End : • Node.js •TypeScript • Express.js • Nest.js • API REST • GraphQL • Jest • MongoDB • Mongoose • PostgreSQL • Elasticsearch • RabbitMQ • Message Brokers • Redis Front-End : • React.js • Vite • Webpack • HTML/CSS • Final Form • Expo • Storybook • ReactHooks • Cypress Infrastructure • AWS • Docker • Gitlab • Datadog • Terraform • Temporal Gestion de projet : • JIRA • Confluence Autres outils : • Slack • Invision • Notion
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Elasticsearch
Consultant·e décisionnel / Business Intelligence (PowerBI, SAS, Tableau...)
Le / La consultant·e décisionnel utilise Elasticsearch pour extraire et analyser des données complexes en temps réel, fournissant des tableaux de bord et des rapports décisionnels efficaces.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e décisionnel / Business Intelligence (PowerBI, SAS, Tableau...) .
Découvrir les offresData scientist
Le / La data scientist se sert d'Elasticsearch pour effectuer des recherches rapides sur des ensembles de données massifs et explorer des tendances cachées ou des informations exploitables.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresIngénieur·e d'études
L'ingénieur·e d'études utilise Elasticsearch pour mener des analyses approfondies et des recherches dans des volumes importants de données, permettant de générer des résultats précis et exploitables pour les projets de recherche.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e d'études .
Découvrir les offresIngénieur·e systèmes & réseaux
L'ingénieur·e systèmes et réseaux utilise Elasticsearch pour surveiller et analyser les journaux système en temps réel, optimisant la gestion des infrastructures et la sécurité.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offres