L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 332 résultats.
Mission freelance
Expert CyberArk
STHREE SAS pour HUXLEY
Publiée le
12 mois
600-750 €
France
Contexte : Contribuer à l'exécution du backlog produit PAM (améliorations du produit, nouveaux onboardings, capacités de reporting). Collaborer avec les équipes transverses pour garantir la qualité de service (QoS) de la plateforme PAM CyberArk. Description du service : Accompagner l'onboarding de nouvelles entités ou l'intégration de nouvelles applications. Participer au flux d'amélioration continue / d'évolution du produit. Livrables du service : Accompagnement des nouvelles entités lors de leur onboarding ou des nouvelles applications lors de leur intégration. Participation au flux d'amélioration du produit.
Mission freelance
Expert Observabilité Datadog
Cherry Pick
Publiée le
AWS Cloud
Datadog
Terraform
12 mois
550-650 €
Paris, France
Vos principales missions : 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques 2. Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog 3. Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : 1. Formation & expérience : Bac +5 (école d’ingénieur, université ou équivalent) en informatique Expérience confirmée (3 à 5 ans minimum) dans le domaine du monitoring, observabilité Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus 2. Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) 3. Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
Mission freelance
Expert Observabilité Datadog
Comet
Publiée le
AWS Cloud
Datadog
Grafana
12 mois
400-550 €
Île-de-France, France
Compétences techniques : Datadog - Expert - Impératif Cloud AWS - Confirmé - Important Prometheus/Grafana - Confirmé - Important Vos principales missions : Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
Offre d'emploi
Expert GenAI / Data Engineer GCP (Agentic AI)
xITed
Publiée le
Google Cloud Platform (GCP)
1 an
Île-de-France, France
Contexte de la mission Dans le cadre du développement de ses initiatives autour de l’Intelligence Artificielle Générative et de l’automatisation intelligente, un grand groupe international souhaite renforcer ses équipes Data & AI avec un Expert GenAI / Data Engineer . Le consultant interviendra sur la conception et l’industrialisation de solutions basées sur des modèles de langage (LLM) intégrés à une plateforme data cloud moderne reposant sur Google Cloud Platform (GCP) . Objectifs de la mission Concevoir et industrialiser des solutions d’IA générative à l’échelle Développer des architectures d’agents intelligents (Agentic AI) Intégrer les usages IA aux plateformes data existantes Garantir la robustesse, la performance et la scalabilité des solutions Participer aux choix d’architecture et aux bonnes pratiques techniques Missions principales IA Générative / Agentic AI Conception et développement d’agents basés sur des modèles LLM Mise en œuvre d’architectures RAG (Retrieval Augmented Generation) Orchestration de workflows IA multi-étapes Intégration d’APIs et outils externes Optimisation des performances et de la qualité des réponses IA Data Engineering Conception et optimisation de pipelines data (ETL / ELT) Ingestion et transformation de données volumineuses Exploitation de données structurées et non structurées Mise en place de standards de qualité et de gouvernance des données Architecture Cloud Design d’architectures AI end-to-end sur GCP Déploiement de services cloud-native Participation aux décisions techniques et à l’industrialisation Mise en production et amélioration continue des solutions Environnement technique Cloud & Data Google Cloud Platform (GCP) BigQuery Dataflow Cloud Storage Pub/Sub Cloud Run / Cloud Functions AI / GenAI Vertex AI LLM APIs LangChain / LangGraph / LlamaIndex (ou équivalent) Architectures RAG Vector databases Développement Python (expert) APIs REST Docker CI/CD Git Profil recherché Minimum 7 ans d’expérience en Data Engineering / Software Engineering Expérience confirmée sur environnement GCP Expérience concrète sur projets GenAI / LLM en production Bonne maîtrise des architectures cloud distribuées Capacité à intervenir sur des sujets d’architecture et d’industrialisation Anglais professionnel Compétences clés GenAI / Agentic AI Data Engineering avancé Architecture GCP Industrialisation AI Python avancé
Mission freelance
Développeur API - Expert Python / FastAPI
Codezys
Publiée le
Angular
API
Azure
12 mois
Paris, France
Principales missions Collaborer avec les équipes d'infrastructure en tant qu' expert en développement Python et FastAPI , pour concevoir, développer, et déployer des APIs de gestion des infrastructures. Participer à la migration vers des solutions cibles API et mettre en œuvre des mesures pour garantir la stabilité et la performance des services. Intégrer des outils DEVOPS tels que XLR, Jenkins, Bitbucket et Artifactory dans le processus de développement. Réaliser des tests unitaires et de non-régression pour assurer la qualité et la fiabilité des APIs développées. Contribuer à l' amélioration continue des pratiques de développement, notamment en matière de performance et de disponibilité. Ce que nous attendons de vous Nous recherchons des experts passionnés disposant d'une solide expérience en développement Python et FastAPI . La connaissance d'outils tel qu' Ansible et Angular sera considérée comme un plus. La maîtrise des concepts CI/CD et une sensibilité à la sécurité des développements sont essentielles. Vous devrez faire preuve d' adaptabilité et d' esprit collaboratif pour travailler efficacement avec diverses équipes. Une expertise approfondie en tests (unitaires, non-régression) et une approche orientée résultats seront fondamentales. Enfin, votre capacité à communiquer et à transmettre vos connaissances sera cruciale pour aider nos équipes à atteindre leur autonomie dans le développement d'APIs. Objectifs et livrables Réaliser des APIs permettant d'accéder aux services internes, tout en respectant les exigences de performance et de sécurité . Définir les nouvelles APIs en collaboration avec les équipes métiers et d'architecture . Développer et maintenir des APIs utilisant des technologies telles que Java, Maven, RAML, Anypoint . Créer les tests unitaires et d' intégration associés à chaque API. Déployer les APIs sur différents environnements , en assurant leur fiabilité et leur conformité aux normes en vigueur.
Mission freelance
EXPERT SAP PP
Freelance.com
Publiée le
MRP (Material Requirements Planning)
SAP
1 an
510-750 €
Réau, Île-de-France
Contexte Dans un environnement industriel exigeant, nous recherchons un expert SAP PP pour accompagner la gestion de la production et des stocks, optimiser les flux et fiabiliser les données nécessaires à la planification et à la prise de décision. Missions principales Gestion de la production & des stocks Paramétrer et exploiter le module SAP PP Piloter la production et les niveaux de stock Réaliser et fiabiliser le calcul des besoins nets (CBN / MRP) Garantir la cohérence entre les besoins de production et les capacités disponibles Cartographie & optimisation des flux Cartographier les stocks existants Analyser les flux actuels et définir les trajectoires cibles Proposer et accompagner la mise en œuvre d’optimisations opérationnelles Analyse & maîtrise de la donnée Analyser les données de production et de stock Mettre en qualité les données SAP (fiabilité, cohérence, traçabilité) Exploiter les données pour le pilotage de la performance industrielle Être référent sur la maîtrise technique de la donnée liée à la production Interface & accompagnement Collaborer étroitement avec les équipes production, supply chain, IT et méthodes Participer aux projets d’amélioration continue et d’évolution des outils Compétences techniques requises Excellente maîtrise de SAP PP Solide expérience en gestion de production et des stocks Très bonne connaissance du calcul des besoins nets (MRP) Forte capacité d’analyse de données industrielles Aisance avec les sujets de structuration et gouvernance de la donnée
Offre d'emploi
Data Steward / Référent Qualité et Gouvernance des Données
Enterprise Digital Resources Ltd
Publiée le
Data governance
Data Lake
PL/SQL
Paris, France
Data Steward / Référent Qualité et Gouvernance des Données. Rattaché(e) au Responsable équipe Data, vos missions s'articuleront autour des volets suivants : Gouvernance et gestion de la donnée Définir et maintenir les règles de gouvernance de données (standards, nomenclatures, référentiels). Assurer la gestion du data catalog et la documentation des jeux de données. Identifier les propriétaires de données ( data owners ) et coordonner les processus de validation. Qualité des données Mettre en place et suivre les indicateurs de qualité (complétude, exactitude, unicité, fraîcheur…). Gérer et suivre les incidents et anomalies de qualité. Proposer des plans d’amélioration et suivre leur mise en œuvre avec les équipes techniques et métiers. Sécurité et conformité Veiller au respect des règles RGPD, sécurité et conformité interne liées aux données. Participer aux analyses d’impacts (DPIA) et aux audits de conformité. Support et coordination métier Comprendre les besoins métiers et garantir l’adéquation entre les données disponibles et leur usage. Former et accompagner les utilisateurs sur les bonnes pratiques de gestion des données. Servir de point de contact entre l’équipe Data et les équipes métier.
Offre d'emploi
Data Scientist / Expert IA (H/F) expérimenté – Paris – PhD
Cogniwave dynamics
Publiée le
Agent IA
Artificial neural network (ANN)
AWS Cloud
5 ans
Paris, France
Nous recherchons un(e) Data Scientist / Expert IA disposant d’un doctorat (PhD) en Machine Learning / NLP ou domaine proche, pour rejoindre nos équipes à Paris au sein de projets à forte valeur ajoutée en intelligence artificielle appliquée. Profil PHD EXPERIMENTE ayant plusieurs expériences profesionnelles concrètes CDI de préférence (ouvert aux freelance pour certaines missions) Projets sur Paris, luxembourg ou Belgique Votre rôle Concevoir, développer et industrialiser des solutions d’IA (NLP, LLM, IA générative) au service de cas d’usage métiers concrets. Participer à la définition des architectures data/IA et aux choix technologiques associés (cloud, outils, librairies). Contribuer à la mise en production des modèles (qualité, performance, robustesse) en lien étroit avec les équipes produit et métier. Intervenir sur tout le cycle de vie des projets : cadrage, POC, expérimentation, déploiement, suivi et amélioration continue. Ce que nous offrons Des projets IA de pointe, avec un fort niveau d’autonomie et de responsabilité. Un environnement stimulant, à l’interface entre R&D, innovation et enjeux business. Un cadre parisien dynamique, au sein d’équipes passionnées par l’intelligence artificielle et son impact concret. 🗼
Offre d'emploi
Product Manager Expert Data / BI (/NB) F/H - Marketing (H/F)
█ █ █ █ █ █ █
Publiée le
Puteaux, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Consultant Fonctionnel SAP FI & Expert paiement H/F
Karma Partners
Publiée le
SAP FICO
6 mois
400-590 €
Île-de-France, France
ANGLAIS COURANT OBLIGATOIRE Le consultant pilotera et soutiendra les activités fonctionnelles et techniques liées à l'intégration d'un prestataire de services de paiement (PSP) au sein de l'écosystème de paiement et de comptabilité de l'organisation. Ce rôle englobe l'intégration de bout en bout du flux de paiement, l'harmonisation comptable, les processus de rapprochement et la transmission sécurisée des données. Outre le projet d'intégration, la mission pourra inclure des initiatives de transformation plus larges axées sur la revue, l'optimisation et la standardisation des processus comptables d'AMO. Analyser les rapports des prestataires de services de paiement (PSP), les fichiers de règlement et les structures de données. • Définir et documenter les transformations nécessaires à l'intégration des fichiers dans les systèmes intermédiaires existants. • Garantir la conformité de l'intégration aux normes DSF en vigueur chez tous les PSP. • Définir et implémenter les mises à jour de la configuration SAP FI (écritures comptables, interfaces, flux BAPI/BIM). • Assurer le mappage des données PSP dans les schémas de comptabilité générale. • Garantir la conformité aux principes comptables internes et aux exigences de trésorerie. • Contribuer à l'amélioration de l'automatisation et de la fiabilité des flux comptables. • Concevoir et optimiser les processus de rapprochement de bout en bout pour les données de paiement à volume élevé. • Collaborer avec les équipes DF&P et Trésorerie sur la validation quotidienne des règlements et les règles de rapprochement. • Contribuer à la mise en place de flux de transmission sécurisés et au respect des exigences de chiffrement. • Rédiger une documentation fonctionnelle et technique de haute qualité en anglais. • Collaborer avec les parties prenantes des services Finance, Trésorerie, Informatique, Numérique et Métiers. • Participer à la gouvernance de projet, aux ateliers et aux revues d'étapes formelles. • Préparer et exécuter des scénarios de tests d'intégration et de bout en bout. • Valider les transferts de fichiers sécurisés, les fichiers de reporting et la logique de rapprochement. • Identifier les opportunités de simplification, d'automatisation et d'optimisation des processus. • Contribuer aux initiatives de transformation financière plus larges, le cas
Offre d'emploi
Dev Front Expert Testing
IT CONSULTANTS
Publiée le
Méthode Agile
12 mois
Châtillon, Île-de-France
Nous recherchons un profil DEV/QA qui interviendra sur une application mobile a un fort enjeu business pour notre client. Cette application restitue plusieurs indicateurs permettant de driver leur performance. ATTENTION : le périmètre de la mission est pluridisciplinaire sur 2 pôles de compétences DEV et QA Il vous sera demandé de faire 1. du développement front 2. des tests technico fonctionnels. Vous travaillerez en étroite collaboration avec la PO, la RA et le dev back au sein de la squad La répartition de ces 2 activités variera selon les PI (Program Increment). Pour le premier PI, la répartition est estimée à 80% QA et 20% DEV Les compétences de Développement et QA attendus sont décrites ci-après : Compétences Développements ( niveau Senior) - Développement de nouvelles fonctionnalités frontend (mobile) - Mise en place et exécution des tests unitaires sur les évolutions faites - Maintenance et évolution de l’application Mobile - Collaboration avec l'équipe produit - Mise en place et optimisation des processus CI/CD - Implication aux revues de code et à l'amélioration continue - Résolution des problèmes techniques et debugging - Optimiser les performances et la qualité du code - Travailler avec les équipes métiers en charge de recueillir et de définir le besoin Liste des compétences Node JS (Reactif Native,javascript) – Expert REST et GraphQL ( Express, Apollo) – Expert CI/CD (GitLab CI). – Expert Firebase – Bon niveau Compétences QA 1. Participer aux ateliers/rituels agiles 2. Réaliser les chiffrages lors des sprints planning 3. Analyser et évaluer les cas d'usage/User Story 4. Adapter la démarche de tests en fonction de ce qui est attendu par le métier 5. Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données 6. Exécuter les cas de tests 7. Créer et suivre les défauts avec les différentes parties prenantes 8. Maintien du référentiel de test 9. Réaliser le PV de tests Les outils de test : 1. XRAY : connaissance minimale demandée 2. JIRA : niveau Confirmé 3. Postman: connaissance minimale demandée Savoir être & Mindset Agile : 1. Esprit collaboratif : travail efficace au sein d’équipes pluridisciplinaires (produit, métier, design, QA), communication claire et constructive. 2. Engagement et responsabilité : implication dans les objectifs de sprint, sens de la responsabilité collective sur la qualité et la valeur livrée. 3. Adaptabilité : capacité à évoluer dans des contextes changeants, ouverture aux feedbacks et participation active aux rituels agiles. 4. Amélioration continue : contribution régulière aux rétrospectives, force de proposition sur les pratiques, les outils et la qualité du code. 5. Orientation valeur : compréhension des enjeux métier, priorisation des actions à fort impact et focus sur la satisfaction utilisateur.
Offre d'emploi
Administrateur Splunk / Expert Collecte de Logs H/F
ISE SYSTEMS
Publiée le
SOC (Security Operation Center)
Splunk
3 ans
51k-60k €
480-610 €
Paris, France
Dans le cadre du renforcement de ses capacités de supervision et d’analyse, XXXX recherche un Administrateur Splunk expert pour intervenir sur la collecte, l’ingestion et l’optimisation des données au sein de la plateforme Splunk. Vous jouerez un rôle clé dans la mise en place et l’amélioration des mécanismes de collecte (HEC, syslog, Universal Forwarder, Heavy Forwarder, DBConnect), tout en contribuant à l’automatisation et à l’intégration continue via les chaînes CI/CD et Bitbucket. Votre mission s’inscrit dans un environnement exigeant, collaboratif et orienté performance, où votre expertise Splunk sera essentielle pour garantir la qualité, la fiabilité et la sécurité des données collectées. Vos missions principales : Collecte & ingestion de logs Mettre en œuvre les bonnes pratiques Splunk pour la collecte des données : HEC, syslog, UF, HF, DBConnect . Optimiser les pipelines de collecte et garantir la cohérence, la performance et la qualité des données ingérées. Définir et maintenir les configurations nécessaires à l’ingestion multi‑sources. Administration Splunk Assurer l’administration avancée de la plateforme Splunk (indexation, inputs, outputs, performances). Participer au MCO, aux évolutions et aux optimisations de l’infrastructure Splunk. Contribuer à la résolution d’incidents complexes et à l’analyse des causes racines. Automatisation & CI/CD Utiliser les chaînes CI/CD et Bitbucket pour automatiser les déploiements et les configurations. Développer des scripts et outils facilitant l’exploitation et la supervision. Collaboration & communication Travailler en étroite collaboration avec les équipes techniques et sécurité. Communiquer efficacement en français et en anglais, à l’oral comme à l’écrit. Faire preuve d’initiative et contribuer à l’amélioration continue des processus.
Mission freelance
Consultant / Expert fonctionnel IGA – RUN IAM
CyberTee
Publiée le
IAM
Usercube
12 mois
400-550 €
Île-de-France, France
Contexte Dans le cadre du renforcement de l’équipe RUN IGA, nous recherchons un Expert fonctionnel IGA pour intervenir sur les solutions Brainwave et Usercube . La mission s’inscrit dans un contexte RUN avec une forte interaction entre les équipes métier, IT et IAM, afin de garantir la qualité, la conformité et la fiabilité des processus de gestion des identités et des accès. Missions / Actions attenduesIdentités & Mobilités (IM) Accompagnement des utilisateurs lors des arrivées, départs, mobilités et demandes/incidents Réalisation des contrôles quotidiens : Comptes dormants Création technique des demandes de badge Chargement et suivi des fichiers sources Contrôle et amélioration de la qualité des données Accompagnement lors des changements d’organisation Support aux managers et création des rôles métiers Identity Governance (IG) Lancement et suivi des campagnes de revue d’accès Revue des rôles Revue des comptes à privilèges / comptes spéciaux Revue des espaces partagés Coordination & Suivi Remontée des anomalies, incidents et demandes Suivi de leur correction en lien avec les experts techniques Usercube / Brainwave Interface entre : Responsables métiers Responsables IT applicatifs Équipe IAM (fonctionnelle et technique) Profil recherché Expert fonctionnel IGA confirmé Expérience significative en RUN IGA Très bonne maîtrise des outils Usercube et Brainwave Capacité à évoluer dans des environnements complexes et multi-interlocuteurs Soft skills Excellent relationnel Très bonne communication orale et écrite Force de proposition Autonomie et sens des responsabilités
Offre d'emploi
Service delivery manager cybersécurité H/F
DSI group
Publiée le
Backlog management
Management
49k-60k €
Hauts-de-Seine, France
Nous recherchons pour l'un de nos clients un Service delivery manager cybersécurité H/F pour notre client basé en Ile de France (92). Responsabilités principales: Pilotage des enquêtes de sécurité Superviser les enquêtes sur les alertes de sécurité reçues par le CSOC/CSIRT Garantir la bonne réception des alertes et leur catégorisation appropriée Imposer la priorisation des cas et assurer la gestion efficace du backlog Garantir la qualité des enquêtes réalisées par les analystes Assurer l’escalade adéquate vers l’équipe de gestion des incidents lorsque nécessaire Management fonctionnel et support aux équipes Challenger, encadrer et soutenir les analystes de sécurité et leurs chefs d’équipe Travailler étroitement avec : Une équipe CSOC opérée par un MSSP (24/7/365) Une équipe CSIRT interne basée en Inde Favoriser la collaboration entre équipes locales, distantes et internationales Performance, gouvernance et amélioration continue Être responsable de la revue des KPI et du suivi des performances opérationnelles Suivre la mise en œuvre et l’avancement du plan d’action de prestation de service Diriger le développement, la standardisation et la maintenance des procédures opératoires standard (SOP) Participer aux comités CSOC Produire des reportings réguliers à destination du management CSIRT
Offre d'emploi
développeur front expert
SARIEL
Publiée le
API REST
Firebase
GitLab CI
12 mois
47k-67k €
400-520 €
Hauts-de-Seine, France
Bonjour, Nous recherchons pour notre client basé en région parisienne (dans le 92) un développeur frontend expert (plus de 10 ans d’expérience). ` Développer et tester l'application Maestro Contrainte forte du projet Activité pluridisciplinaire Developpement et QA Compétences techniques Node JS (Reactif Native,javascript) - Expert - Impératif REST et GraphQL ( Express, Apollo) - Expert - Impératif CI/CD (GitLab CI). - Expert - Important JIRA - Confirmé – Important Description détaillée Nous recherchons un profil DEV/QA qui interviendra sur le produit Maestro . Cette application mobile a un fort enjeu business pour les Points de vente du client. Cette application restitue plusieurs indicateurs permettant de driver leur performance. Le périmètre de la mission est pluridisciplinaire sur 2 pôles de compétences DEV et QA : en effet il vous sera demandé de faire du développement front ainsi que des tests technico fonctionnels. Vous travaillerez en étroite collaboration avec la PO, la RA et le dev back au sein de la squad Maestro dans le département du datalab. La répartition de ces 2 activités variera selon les PI (Program Increment). Pour le premier PI, la répartition est estimée à 80% QA et 20% DEV Les compétences de Développement et QA attendus sont décrites ci-après : Compétences Développements ( niveau Senior) Développement de nouvelles fonctionnalités frontend (mobile) Mise en place et exécution des tests unitaires sur les évolutions faites Maintenance et évolution de l’application Mobile Collaboration avec l'équipe produit Mise en place et optimisation des processus CI/CD Implication aux revues de code et à l'amélioration continue Résolution des problèmes techniques et debugging Optimiser les performances et la qualité du code Travailler avec les équipes métiers en charge de recueillir et de définir le besoin Les outils de test : 1. XRAY : connaissance minimale demandée 2. JIRA : niveau Confirmé – Important 3. Postman: connaissance minimale demandée Savoir être & Mindset Agile : 1. Esprit collaboratif : travail efficace au sein d’équipes pluridisciplinaires (produit, métier, design, QA), communication claire et constructive. 2. Engagement et responsabilité : implication dans les objectifs de sprint, sens de la responsabilité collective sur la qualité et la valeur livrée. 3. Adaptabilité : capacité à évoluer dans des contextes changeants, ouverture aux feedbacks et participation active aux rituels agiles. 4. Amélioration continue : contribution régulière aux rétrospectives, force de proposition sur les pratiques, les outils et la qualité du code. 5. Orientation valeur : compréhension des enjeux métier, priorisation des actions à fort impact et focus sur la satisfaction utilisateur. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Expert technique & Développeur MuleSoft (H/F)
AVA2I
Publiée le
API REST
CI/CD
J2EE / Java EE
3 ans
Île-de-France, France
Dans un contexte de modernisation du système d’information et de forte exposition aux flux d’échanges applicatifs , un grand acteur du secteur de l’énergie renforce son expertise autour de la plateforme MuleSoft Anypoint . Le poste s’inscrit dans des trajectoires de migration , d’ industrialisation des échanges et de montée en maturité API , au sein d’un environnement complexe et à forts enjeux. Mission principale : Concevoir, développer et maintenir des solutions d’intégration robustes et évolutives basées sur MuleSoft Anypoint Platform, en garantissant la qualité, la performance, la sécurité et la disponibilité des flux applicatifs. Responsabilités : Expertise MuleSoft Être référent technique sur la plateforme MuleSoft Anypoint Définir et faire évoluer les standards d’architecture, de développement et de sécurité Accompagner les équipes projets dans les choix techniques Participer aux revues de conception et de code Développement & intégration Concevoir et développer des API REST / SOAP Implémenter les patterns d’intégration ( API-led connectivity, orchestration, pub/sub ) Réaliser les mappings et transformations ( DataWeave 2.0 ) Mettre en œuvre la gestion des erreurs et les tests unitaires ( MUnit ) Architecture & plateforme Contribuer à la définition de l’ architecture cible d’intégration Participer au design des couches Experience / Process / System APIs Intégrer les contraintes de sécurité, performance, résilience et scalabilité Travailler avec les équipes APIM, IAM, réseau et cloud (AWS le cas échéant) Industrialisation & exploitation Mettre en place et maintenir les pipelines CI/CD (Git, Maven, Jenkins/GitLab CI) Accompagner la mise en production et le run Contribuer au monitoring, logging et alerting (Anypoint Monitoring, Datadog) Participer à la gestion des incidents et à l’amélioration continue Migration & transformation Participer aux projets de migration de flux existants Analyser l’existant et proposer des trajectoires de transformation Capitaliser sur les retours d’expérience et documenter les solutions
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
332 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois