L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 834 résultats.
Mission freelance
Expert Observabilité Datadog
Cherry Pick
Publiée le
AWS Cloud
Datadog
Terraform
12 mois
550-650 €
Paris, France
Vos principales missions : 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques 2. Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog 3. Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : 1. Formation & expérience : Bac +5 (école d’ingénieur, université ou équivalent) en informatique Expérience confirmée (3 à 5 ans minimum) dans le domaine du monitoring, observabilité Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus 2. Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) 3. Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
Mission freelance
Développeur Back-End PLM (Teamcenter)(H/F)
Freelance.com
Publiée le
Teamcenter
3 ans
170-600 €
Île-de-France, France
Dans le cadre d’un projet autour du PLM (Product Lifecycle Management) appliqué aux achats indirects, nous recherchons un développeur back-end spécialisé sur la technologie Teamcenter. Objectifs de la mission : Participer au développement et à l’évolution de la solution PLM basée sur Teamcenter Intervenir sur les aspects back-end de la plateforme Contribuer à la mise en place du PLM pour la gestion des achats indirects Assurer le support au moment du go-live (mise en production) Accompagner les équipes après le déploiement (support post go-live, stabilisation) Compétences requises : Expertise en développement back-end Bonne maîtrise de Teamcenter (configuration, développement, intégration) Connaissance des environnements PLM Capacité à intervenir en phase de mise en production et support Langues : Français : obligatoire (environnement francophone) Anglais : non requis
Mission freelance
Développeur SAP BI
Ositel France
Publiée le
Azure
Legacy System Migration Workbench (LSMW)
PowerBI
3 mois
400-530 €
Paris, France
Nous recherchons un Développeur SAP BI pour une mission de 3 mois renouv sur Paris. Projet d'intégration des données SAP avec des systèmes "legacy", avec une perspective de reporting analytique (contrôle de gestion, logistique, etc). Il s'agit d'une fonction "hybride" alliant une connaissance technique et une appétence métier. Sur les aspects techniques, vous serez encadré par une ressource senior qui pourra vous former, vous orienter et sera votre Sparring partner pour trouver la meilleure approche pour le client. Le profil recherché est le suivant: 3 à 5 ans d'expérience Diplômé d'une école d'ingénieur informatique Connaissances des technologies SAP (Vues CDS) Connaissances du monde Azure et PowerBI Connaissances du monde logistique et du contrôle de gestion Intéressé à apprendre et orienté résultat
Mission freelance
Program manager / Responsable transformation (H/F)
Freelance.com
Publiée le
Prince2
Transformation digitale
3 mois
400-670 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation IT à forte visibilité, nous recherchons un Program Manager / Responsable Transformation IT pour piloter une mission pluriannuelle au sein d’un environnement international et matriciel. La mission porte sur la conception, la structuration et l’exécution d’un programme majeur de transformation des infrastructures et services IT , avec une première priorité sur la roadmap 2026 pour la France , avant un déploiement progressif à l’international sur les 2 à 3 prochaines années. Le consultant interviendra dès la phase initiale de Macro Framing , avec pour objectif de poser les fondations du programme : définition de la gouvernance méthodologie et instances de pilotage planification des jalons et des priorités alignement des parties prenantes senior Business et IT animation d’ateliers stratégiques formalisation de la vision cible et des principes directeurs À l’issue de cette première phase, la mission pourra être prolongée sur les phases de cadrage détaillé et d’exécution , avec la responsabilité du pilotage global de la roadmap de transformation. Le périmètre couvre notamment l’harmonisation et la standardisation de plusieurs domaines d’infrastructure : poste de travail réseau / Wi-Fi gestion des identités cloud cybersécurité / cyberdéfense ITSM / data & business services Le rôle implique une forte exposition auprès des sponsors et de la direction, ainsi qu’une coordination transverse entre plusieurs équipes, géographies et familles de produits.
Mission freelance
Data Engineer
Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API
1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Offre d'emploi
Administrateur Sécurité H/F
SPIE ICS
Publiée le
Administration linux
Endpoint detection and response (EDR)
12 mois
40k-49k €
400-480 €
Neuilly-sur-Seine, Île-de-France
Les missions sont les suivantes : Assurer la sécurité opérationnelle des environnements de production, activités SecOps au quotidien, administrer les outils de sécurité (EDR/NDR/Firewall) et accompagner les équipes dans la résolution des incidents, l’amélioration continue et la mise en conformité. Sécurité opérationnelle & Production Assurer la sécurité des environnements de production (serveurs, réseaux, cloud, conteneurs). Gérer les opérations de sécurité au quotidien : surveillance, analyse, remédiation, suivi des alertes. Administrer, exploiter et maintenir les outils de sécurité : EDR, NDR, Firewalls, bastions, scanners de vulnérabilités. Réaliser les activités de whitelisting, tuning et optimisation des règles de sécurité. Participer activement à la gestion des incidents : analyse, qualification, coordination des actions correctives. Contribuer à la sécurité des changements (CAB, durcissement, patching, DevSecOps). SecOps & relation avec le SOC Assurer les échanges quotidiens avec le SOC : suivi des alertes, escalades, enrichissement, retours d’expérience. Améliorer la détection et la réponse : ajustement des règles, création de use cases. Participer à la gestion des vulnérabilités et au suivi des plans de remédiation. Projets & évolutions techniques Participer à des projets d’évolution de la sécurité, notamment : → Implémentation d’un nouvel EDR dans les prochains mois (sélection, POC, déploiement, migration). Contribuer à l’intégration de nouveaux outils ou services de sécurité. Rédiger la documentation associée : procédures, guides d’exploitation, consignes de sécurité. Audits, conformité & amélioration continue Participer aux audits internes et externes (cybersécurité, pentest, conformité). Réaliser les revues d’audit et assurer le suivi / implémentation des actions correctives. Vérifier la conformité aux référentiels internes et standards (ISO 27001, NIS2, ANSSI, PCI-DSS selon contexte). Produire des rapports, indicateurs et tableaux de bord SSI.
Mission freelance
Data Migration Lead (SAP S/4HANA Greenfield)
HOXTON PARTNERS
Publiée le
Data management
3 ans
680-900 €
Paris, France
Contexte : Nous recherchons un Data Architect / Data Migration Lead pour rejoindre l’équipe Data & AI d’un acteur majeur de l’industrie des boissons, reconnu pour la qualité de ses produits et sa présence internationale. Missions principales : Piloter et coordonner le stream Data Migration dans le cadre d’un projet SAP S/4HANA Greenfield. Définir la stratégie de migration de données et assurer son alignement avec les autres streams du programme. Planifier, suivre et assurer le reporting des activités de migration. Coordonner les différentes parties prenantes (équipes techniques, fonctionnelles, métiers) sur les phases d’extraction, transformation et chargement des données. Superviser la conception et le développement des programmes de migration. Organiser et suivre les mocks de migration (planning, exécution, reporting). Compétences recherchées : Expertise en migration de données SAP (S/4HANA, Greenfield) . Solides connaissances en Data Architecture, Data Access, Data Taxonomy . Expérience en pilotage transverse avec équipes techniques et métiers. Très bon niveau d’anglais. Modalités : Mission longue durée (21 mois). Localisation : Paris, avec 2 jours de télétravail par semaine. 📩 Si vous êtes intéressé(e), merci de me contacter en partageant votre CV actualisé et vos disponibilités. 📍 Lieu : Paris (2 jours de télétravail par semaine) 🌐 Langue : Anglais (obligatoire)
Offre d'emploi
Expert DBA SQL Server / Cloud Azure
Gentis Recruitment SAS
Publiée le
Azure
Azure DevOps
Database
12 mois
Paris, France
Contexte de la mission Au sein de la DSI du client, l’équipe DBA intervient sur l’architecture, le build et le maintien en condition opérationnelle des bases de données utilisées par différentes applications critiques. Dans un contexte cloud first , l’environnement évolue progressivement vers des solutions Azure et AWS , avec une forte composante SQL Server sur Azure . Le consultant interviendra au sein d’une équipe DBA et collaborera étroitement avec les équipes infrastructure, développement et opérations afin d’accompagner les projets techniques et garantir la disponibilité des environnements de bases de données. Missions principales Le consultant interviendra notamment sur les activités suivantes : • Assurer l’architecture, le déploiement et l’administration des bases de données SQL Server • Maintenir et optimiser les environnements de bases de données en production • Participer à la mise en place et à l’amélioration des solutions d’infrastructure database • Accompagner les équipes de développement dans l’optimisation et l’évolution des bases de données • Mettre en œuvre des architectures haute disponibilité (clusters SQL Server, failover, Always On) • Automatiser les déploiements et l’administration via scripting et outils DevOps • Participer à l’amélioration continue des processus d’infrastructure et d’exploitation • Rédiger la documentation technique (architecture, HLD / LLD, procédures) • Contribuer aux projets d’évolution vers les services PaaS database dans le cloud Environnement technique Bases de données SQL Server (principal) PostgreSQL MongoDB Oracle Cloud Azure AWS Infrastructure Windows Server SQL Server clusters / Always On Environnement hybride On-premise / Cloud Automatisation et DevOps Azure DevOps CI/CD Bicep Scripting PowerShell Python Bash Monitoring Zabbix Prometheus Grafana
Offre d'emploi
Lead Développeur API Management – Otoroshi / Daikoku (Niort – 7 ans min)
HR DNA
Publiée le
API
API Platform
2 ans
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Dans le cadre du renforcement de plusieurs équipes techniques au sein d’un grand groupe du secteur assurance, nous recherchons un Lead Développeur expérimenté spécialisé en API Management , afin d’intervenir sur la mise en place et l’évolution d’une plateforme API stratégique basée sur Otoroshi et Daikoku . La mission s’inscrit dans un environnement technique exigeant, avec un rôle transverse sur deux équipes produit . Contexte de la mission Le consultant interviendra en tant que Lead développement sur deux périmètres complémentaires. 1️⃣ Plateforme API Management Une première équipe est responsable de l’écosystème d’API management interne. L’objectif est de consolider et faire évoluer la plateforme basée sur Otoroshi (API Gateway) et Daikoku (portail développeur). Dans ce cadre, la mission inclura notamment : contribution à la mise en œuvre et l’évolution de la plateforme API Management développement de plugins Otoroshi pour répondre à des besoins spécifiques accompagnement des équipes internes dans l’usage et l’exposition de leurs APIs participation au remplacement de la solution APIM externe actuelle décommissionnement de certains patterns ou composants obsolètes promotion et diffusion des bonnes pratiques en API Management 2️⃣ Socle applicatif transverse (GAT+) La seconde équipe est responsable d’un socle technique utilisé par près de 200 applications. Les missions incluront : maintien en conditions opérationnelles du socle analyse et correction d’anomalies proposition d’évolutions visant à optimiser la maintenabilité et les coûts accompagnement des équipes utilisatrices suivi de la qualité des développements et revue de code Missions principales Lead technique sur les sujets API Management Développement et évolution de plugins Otoroshi Accompagnement des équipes sur les usages API Participation à la transformation de la plateforme APIM Mise en place de bonnes pratiques de développement Revue de code et suivi de la qualité logicielle Contribution au maintien et à l’évolution du socle technique transverse IL FAUT POUVOIR SE RENDRE SUR SITE A NIORT 2 FOIS PAR SEMAINE.
Offre d'emploi
Tech Lead Sénior product designer UX/UI
BEEZEN
Publiée le
Design
3 mois
40k-85k €
400-530 €
Île-de-France, France
1. Analyse des besoins, attentes et objectif du produit : Mener des recherches utilisateurs et des analyses de besoins pour identifier les points faibles des processus actuels et les besoins des équipes Réaliser des entretiens utilisateurs, des observations et des tests d'utilisabilité pour recueillir des insights pertinents. Analyser les données d'utilisation pour identifier les opportunités d'amélioration des processus et de la navigation. Mettre en place des ateliers de co-conception pour comprendre et challenger les processus et intégrer les opportunités de développement de la vision produit. 2. Etablir une stratégie de Design et vision produit : Basé sur les données analysées et selon une méthodologie de Discovery, proposer une stratégie de Design appuyée sur la vision du produit. Synthétiser l'ensemble des données pour diffuser une vision claire et méthodologique de ce que devra être le produit et l'impact sur les business et les collaborateurs demain. Capacité à faire des flow utilisateurs Mettre en place un plan d'action, basé sur un découpage et séquencement pragmatique et agile. Mise en place de la conception sous la forme de maquettes UI et utiliser notre design system et sa gouvernance pour mettre en forme le design de nos expériences. Savoir utiliser un Design System pour proposer la meilleure solution, mais aussi proposer de nouveaux composants répondant aux enjeux UX et d’ergonomie pour atteindre les objectifs métier et utilisateurs. 3. Collaboration transversale et coordination : Travailler en étroite collaboration avec les équipes produit, designers, développeurs, chefs de projet et parties prenantes pour garantir la cohérence et l'efficacité des solutions conçues. Faciliter des ateliers de co-création, de brainstorming et de validation pour intégrer les retours de diverses équipes.
Offre d'emploi
LLMOps Engineer / GenAI Engineer H/F
VIVERIS
Publiée le
45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre du développement de ses activités autour de l'intelligence artificielle, un grand groupe industriel renforce son hub dédié à la stratégie et au déploiement de solutions IA, notamment dans le domaine de l'énergie. La mission s'inscrit dans un contexte de forte croissance des usages autour des LLM et de la GenAI, avec des enjeux d'industrialisation, de passage à l'échelle et d'intégration dans des produits et services. L'environnement de la mission repose sur des architectures cloud AWS, avec une forte culture DevOps (CI/CD, IaC) et l'utilisation de frameworks GenAI tels que Langchain et LangGraph. Vous interviendrez au sein d'une équipe en charge du développement et de la mise en production de solutions basées sur des modèles de langages et des agents intelligents. Responsabilités : - Concevoir et procéder au déploiement et à l'industrialisation des pipelines LLMOps dans un environnement cloud ; - Participer activement à la mise en production de solutions GenAI, en garantissant leur performance, leur robustesse et leur scalabilité ; - Collaborer étroitement avec les équipes data et IA afin de répondre aux besoins métiers et d'optimiser les architectures existantes.
Offre d'emploi
Ingénieur de production
OBJECTWARE
Publiée le
Production
3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client un.e ingénieur.e de production senior. Vos missions seront : Piloter et réaliser les mises en production applicatives (MEP, CAB, déploiements sur les différents environnements). Garantir l’ exploitabilité des applications et des environnements techniques (production et hors production). Mettre en place et faire évoluer les mécanismes de monitoring, supervision et pilotage applicatif . Participer à la définition de l’architecture technique et veiller au respect des standards d’infrastructure, de sécurité et de production. Identifier les points de blocage d’exploitation (flux, sécurité, réseau, performances) et proposer des plans d’actions. Contribuer à la gestion des incidents, problèmes et à l’amélioration continue des services de production . Accompagner les équipes de développement afin de sécuriser et accélérer la livraison des projets dans un environnement DevOps / Agile. Participer à l’ automatisation et l’industrialisation des déploiements (Infrastructure as Code, Toolchain CI/CD). Garantir la résilience des solutions (backup, restore, continuité applicative, plans de bascule). Représenter la Production au sein des équipes projets (squad) et assurer la coordination avec les équipes d’infrastructure. 🛠 Environnement technique Systèmes : Linux, Windows, AIX Containers / Cloud : Docker, Kubernetes Automatisation / DevOps : Ansible, GitLab CI, Jenkins, XL Release, Artifactory, Ansible Tower, Ansible Galaxy Bases de données : Oracle, MongoDB Ordonnancement / Middleware : Control-M, Liberty Core, WebSphere Monitoring : Dynatrace Langages : YAML, Python, Shell ☁ Connaissances attendues Architecture Cloud (IaaS, PaaS, SaaS) et environnements hybrides. Concepts de conteneurs, micro-services et virtualisation . Infrastructure as Code et automatisation des déploiements. Administration et exploitation d’environnements Kubernetes / Docker (déploiement, gestion des containers, configmap, secrets, volumes persistants, troubleshooting).
Offre d'emploi
Chef/Directeur de Projet Data (Sénior) - Lyon
KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Business Analyst
50k-65k €
Lyon, Auvergne-Rhône-Alpes
Rôle transversal positionné entre les équipes métier, les équipes Data Engineering, les Data Analysts/Modelers et les sponsors projets, vous intervenez sur : Des programmes Data d’envergure (Data Lakehouse, modernisation BI, Data Governance, MDM, Analytics avancés). Des environnements Cloud (Azure, GCP, AWS) et des architectures modernes (Data Mesh, Datavault). Des enjeux de pilotage projet, de cadrage fonctionnel et d’accompagnement à la transformation Data. En tant que Senior (+8 ans), nous attendons de vous : Une grande autonomie et capacité à sécuriser un projet ou un périmètre. Une forte expérience en gestion de projets Data complexes. Une capacité à accompagner les équipes, structurer les pratiques et diffuser la culture Data. Une maîtrise avancée des méthodologies de modélisation (3NF, Étoile/Flocon, Data Mesh…), des pipelines ETL/ELT, et des outils BI.
Mission freelance
Ingénieur réseau
Signe +
Publiée le
AWS Cloud
Réseaux
VPN
6 mois
400-500 €
Toulouse, Occitanie
Nous recherchons pour l'un de nos clients un ingénieur réseaux. Missions En tant qu’Ingénieur Réseau, vous serez en charge de : Concevoir, déployer et maintenir des architectures réseau fiables et sécurisées Administrer et optimiser les protocoles réseau (TCP/IP, BGP, OSPF, DNS, etc.) Mettre en place et maintenir des solutions VPN (site-to-site, client-to-site) Garantir la sécurité réseau (segmentation, filtrage, bonnes pratiques, conformité) Concevoir et exploiter des architectures AWS (VPC, peering, Direct Connect ) Intervenir sur des environnements multi-cloud (AWS, Azure, GCP) Analyser et diagnostiquer les incidents réseau à l’aide d’outils comme Wireshark et tcpdump Réaliser des tests de performance et de charge pour valider la robustesse des infrastructures Documenter les architectures et procédures Collaborer étroitement avec les équipes Cloud, Sécurité et DevOps
Mission freelance
INGENIEUR DATA BI - GENIO
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Ingénieur senior DevOps APIM
NEXORIS
Publiée le
DevOps
Helm
JSON Web Token (JWT)
1 an
500-550 €
Paris, France
L'objectif de la mission est d'intervenir en tant qu’Ingénieur DevOps APIM au sein d’une équipe en charge de l’implémentation, de l’administration et du maintien en condition opérationnelle de plateformes d’API Management basées sur WSO2 et Kong, dans un environnement Cloud et Kubernetes. Les travaux attendus sont : - Mettre en œuvre les solutions d’API Management (WSO2, Kong). - Participer aux rituels Agile (daily meetings, backlog, roadmap). - Déployer et maintenir les plateformes API en environnement Kubernetes. - Implémenter les éléments de backlog définis par le Squad Lead. - Proposer des solutions techniques face aux problématiques rencontrées. - Collaborer avec les équipes produit et techniques. - Contribuer aux démonstrations et formations autour des solutions API. - Participer aux astreintes techniques du socle. - Assurer le support et le bon fonctionnement des plateformes (BUILD & RUN). Livrables attendus sont : - Plateformes API Management opérationnelles et maintenues. - Déploiements automatisés et documentés. - Documentation technique et supports de formation. - Résolution des incidents et amélioration continue.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Facturation electronique 2026
- Doute après reconversion pro
- Passer de freelance à CDI dans une ESN
- Je galère à trouver une mission… alors j’ai créé une app pour survivre 😅
- [RUST] Aegis Omni-Core : Moteur de cyber-défense souverain (9.4 GB/s, Post-Quantique)
- PER/EURL - Obligation d'en créer un nouveau ?
2834 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois