Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 628 résultats.
Offre d'emploi
Ingénieur devops
OBJECTWARE MANAGEMENT GROUP
Publiée le
DevOps
3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client (secteur bancaire) un.e ingénieur devops. Vos missions seront : Intégration et exploitation applicative dans le cadre des évolutions et des projets. Automatisation des déploiements (ansible, XL release, Argo CD). Création ou mise à jour des environnements (Terraform, ROKS, Linux, WAS). Réalisation de l'ensemble des gestes techniques d'installation ou de mise à jour d'applications. Mise à jour des consignes d’exploitation et contribution au passage en patrimoine. Accompagnement technique et conseil auprès des chefs de projet Etude et Production. Participation au diagnostic des incidents avec dynatrace, elasticsearch, kibana. Proposition d'axes d’optimisation, d’industrialisation.
Offre d'emploi
Chef de Projet Expert DevOps / OpenShift H/F
CONSORT GROUP
Publiée le
60k-68k €
Île-de-France, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Chef de Projet Expert DevOps / OpenShift H/F C’est votre mission Vous êtes passionné·e par les environnements cloud native, les plateformes OpenShift et les projets d’infrastructure à forts enjeux ? Ce poste est fait pour vous. En tant que Chef de Projet Expert DevOps OpenShift , vous êtes responsable du pilotage du stream Recette et de la coordination des activités de test, de validation et d’industrialisation de notre écosystème cloud, dans le cadre du programme stratégique OpenShift NextGen. Périmètre de responsabilités Définir le périmètre de recette (technique et fonctionnel) Élaborer la stratégie de recette et le planning associé Mettre en place et maintenir les environnements de test Coordonner les travaux avec les équipes MCO / MCS Piloter les campagnes de recette, y compris celles réalisées avec les clients Assurer le suivi des anomalies et la coordination des actions correctives Garantir l’alignement avec les autres streams du programme Activités principales Rédaction des plans de test et des scénarios de recette Organisation et animation des comités de suivi et de pilotage Suivi opérationnel des tests (exécution, automatisation, couverture) Reporting régulier sur l’avancement, les risques et les plans d’actions Coordination transverse avec les équipes DevOps, Infra, Sécurité et Métiers C’est votre expertise : Solide expérience sur des projets infrastructure / cloud Expertise des environnements OpenShift, Kubernetes, PaaS Bonne maîtrise des processus MCO / MCS Expérience dans l’industrialisation et la mise en production de plateformes cloud Sensibilité aux enjeux de sécurité, de performance et de résilience C’est votre manière de faire équipe : Chef de projet confirmé, à l’aise dans des environnements complexes et multi-acteurs Excellentes capacités de communication et de coordination Esprit analytique, rigueur et sens de l’organisation Autonomie, leadership et capacité à piloter des sujets stratégiques À l’aise dans un contexte international (anglais opérationnel) C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est bon à savoir Lieu : Saint-Quentin-en-Yvelines (78) / Paris Montparnasse Contrat : CDI Télétravail : 2jours par semaine Salaire : De 60 K€ à 68 K€ brut annuel Famille métier : [DevOps / Recette / Infrastructure] Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Consultant DevOps Azure
KLETA
Publiée le
Azure
GitLab CI
Terraform
3 ans
Paris, France
Au sein d’une équipe plateforme Azure, vous participerez à la construction et à l’amélioration continue d’un socle cloud mutualisé. Vous développerez des modules IaC réutilisables, standardiserez les pipelines CI/CD et renforcerez l’automatisation des déploiements. Vous collaborerez avec les équipes applicatives pour améliorer leur expérience cloud et accélérer leurs mises en production. Vous serez également impliqué dans la mise en place de solutions d’observabilité et de monitoring afin d’assurer une meilleure visibilité sur l’état des infrastructures.
Offre d'emploi
Chef de projet recette projet DevOps Senior
CONSORT GROUP
Publiée le
DevOps
Infrastructure
Openshift
Paris, France
Chef de projet recette/Projet DevOps Dans le cadre du pilotage du projet stratégique DevOps, nous recherchons un Chef de Projet Recette pour renforcer l’équipe. Le chef de projet sera responsable de piloter les activités de recette liées au déploiement de la plateforme Devops, en assurant la coordination entre les équipes techniques et métiers. Ce programme consiste à remplacer la plateforme actuelle, devenue obsolète, par une plateforme cloud native plus moderne, performante et sécurisée. Périmètre Définition du périmètre de recette (technique et fonctionnel) Élaboration de la stratégie de recette et planification Mise en place des environnements de test Coordination avec les équipes Pilotage des campagnes de recette Suivi des anomalies et coordination des correctifs Reporting projet Contribution à l’amélioration continue Activités attendues Rédaction des plans de test Animation des comités de suivi Suivi opérationnel des tests Reporting sur les risques et les plans d’action Coordination transverse avec les autres streams
Mission freelance
Ingénieur DevOps / Ops confirmé
ESENCA
Publiée le
CI/CD
Github
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Objectif du poste Assurer le suivi et l’animation des opérations d’un domaine composé de plusieurs produits digitaux orientés e-commerce, vente omnicanale et paiement pour des clients professionnels, dans un contexte fortement contraint par les enjeux Ops et DevOps. Contexte Le domaine est constitué de quatre produits digitaux critiques pour l’activité. L’ingénieur DevOps/Ops intervient en binôme afin de garantir la fiabilité, la sécurité et la performance des plateformes, tout en accompagnant les équipes dans l’adoption des pratiques DevOps et Agile. Missions principales1. Gestion des infrastructures et automatisation Maintenir, déployer et automatiser les infrastructures Cloud via l’Infrastructure as Code (Terraform), le GitOps et les pipelines CI/CD (GitHub Actions). Administrer et fiabiliser les solutions de sauvegarde et de reprise d’activité (DRP), en automatisant les politiques de RPO/RTO. 2. Culture et pratiques DevOps / Agile Promouvoir et diffuser les pratiques DevOps auprès des équipes techniques et non techniques. Contribuer à la mise en œuvre de la livraison continue et des rituels Agiles. 3. Sécurité et FinOps Collaborer avec les équipes de cybersécurité pour sécuriser les infrastructures. Identifier et corriger les vulnérabilités dans une démarche « Security by Design ». Piloter les coûts Cloud dans une approche FinOps. 4. Fiabilité et observabilité (SRE) Diffuser les bonnes pratiques Ops au sein de la plateforme. Garantir la fiabilité et la résilience des systèmes via une démarche SRE (SLO, parcours utilisateurs). Mettre en œuvre et maintenir les solutions d’observabilité et d’alerting (Datadog). 5. Amélioration continue Maintenir la documentation technique à jour. Proposer et mettre en œuvre des améliorations sur les processus, outils et architectures. Compétences techniques (Hard skills) Automatisation et IaC : scripting (Python, Bash), Terraform. Méthodologies DevOps, Agile et principes SRE. CI/CD : conception et maintenance de pipelines (GitHub Actions). Cloud : expertise GCP (Cloud Storage, BigQuery, Pub/Sub, Cloud Run, IAM). Conteneurisation : Kubernetes. Sécurité / DevSecOps : Trivy, CodeQL, GitHub Advanced Security. Gestion des incidents et résolution de problèmes complexes. Réseaux : CDN (Fastly), DNS, TCP/IP. Prérequis Culture et pratique DevOps / Agile : confirmé (impératif) Sécurité et FinOps : confirmé (important) Fiabilité et observabilité (SRE) : confirmé (important) Anglais professionnel : impératif
Offre d'emploi
Développeur Python / IA
CAT-AMANIA
Publiée le
Agent IA
DevOps
Python
40k-60k €
Levallois-Perret, Île-de-France
AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte * une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée * un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. * une plateforme d'exécution des modèles de Datascience, Sparrow Serving * et un outil de Community Management, Sparrow Academy L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : • Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; • Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; • Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; • Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; • Être force de proposition et participer aux POCs. Stack Technique de l’équipe : • Langages : Python, Golang, Bash • GNU/Linux • Kubernetes • DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize • Cloud services : Certmanager, Redis, Grafana, Jaeger, Prometheus, ELK, MinIO, Postgres Pre requis : • Expérience dans la prestation en python ; • Maîtrise de GitLab et des processus de CI/CD ; • Bonnes connaissances des infrastructures Cloud (système distribué et Object Storage) ; • Connaissance en machine learning et data science ; • Très bonnes connaissances en Intelligence Artificielle ; • Connaissances en Kubernetes sont un plus ; • Orienté clients, capacité à collaborer et communiquer à l’oral et à l’écrit ; • Niveau d’anglais correct à l’écrit et à l’oral ; • Méthodique et autonome • Intéressé par le monde open source
Mission freelance
Profil Devops ( Expert / Senior) H/F
Cheops Technology
Publiée le
DevOps
12 mois
400-490 €
Longpont-sur-Orge, Île-de-France
Grâce à sa compréhension du Système d’information (SAP, PIM, DAM, PSP, RCU, ERP …) et sa capacité à discuter avec les métiers, les architectes et les Engineer Squad Lead, il conçoit, implémente, plannifie les ETL, Flux, pipelines à implémenter afin de répondre aux enjeux business. Il fait de même sur les pipelines qui permettent aux squads de déployer sereinement et en autonomie. Objectifs de l'équipe : Gestion d’ETL et de flux de bout en bout depuis la prise du besoin jusqu'à la maintenance, l'évolution et le maintien en conditions opérationnelles Qualification et intégration CI/CD : Intégration du déploiement des Tests unitaires et fonctionnels Intégration des outils de qualité type SonarQube, SAST, autres Gitlab / AWS Pipeline Monitoring & Observabilté : Création de dashboards, ouverture automatique de tickets… Implémentation et configuration des outils groupes Datadog & New Relic Étude, préparation et budgétisation de l’utilisation des infrastructures et services cloud AWS et Azure Automatisation des tâches via scripting Apport d’un support technique aux équipes transverses (développeurs, QA, production, autres équipes) Debug, résolution d’incidents et optimisation Cloud (AWS) Création, maintien, amélioration et documentation des pipelines de déploiement automatique CI/CD.
Mission freelance
POT8949 - Un Consultant Devops sur IDF
Almatek
Publiée le
Python
6 mois
240-390 €
Île-de-France, France
Almatek recherche pour l'un de ses clients Un Consultant Devops sur IDF. DESCRIPTION DE LA MISSION. Intégré(e) dans les équipes Cloud, Ops & DWP le/la consultant(e) aura pour mission aura pour mission de participer à la mise en place et à l’amélioration continue des pipelines de données en utilisant des technologies DevOps telles que Kubernetes et GCP. Il/elle sera chargé de l’automatisation des déploiements, de la surveillance des performances et de la gestion des incidents. Le/la consultant(e) travaillera en étroite collaboration avec les équipes de développement et d’infrastructure pour garantir la fiabilité et la scalabilité des plateformes de données. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. -Posséder une expertise en développement avec les langages Python -Avoir une bonne connaissance des environnements Legacy -Maîtriser les technologies cloud GCP (Google Cloud Platform) incluant les services tels que Kubernetes, Cloud Functions, Pub/Sub, PostgreSQL -Gérer et optimiser l’infrastructure Cloud GCP via Ansible et Terraform - Développer et maintenir des pipelines de données robustes et performants -Être familier avec les concepts de CI/CD (Intégration Continue et Livraison Continue) et les outils associés comme GitLab CICD -Avoir une connaissance des bases de données relationnelles, notamment PostgreSQL -Maîtriser Helm File pour la gestion et la configuration des déploiements Helm dans Kubernetes. -Avoir une bonne compréhension des concepts de sécurité et de conformité dans un environnement cloud -Posséder des compétences en scripting et en automatisation pour la gestion des tâches -Connaissance des méthodes de gestion de projet en Agilité (Scrum, Sprint Planning, Backlog...)
Mission freelance
DevOps (H/F) 95
Mindquest
Publiée le
Docker
Jenkins
Linux
2 mois
100-450 €
Osny, Île-de-France
Pour renforcer leur équipe notre client recherche un Devops H/F avec des compétences en Linux, Docker et Jenkins pour une mission en freelance. Mission En tant que tel vos missions seront de: * Améliorer et enrichir la plate forme Devops (Automatisation des tâches, intégration des nouvelles features) * Supports aux clients internes (R&D et BU) pour les aider a tirer le meilleur de la culture DevOps pour leurs projets * Opérer les services (déploiement, monitoring, gestion d'incident) in house et in cloud environnement Vous collaborerez avec des équipes internationales: * Equipes R&D et projetsR&D and BU project teams and governance * Equipes IT infrastructure, securité, réseaux * Fournisseurs externes et la communauté pour rester à jour des pratiques de développement logiciel
Mission freelance
Développeur Azure Paas (on .Net core)- 3 ans - ASAP
Montreal Associates
Publiée le
.NET CORE
Azure DevOps
Azure DevOps Services
10 mois
500-600 €
Saint-Denis, Île-de-France
Voici une annonce courte, claire et sélective , dans le style habituel LinkedIn 👇 Développeur Back-end Senior Azure (.NET Core) Mon client international recherche un expert Azure PaaS confirmé pour faire évoluer et fiabiliser une plateforme cloud stratégique orientée APIs & Data . Objectif => rationaliser l’architecture, optimiser la performance et garantir la robustesse des services en production . 🎯 Responsabilités clés Évolution & maintenance de l’architecture Azure (PaaS / APIs / monitoring) Développement .NET Core de services backend CI/CD Azure DevOps & déploiements continus Modélisation data avec l’équipe Data Qualité, sécurité, performance & documentation (anglais) 🛠️ Exigences fortes (profils très expérimentés uniquement) 5+ ans Azure PaaS : App Services, Functions, LogicApps, ServiceBus, KeyVault, SQL/Cosmos, Storage, Azure AD Excellente maîtrise .NET Core Bonne culture Cloud architecture, observabilité, coûts & fiabilité Anglais fluent obligatoire ➕ Bonus : DevOps, Apigee, EventHub, Angular, New Relic #Freelance #Azure #DotNet #Backend #AzurePaaS #DevOps
Offre d'emploi
TECH LEAD JAVA ALMT (9 ans et plus)
Digistrat consulting
Publiée le
DevOps
Développement
Java
3 ans
50k-65k €
550-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Application back office généraliste (multiproduits) et local (nombreux sites & utilisateurs dans le monde). L'entité Interface est en charge d'interfacer ce système avec les autres systèmes (booking, paiements, référentiels...) Il s'agit de contribuer aux développements des interfaces. Le code est principalement en C et Java avec un peu de shell (ksh, awk). 💡 Les livrables attendus sont : Discussion sur les solutions techniques avec les architectes Orienter les clients et l'équipe vers la solution technique la plus appropriée Pilotage et encadrement des équipes de dev Développement des pipelines streaming pour la production et consommation avec la librairie apache-kafka Accompagnement et coaching des membres de l'équipe sur les bonnes pratiques techniques Porter la démarche d'amélioration continue associée (clean code..) Participer aux développements et à l'implémentation des solutions, notamment sur les phases sensibles du développement (développement web service Rest) Identification des points bloquants et analyser les obstacles de manière proactive afin de remplir le Sprint (gestion des incidents) DevOps : développent de la chaine CI/CD jenkins Revue de code et vérification des métriques (Jenkins, Sonar) pour garantir la qualité de code Organisation des réunions avec l'ensemble des interlocuteurs des applications qui s'interfacent avec le domaine de la garantie Participation à la rédaction des Document Architecture Technique avec les architectes techniques Participation à la roadmap des livraisons à moyen et long terme et négocier, avec le BO Onboarding des nouveaux arrivants
Offre d'emploi
consultant senior Devops Openshift
CBX Conseil ( CBX Group )
Publiée le
Azure Kubernetes Service (AKS)
Docker
Openshift
3 ans
40k-50k €
400-550 €
Paris, France
Contexte de la mission – Cadre du projet Le consultant intervient sur des plateformes OpenShift 4.x dans un contexte Cloud Native à forts enjeux d’industrialisation, de sécurité et de disponibilité. Les environnements sont critiques ( Bancaire) , multi-équipes et souvent en production. Il accompagne les équipes projet, infra et sécurité sur des plateformes existantes ou en transformation. La mission s’inscrit dans une démarche DevOps/GitOps mature. La dimension expertise, conseil et transmission des bonnes pratiques est centrale tout au long du projet. Mission – Tâches au quotidien Administrer et maintenir des clusters OpenShift : ressources, projets, quotas, sécurité et troubleshooting avancé. Intervenir en build et en run sur des incidents complexes. Concevoir et déployer des architectures Cloud Native robustes, en appliquant les bonnes pratiques Kubernetes et CI/CD. Participer à l’industrialisation des déploiements applicatifs. Mettre en œuvre et optimiser les pipelines DevOps (Jenkins, ArgoCD, GitLab/GitHub). Accompagner les équipes en tant que référent technique.
Mission freelance
Ingénieur DEVOPS - Openshift - MLOps H/F
Insitoo Freelances
Publiée le
Artifactory
Azure Kubernetes Service (AKS)
Openshift
2 ans
295-556 €
Marignane, Provence-Alpes-Côte d'Azur
Habilitation obligatoire Les missions attendues par l' Ingénieur DEVOPS - Openshift - MLOps H/F : La mission consiste à établir, exploiter et améliorer une plateforme AI/MLOps basée sur Kubernetes / OpenShift pour supporter le cycle de vie complet des modèles ML, depuis l'expérimentation jusqu’au déploiement opérationnel. Objectifs principaux (non exhaustif) : Garantir la fiabilité , la scalabilité et la sécurité de la plateforme AI. Fluidifier le passage ML → production , en automatisant au maximum les étapes. Compétences techniques essentielles : Expertise containers Docker , orchestration Kubernetes , avec forte pratique OpenShift . Compétence DevOps : CI/CD , IaC, GitOps. Maîtrise de solutions MLOps : Kubeflow , Elyra , environnements LLM. Connaissances avancées sur les pipelines : Tekton , modèles de déploiement, Artifactory. Compétences en scripting : Python , Go . Connaissance des frameworks de Machine Learning Soft skills & exigences : Autonomie sur un environnement complexe. Capacité à intervenir sur une plateforme AI en production. Aptitude au troubleshooting multi-couches (pods, ressources, pipelines). Rigueur, sécurité et conformité dans les environnements sensibles Maintenance & Opérations Exploitation quotidienne d’une plateforme AI basée sur kube/OCP . Application des mises à jour , correctifs et évolutions des composants plateforme. Déploiement & Supervision Déploiement des modèles ML dans l’environnement OCP. Automatisation des tâches de scaling, monitoring et gestion du cycle de vie. CI/CD & Pipelines Conception, construction et maintenance de pipelines CI/CD avec Tekton ou Kubeflow . Gestion des workflows d’entraînement, réentraînement et inference. Support & Troubleshooting Diagnostic des crashes pods, problèmes de ressources, échecs pipelines. Résolution des incidents liés à la production de modèles. Customisation & Sécurité Rebuild et customisation de composants plateforme (workbenches, runtimes). Garantie de la conformité & sécurité sur l’ensemble des environnements. Teletravail : 2j/5
Offre d'emploi
Ingénieur DevOps Dataframe (H/F)
UMANTIC
Publiée le
60k-70k €
Écully, Auvergne-Rhône-Alpes
Fiche de Poste : Ingénieur DevOps Dataframe (H/F) ? À propos du poste Nous recherchons un(e) Ingénieur(e) DevOps spécialisé(e) Dataframe pour rejoindre le pôle technologique d'un grand groupe dans les assurances. Vous intégrerez une équipe agile dédiée à la maintenance et l'évolution de notre écosystème Dataframe legacy. Oui, nous savons que c'est une technologie historique ! Mais elle reste au coeur de nos systèmes critiques d'assurance. Votre mission : assurer la stabilité, l'optimisation et la modernisation progressive de ces environnements tout en garantissant la continuité de service. ? Vos missions au quotidien En toute autonomie, vous serez amené(e) à : * Maintenir et optimiser les environnements Dataframe existants (performance, stabilité, sécurité) * Automatiser les déploiements et la gestion des configurations via des outils CI/CD modernes * Moderniser progressivement l'infrastructure legacy en proposant des évolutions techniques pragmatiques * Documenter les architectures et processus existants (souvent peu documentés sur ces systèmes anciens) * Gérer les incidents en production et assurer un support technique de niveau expert * Collaborer avec les équipes métier pour comprendre les contraintes business et technique de ces applications critiques * Évaluer les possibilités de migration ou d'interconnexion avec des technologies plus récentes
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
PROPULSE IT
Publiée le
Azure
BI
DevOps
24 mois
325-650 €
La Défense, Île-de-France
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Mission freelance
Responsable support Accès marchés
JobiStart
Publiée le
DevOps
2 ans
400-550 €
Paris, France
Au sein d’un environnement Front-Office à haute criticité, vous prenez la responsabilité de l’intégration et de la stabilité opérationnelle des accès marchés. Votre mission combine leadership d'équipe et expertise technique de pointe. Pilotage de Squad : Coordonner une équipe pluridisciplinaire (Support, Intégration, Dev) pour garantir une disponibilité maximale des plateformes. Support Front-Office : Assurer le support N1/N2 des systèmes d’Algo Trading et d’exécution en lien direct avec les traders. Expertise FIX : Maîtriser le workflow de passage d'ordres et assurer le troubleshooting sur le protocole FIX. Automatisation & DevOps : Accompagner les développeurs sur l’outillage CI/CD (Jenkins, XLDeploy) et optimiser le monitoring via des scripts Python/Bash. Intégration Systèmes : Piloter le déploiement des composants et services sur des environnements hybrides Linux/Windows (UAT/PROD). Analyse de Performance : Investiguer les logs complexes et optimiser les outils de surveillance (Geneos) pour anticiper les incidents de production. Stack Technique : Protocol FIX, Python, Bash, SQL, Linux/Windows, Jenkins, Git, XLDeploy, Geneos.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
628 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois