L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 551 résultats.
Offre d'emploi
Developeur Java 8/11 Angular Devops Protocol FIX - Market execution
Publiée le
Angular
DevOps
Java
3 ans
50k-60k €
500-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Au sein de l'équipe IT Equity Market Transverse en charge des applications : - référentiel produits Equity : agrégation et centralisation des données de différents provider autour des produits equity) - application qui gère les descentes d'executions et les reportings associés) La mission sera en majeur sur d'executionet reporting. Le projet consiste à faire évoluer l'application en lien avec le changement de version du software Market access en amont avec descente des executions pour booking dans le système front Sophis Equity. Le projet nécessite une réécriture partielle de l'application sur les modules de connexions et aux exchange via protocole FIX pour récupération des exécutions marchés et broker.
Offre d'emploi
Ingénieur DevOps GCP
Publiée le
CI/CD
Gitlab
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Télétravail partiel
Mission longue pour un DevOps GCP expérimenté dans le cadre de la généralisation de la facturation électronique . Participation à la conception, au déploiement, à l’industrialisation et au maintien en conditions opérationnelles de plateformes cloud stratégiques (PDP, référentiel factures). Maîtrise GCP (Pub/Sub, Cloud Run, BigQuery) et SQL impérative, Terraform souhaitée. Environnements Linux, CI/CD GitLab, scripting Bash/Python/Node.js. Contexte agile, support N3 en RUN, documentation et supervision attendues.
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
DBT
DevOps
Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Mission freelance
Ingénieur étude et conception Devops - NIV 2/3
Publiée le
autonomie
18 mois
100-500 €
Lille, Hauts-de-France
Télétravail partiel
CONTEXTE La prestation demandée est une prestation ingénieur développeur et conception équivalent N2 ou 3 orienté profil devops dans un environnement technique systèmes diversifié ayant certaines compétences comme une grande motivation à relever les différents défis qui incombent à l’équipe, une capacité d’autonomie et une certaine expérience sur l’environnement technique décrit. Une expérience dans un environnement bancaire et particulièrement sur les moyens de paiement est un plus. MISSIONS Être capable de : - - - - Opérer le suivi de production de différentes applications de notre périmètre en partenariat avec le reste de l’équipe Analyser/développer dans un environnement technique système diversifié (java, base de données, legacy et cloud) Etre proactif et autonome sur des sujets nécessitant investigation, recherche de process parfois méconnus, travail en équipe ou avec des équipes extérieures. Avoir des compétences en devops et environnements cloud COMPETENCES Connaissances techniques exigées : - - - - - Très bonne connaissance des systèmes diversifiés, développement java, base de données. Expérience sur le suivi de la production Capacité d’analyse Connaissances devops, outils associés Connaissance des technologies cloud Capacité comportementale : - - - Autonomie & proactivité Travail en équipe Motivation Connaissances optionnelles et appréciées : - - Connaissances applications legacy React / Spring boot / NodeJS NIVEAUX REQUIS Expérience Conception/Développement systèmes diversifiés correspondant à un niveau N2 ou N3 > 5 ans d’expérience.
Offre d'emploi
Ingénierie Production / Devops
Publiée le
Ansible
Jenkins
Kubernetes
12 mois
36k-39k €
340-370 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Deodis recherche un ingénieur Production / Devops dans l´objectif d´assurance d'un service d'assistance technique dans le cadre de la prise en charge des opérations d'intégrations applicatives sur des environnements Open (Unix (Linux) et Windows) et Cloud IBM. Dans une démarche DevOps, la prestation portera sur de la gestion de projets et le Run. Missions : Incidents : Traitement des Tickets Servicenow générés sur Alerting applicatif (Dynatrace) Résolution technico-fonctionnelle : correction des incidents. Pilotage et traitement du Backlog Incident applicatif Contribution à la résolution des problèmes Résolution à chaud de l’Incident – Niveau 1 & 2 Mise à jour de la base de connaissance Servicenow / Mise à jour des consignes Autres activités de Production : Analyse des changes (change coordinateur) / Validation de la conformité des changes : Responsabilité de bout en bout de la bonne exécution des Changes Communication à la DSI en cas de changes d’origine ITGP/BP²I pouvant impacter la DSI, y compris sur l’environnement dCloud. Mise en œuvre technico-applicative sur changes Réalisation des actions techniques de Renouvellement des certificats de type srv et dCloud. Assurance du support technique et fonctionnel aux Squads et utilisateurs DSI Supervision des composants techniques et fonctionnels de l’application. Utilisation au quotidien les Dashboards de Monitoring (dynatrace, Monitoring NG, etc.) spécifique au contexte applicatif Orchestration et géstion des différentes releases sur son périmètre Création et enrichissement du référentiel documentaire de l’application. Maintenir les procédures d’exploitation Vision globale de la chaîne applicative, y compris sur les briques qui ne sont pas opérées dans l’OPS. Réalisation des activités Patching en Production, gestion des vulnérabilités et traitement des non conformités Contribution au Plan de traitement de l’obsolescence Diffusion des météos du matin
Mission freelance
DELPHIX Expert DELPHIX/q
Publiée le
DevOps
6 mois
Paris, France
Télétravail partiel
DELPHIX Expert DELPHIX (Devops)- Dans le cadre d’un projet de mise en conformité règlementaire avec le RGPD, et plus particulièrement d’anonymisation des données à caractère personnel présentes dans les environnements de tests, je recherche un profil d’« Expert DELPHIX ». Les compétences attendues : Les compétences indispensables au projet pour remplir les responsabilités évoquées sont : - Expertise de développement de requêtes SQL - Expertise de développement de PowerShell Idéalement, une première expérience sur la solution DELPHIX est fortement souhaitable, mais une montée en compétence contextuelle est envisageable. Les autres compétences souhaitables portent sur SQL Server, Mongo DB, Maria DB, paramétrage REGEX & Java. Au-delà des compétences techniques, dans le contexte du projet, une expérience dans l’accompagnement d’une organisation dans la transformation et l’industrialisation des pratiques de test est recommandé. C’est une mission longue durée dans le 13°arrondissement avec 2 jours de télétravail.
Offre d'emploi
Expert DevOps - expert automatisation
Publiée le
Ansible
44k-52k €
Charenton-le-Pont, Île-de-France
Vos missions En tant que consultant(e) automatisation, vous serez amené(e) à : Participer à la définition et à l’évolution de l’architecture d’automatisation. Contribuer à l’amélioration continue de l’infrastructure Ansible Automation Platform. Développer et maintenir des playbooks , collections réutilisables , custom facts et inventaires dynamiques . Concevoir et industrialiser des pipelines CI/CD sur Jenkins et Bitbucket pour le code Ansible et les EE. Sécuriser les processus via des APIs et des pipelines CI/CD robustes. Promouvoir et faire évoluer les bonnes pratiques Ansible auprès des utilisateurs. Intégrer les principes DevSecOps dans le cycle de vie de l’automatisation. Collaborer avec les équipes internes pour comprendre les besoins et proposer des solutions adaptées. Documenter et transmettre les connaissances pour assurer la pérennité des solutions. Assurer une couverture opérationnelle de l’équipe entre 8h et 19h .
Mission freelance
Senior Devops
Publiée le
AWS Cloud
CI/CD
DevOps
12 mois
550-600 €
Paris, France
Télétravail partiel
Mission L’équipe Data est au cœur de nos stratégies d’investissement, exploitant une large gamme de sources de données pour générer des indicateurs diversifiés qui permettent d’obtenir de solides performances pour nos clients. En tant que membre de l’équipe Data Platform, votre mission sera de mettre en œuvre activement les directives et recommandations d’audit afin de sécuriser nos environnements de production. Principales tâches : En tant que Senior DevOps Engineer, vos principales missions seront : Séparation des environnements de production et de développement (gestion des droits, amélioration des tests), Gestion de la capacité de nos serveurs (y compris suivi et alertes), Industrialisation des tests de qualité des données, Amélioration de la gestion des versions (tests, versioning, etc.), Mise en place d’un plan de reprise après sinistre et de chaos engineering, Maintenance de plusieurs serveurs et assets existants (y compris les outils et pipelines CI/CD). Qualifications / Compétences requises Diplôme de niveau Licence ou Master en informatique, génie logiciel ou domaine similaire, Minimum 8 ans d’expérience en tant qu’ingénieur DevOps, dont au moins 4 ans sur des projets centrés sur la Data, Expérience approfondie en développement Python et maîtrise de la création d’applications évolutives, Expertise en pratiques DevOps et pipelines CI/CD pour améliorer les processus de déploiement, Expérience des frameworks Infra-as-Code, Excellentes compétences collaboratives et capacité à traduire des besoins utilisateurs complexes en solutions techniques efficaces, Bonne maîtrise de l’anglais (la documentation sera rédigée en anglais et certains utilisateurs de la Data Platform ne parlent pas français). Atouts supplémentaires : Expérience avec des frameworks de traitement de données tels que Pandas ou Spark, Expérience en développement produit agile et méthodologie Scrum, Compréhension des bonnes pratiques de sécurité et de conformité dans les environnements cloud. Environnement technologique : Sur site : OS REHL 7 à 9, shell, DevOps : Jenkins, SonarQube, Conda, Ansible, … Logiciels : Python, Rust (un plus), AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, …
Offre d'emploi
DevOps Kubernetes Engineer / SRE
Publiée le
Apache Airflow
Apache Kafka
CI/CD
3 ans
Paris, France
Télétravail partiel
Au sein d’une équipe d'expertise, vous intervenez en tant que DevOps / SRE Platform sur l'évolution et la maintenance d’une plateforme moderne orientée Big Data & Streaming. L’objectif est d’assurer la fiabilité, l’évolutivité et la sécurité de l’écosystème technique basé sur Kubernetes, Kafka et GCP. Responsabilités principales Migration Cloud & Conteneurs : Migration des composants depuis l’IaaS vers Google Cloud Platform (services managés) et Kubernetes (GKE). Administration Kubernetes & Operators : Gestion et maintenance de clusters Kubernetes (GKE) et déploiement des opérateurs critiques. Data Streaming & Kafka : Maintien de la plateforme Streaming temps réel basée sur Kafka. Orchestration & Pipelines : Administration du Cloud Composer (Airflow) et mise en place de pipelines d’ingestion de données. Infrastructure as Code & Sécurité : Déploiement d’infrastructures via Terraform, gestion du patch management et renforcement de la sécurité des composants. CI/CD & Automatisation : Maintenance et optimisation des pipelines CI/CD (Jenkins, GitLab-CI) et contribution à l’industrialisation des déploiements. Observabilité & Fiabilité : Mise en place et suivi du monitoring (Prometheus, Grafana), gestion proactive des incidents et amélioration continue de la disponibilité des services. Innovation & Support : Réalisation de POC sur de nouvelles technologies, support technique aux équipes de développement et accompagnement des équipes RUN.
Offre d'emploi
skiils | DevOps Kubernetes/GCP - Full remote (Maghreb)
Publiée le
Google Cloud Platform (GCP)
Kubernetes
3 ans
10k-26k €
100-280 €
Safi, Maroc
Télétravail 100%
Nous recherchons un DevOps Senior (H/F) d’un grand acteur international du retail. 🎯 L’objectif ? Contribuer à la construction, la fiabilité et l’industrialisation de la plateforme Data du groupe, en apportant ton expertise sur les environnements Kubernetes et Google Cloud Platform (GCP) . Tu évolueras dans un environnement technique exigeant et collaboratif, au cœur de la transformation data-driven de l’entreprise. 🚀 Tes missions principales : Participer à la construction et l’évolution de la plateforme Data sur GCP Mettre en place et maintenir les pipelines d’intégration et de déploiement continu (CI/CD) Assurer la stabilité, la sécurité et la performance de l’infrastructure Kubernetes Gérer les déploiements d’applications et services dans le cloud Automatiser les processus et améliorer la scalabilité de la plateforme Collaborer avec les équipes Data, Cloud et Sécurité pour garantir la cohérence globale des environnements Surveiller, diagnostiquer et résoudre les incidents liés à l’infrastructure Être force de proposition pour l’amélioration continue des outils et des pratiques DevOps 🔧 Environnement technique : Cloud & Infrastructure : Google Cloud Platform (GCP), Kubernetes (GKE) Outils CI/CD : GitLab CI, Jenkins, Terraform, Helm Monitoring & Logging : Prometheus, Grafana, Stackdriver Langages / Scripting : Bash, Python, YAML Messaging / Streaming : Kafka (atout apprécié, non obligatoire) Méthodologie : Agile / Scrum
Mission freelance
DevOps (Python / Java)
Publiée le
Automatisation
AWS Cloud
Azure
3 ans
Île-de-France, France
Télétravail partiel
Vous rejoindrez une équipe en charge des pratiques de développement, du Devops, du Cloud et du Numérique Responsable. Besoin : le client cherche jusqu'à 4 profils Devops avec la partie applicative ( Python ou java ) Compétences techniques recherchées : - Langages : Python et/ou Java. - CI/CD : GitLab CI, Jenkins, Azure DevOps… - Cloud & Infra : Azure, AWS ou GCP – Docker, Kubernetes, Terraform. - Monitoring : ELK, Prometheus, Grafana. - Pratiques DevOps : Infrastructure as Code, automatisation, observabilité. Connaissance du secteur assurance/banque ou forte appétence pour les métiers financiers. Bon relationnel, esprit collaboratif et sens de l’amélioration continue.
Offre d'emploi
Devops AZURE (H/F)
Publiée le
Ansible
Azure
Jenkins
3 ans
40k-45k €
400-440 €
Paris, France
Dans le cadre d’un projet stratégique au sein d’un grand groupe bancaire , nous recherchons un Ingénieur DevOps Azure confirmé pour renforcer les équipes Cloud & Automatisation à Paris . Poste à pourvoir immédiatement . Missions principales : Concevoir et maintenir les pipelines CI/CD . Automatiser les déploiements via Terraform , Ansible , Jenkins ou Azure DevOps . Gérer les environnements Azure (AKS, App Service, Key Vault, Monitoring). Contribuer à la sécurisation et la fiabilité des plateformes bancaires critiques. Compétences clés : Azure , Terraform , Ansible , Jenkins , XLR/XLD , Docker , Kubernetes . Scripting : PowerShell , Bash , Python . Expérience CI/CD, IaC et environnement réglementé (bancaire/financier). Profil recherché : Expérience confirmée en DevOps (3+ ans). Connaissance du secteur bancaire appréciée. Rigueur, fiabilité et esprit d’équipe. Disponibilité immédiate. 📍 Lieu : Paris 🕓 Démarrage : ASAP
Offre d'emploi
Tech Lead DevOps H/F
Publiée le
50k-65k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Tech Lead DevOps et/ou SysOps et/ou SRE expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Être garant de la qualité des livrables et le respect des délais • Assurer la montée en compétences des équipes • Implémenter des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser les PoV (Proof of Value) et les PoC (Proof of Concept) • Veiller à la bonne application des normes, standards et bonnes pratiques de JEMS sur l'ensemble du périmètre des réalisations techniques • Améliorer, enrichir, former et mettre en place le contrôle des normes, standards et bonnes pratiques de JEMS • Assurer la capitalisation au sein de JEMS : s'appuyer sur les bibliothèques de patterns et starters projets et les enrichir • Participer aux communautés technologiques de JEMS et/ou être référent partenaire Référence de l'offre : ejdkvdjyj2
Offre d'emploi
Ingénieur devops
Publiée le
DevOps
3 ans
62k-70k €
540-570 €
Île-de-France, France
Nous recherchons pour le compte de notre client grand compte un.e ingénieur Devops. Vos missions seront : - Gestion de la relation avec les équipes DSI et OPS en France et à l'international. - Etude et développement de solutions pour automatiser les actes techniques sur différents Cloud providers (BNPP et IBM) sur plateformes PaaS sur le Cloud IBM et sur le IaaS (Cloud interne et IBM). - Mise en place et maintien en condition opérationnelle de pipeline IaC basé sur Terraform. - Mise en place de pipeline CI/CD basé sur la plateforme DevSecOps du Groupe. - Rédaction des tests et réalisation des tests techniques de validation de bon fonctionnement. - Rédaction des documentations d'exploitation : dossier d'installation et d'exploitation. - Scripting d'outils d'exploitation. - Accompagnement des utilisateurs sur l'utilisation des outils : formation, support.. Interventions occasionnelles hors heures ouvrées pour la mise en production. Possible astreinte. Une très bonne connaissance de l'environnement de production technique et d'intégration applicative est demandée.
Offre d'emploi
DevOps Mobile CI CD
Publiée le
Gitlab
GitLab CI
Scripting
6 mois
40k-75k €
400-550 €
Montreuil, Île-de-France
Télétravail partiel
Gérer un projet d'accélération des livraisons en production des applications mobiles Mes Comptes et assurer la maintenance et les évolutions techniques de notre toolchain mobile. Les missions sont : Coordination des différentes équipes participant a ce changement, techlead, dev, QA, BA Suvi du reporting et la communication des différents chantiers Mise en place les améliorations, apporter des solutions, être moteur de ce changement Maintien et évolution de la toolchain mobile (GitHub, Bitrise) en étroite collaboration avec nos techlead et nos squads : - Gestion de projet - Communication et reporting (orale et écrite) - Github, Github Actions - Gitlab, gitlab CI - Bitrise (ou une autre solution CI/CD) - Scripting
Offre d'emploi
Expert Data Factory
Publiée le
Azure
Azure Data Factory
Azure DevOps
12 mois
60k-70k €
400-550 €
Paris, France
Télétravail partiel
🚀 CITECH recrute ! ✨ Si vous souhaitez mettre à profit vos compétences et accompagner un projet stratégique, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Expert Data Factory (H/F) 🏢 Présentation du client Notre client est un grand cabinet français reconnu pour son expertise pluridisciplinaire et son accompagnement stratégique auprès d’entreprises de toutes tailles. Dans le cadre du développement de son pôle Data, il souhaite renforcer son équipe avec un profil expérimenté capable de structurer et d’optimiser la gestion de la donnée au sein de son environnement Microsoft. Description du poste 💼 Contexte de la mission Au sein de l’équipe Data, vous interviendrez en tant qu’ Expert Data Factory afin d’assurer la fiabilité, la qualité et la valorisation des données. Vous aurez un rôle clé dans la conception, la transformation et l’agrégation de données provenant de multiples sources, tout en accompagnant la montée en compétences de deux collaborateurs plus juniors déjà en poste. 🚀 Missions principales Analyser, structurer et consolider les données issues de différents environnements, notamment Azure AD et diverses bases SQL. Mettre en place des processus de nettoyage, de contrôle qualité et d’agrégation des données . Concevoir et maintenir des pipelines de données robustes et performants. Garantir la qualité et la cohérence des données dans l’ensemble du système d’information. Participer à la gouvernance de la donnée et à l’amélioration continue des pratiques Data au sein de l’équipe. Encadrer et faire monter en compétences deux collaborateurs juniors sur les aspects techniques et méthodologiques. Collaborer étroitement avec les équipes IT et métiers pour comprendre les besoins et assurer la fiabilité des analyses.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
551 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois