Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 554 résultats.
Offre d'emploi
DevOps Kubernetes Engineer / SRE
Publiée le
Apache Airflow
Apache Kafka
CI/CD
3 ans
Paris, France
Télétravail partiel
Au sein d’une équipe d'expertise, vous intervenez en tant que DevOps / SRE Platform sur l'évolution et la maintenance d’une plateforme moderne orientée Big Data & Streaming. L’objectif est d’assurer la fiabilité, l’évolutivité et la sécurité de l’écosystème technique basé sur Kubernetes, Kafka et GCP. Responsabilités principales Migration Cloud & Conteneurs : Migration des composants depuis l’IaaS vers Google Cloud Platform (services managés) et Kubernetes (GKE). Administration Kubernetes & Operators : Gestion et maintenance de clusters Kubernetes (GKE) et déploiement des opérateurs critiques. Data Streaming & Kafka : Maintien de la plateforme Streaming temps réel basée sur Kafka. Orchestration & Pipelines : Administration du Cloud Composer (Airflow) et mise en place de pipelines d’ingestion de données. Infrastructure as Code & Sécurité : Déploiement d’infrastructures via Terraform, gestion du patch management et renforcement de la sécurité des composants. CI/CD & Automatisation : Maintenance et optimisation des pipelines CI/CD (Jenkins, GitLab-CI) et contribution à l’industrialisation des déploiements. Observabilité & Fiabilité : Mise en place et suivi du monitoring (Prometheus, Grafana), gestion proactive des incidents et amélioration continue de la disponibilité des services. Innovation & Support : Réalisation de POC sur de nouvelles technologies, support technique aux équipes de développement et accompagnement des équipes RUN.
Offre d'emploi
Développeur Java / DevOps AWS (salarié)
Publiée le
AWS Cloud
Azure DevOps
Java
40k-56k €
Île-de-France, France
Télétravail partiel
Au sein de l’équipe technique, vous participez à la conception, au développement et au déploiement d’applications Java hébergées sur AWS . Vous contribuez à l’industrialisation des processus DevOps (CI/CD, conteneurisation, infrastructure as code) et à la mise en place de solutions Cloud performantes et sécurisées. Concevoir, développer et maintenir des applications Java / Spring Boot . Participer à la conception des architectures Cloud AWS (ECS, Lambda, S3, RDS…). Mettre en place et maintenir les pipelines CI/CD (Jenkins, GitLab CI, GitHub Actions). Automatiser les déploiements et configurations via Ansible , Terraform ou CloudFormation . Superviser et améliorer les performances applicatives via Grafana , CloudWatch , ou Prometheus . Contribuer à la sécurité, la fiabilité et la scalabilité des environnements de production. Collaborer avec les équipes de développement, d’exploitation et d’architecture. Participer à la documentation technique et à la veille technologique DevOps/Cloud.
Mission freelance
DevOps (Python / Java)
Publiée le
Automatisation
AWS Cloud
Azure
3 ans
Île-de-France, France
Télétravail partiel
Vous rejoindrez une équipe en charge des pratiques de développement, du Devops, du Cloud et du Numérique Responsable. Besoin : le client cherche jusqu'à 4 profils Devops avec la partie applicative ( Python ou java ) Compétences techniques recherchées : - Langages : Python et/ou Java. - CI/CD : GitLab CI, Jenkins, Azure DevOps… - Cloud & Infra : Azure, AWS ou GCP – Docker, Kubernetes, Terraform. - Monitoring : ELK, Prometheus, Grafana. - Pratiques DevOps : Infrastructure as Code, automatisation, observabilité. Connaissance du secteur assurance/banque ou forte appétence pour les métiers financiers. Bon relationnel, esprit collaboratif et sens de l’amélioration continue.
Offre d'emploi
skiils | DevOps Kubernetes/GCP - Full remote (Maghreb)
Publiée le
Google Cloud Platform (GCP)
Kubernetes
3 ans
10k-26k €
100-280 €
Safi, Maroc
Télétravail 100%
Nous recherchons un DevOps Senior (H/F) d’un grand acteur international du retail. 🎯 L’objectif ? Contribuer à la construction, la fiabilité et l’industrialisation de la plateforme Data du groupe, en apportant ton expertise sur les environnements Kubernetes et Google Cloud Platform (GCP) . Tu évolueras dans un environnement technique exigeant et collaboratif, au cœur de la transformation data-driven de l’entreprise. 🚀 Tes missions principales : Participer à la construction et l’évolution de la plateforme Data sur GCP Mettre en place et maintenir les pipelines d’intégration et de déploiement continu (CI/CD) Assurer la stabilité, la sécurité et la performance de l’infrastructure Kubernetes Gérer les déploiements d’applications et services dans le cloud Automatiser les processus et améliorer la scalabilité de la plateforme Collaborer avec les équipes Data, Cloud et Sécurité pour garantir la cohérence globale des environnements Surveiller, diagnostiquer et résoudre les incidents liés à l’infrastructure Être force de proposition pour l’amélioration continue des outils et des pratiques DevOps 🔧 Environnement technique : Cloud & Infrastructure : Google Cloud Platform (GCP), Kubernetes (GKE) Outils CI/CD : GitLab CI, Jenkins, Terraform, Helm Monitoring & Logging : Prometheus, Grafana, Stackdriver Langages / Scripting : Bash, Python, YAML Messaging / Streaming : Kafka (atout apprécié, non obligatoire) Méthodologie : Agile / Scrum
Mission freelance
Data Platform Engineer - Terraform
Publiée le
CI/CD
DevOps
JIRA
6 mois
400-500 €
Paris, France
Télétravail 100%
Bonjour, Nou recherchons pour l'un de nos clients intégrateurs un ingénieur plateforme de données. Description du poste : En tant qu'ingénieur plateforme de données, vous êtes spécialisé dans la conception, le développement et la maintenance de l'infrastructure sous-jacente qui prend en charge les pipelines de données et les applications basées sur les données d'une organisation. Vos responsabilités sont hautement techniques et consistent à créer un écosystème de données robuste, évolutif et fiable.
Mission freelance
DEVELOPPEUR PHP
Publiée le
DevOps
Java
Oracle
1 an
Lille, Hauts-de-France
Télétravail partiel
Contexte : Dans le cadre du développement d’un produit back office dédié à la gestion des commandes web et magasins avec livraison web, nous recherchons un développeur PHP expérimenté pour renforcer l’équipe technique. Enjeux du projet : Le produit gère tout le checking des commandes web et magasins . Il est au cœur du processus de traitement des commandes omnicanales. Vos missions : Conception et modélisation des nouvelles fonctionnalités Développement backend en PHP Mise en place et gestion des bases de données (PostgreSQL / Oracle) Rédaction et optimisation de procédures stockées Tests, validation et mise en production Maintenance corrective et évolutive Participation aux activités DevOps
Offre d'emploi
Tech Lead DevOps H/F
Publiée le
50k-65k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Tech Lead DevOps et/ou SysOps et/ou SRE expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Être garant de la qualité des livrables et le respect des délais • Assurer la montée en compétences des équipes • Implémenter des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser les PoV (Proof of Value) et les PoC (Proof of Concept) • Veiller à la bonne application des normes, standards et bonnes pratiques de JEMS sur l'ensemble du périmètre des réalisations techniques • Améliorer, enrichir, former et mettre en place le contrôle des normes, standards et bonnes pratiques de JEMS • Assurer la capitalisation au sein de JEMS : s'appuyer sur les bibliothèques de patterns et starters projets et les enrichir • Participer aux communautés technologiques de JEMS et/ou être référent partenaire Référence de l'offre : ejdkvdjyj2
Offre d'emploi
Expert Data Factory
Publiée le
Azure
Azure Data Factory
Azure DevOps
12 mois
60k-70k €
400-550 €
Paris, France
Télétravail partiel
🚀 CITECH recrute ! ✨ Si vous souhaitez mettre à profit vos compétences et accompagner un projet stratégique, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Expert Data Factory (H/F) 🏢 Présentation du client Notre client est un grand cabinet français reconnu pour son expertise pluridisciplinaire et son accompagnement stratégique auprès d’entreprises de toutes tailles. Dans le cadre du développement de son pôle Data, il souhaite renforcer son équipe avec un profil expérimenté capable de structurer et d’optimiser la gestion de la donnée au sein de son environnement Microsoft. Description du poste 💼 Contexte de la mission Au sein de l’équipe Data, vous interviendrez en tant qu’ Expert Data Factory afin d’assurer la fiabilité, la qualité et la valorisation des données. Vous aurez un rôle clé dans la conception, la transformation et l’agrégation de données provenant de multiples sources, tout en accompagnant la montée en compétences de deux collaborateurs plus juniors déjà en poste. 🚀 Missions principales Analyser, structurer et consolider les données issues de différents environnements, notamment Azure AD et diverses bases SQL. Mettre en place des processus de nettoyage, de contrôle qualité et d’agrégation des données . Concevoir et maintenir des pipelines de données robustes et performants. Garantir la qualité et la cohérence des données dans l’ensemble du système d’information. Participer à la gouvernance de la donnée et à l’amélioration continue des pratiques Data au sein de l’équipe. Encadrer et faire monter en compétences deux collaborateurs juniors sur les aspects techniques et méthodologiques. Collaborer étroitement avec les équipes IT et métiers pour comprendre les besoins et assurer la fiabilité des analyses.
Offre d'emploi
Ingénieur devops - data
Publiée le
DevOps
3 ans
60k-65k €
400-550 €
Île-de-France, France
Nous recherchons pour le compte de notre client un ingénieur devops ayant des connaissances data (cassandra, Airflow,Spark,Starbust,Kafka,HDP). Vos mission seront : En BUILD : Capable de suivre les projets et de co-construire avec l’IT métier. Servir de point d’entrée OPS sur les projets. Réaliser tous les gestes techniques de mise en production (installation, mises à jour, création/mise à jour des environnements). Mettre en place l’exploitation applicative avant le passage en RUN. Conseiller et accompagner techniquement, tout en respectant les standards du groupe . En RUN : Gérer les incidents et les changements sur tout le périmètre de la squad. Identifier et mettre en œuvre des axes d’optimisation et d’industrialisation . Améliorer continuellement le monitoring et l’exploitation des applications . 2. Un état d’esprit Agile & DevOps Travailler en mode Agile (Scrum, SAFe) . Être dans une démarche DevOps (automatisation, CI/CD, monitoring, culture produit) Profil : Nous recherchons un profil capable de : Intervenir sur le cycle complet : de la construction (BUILD) à l’exploitation (RUN). S’intégrer dans une squad Agile. Automatiser, sécuriser et optimiser les déploiements/applications. Maîtriser les environnements hybrides : Cloud, Data, On-Prem. S’appuyer sur des outils DevOps modernes (CI/CD, Ansible, ArgoCD, Kubernetes, Docker, etc.) Technologie à maîtriser : Outils DevOps : Ansible, ArgoCD (ou GITOPS) Cloud / IaaS : Linux, Websphere, Autosys, CFT. Cloud / PaaS : Kubernetes, Docker, OpenShift, PostgreSQL, ExaCC. Cloud / Data : Spark, Starburst, Airflow. Data On Prem : HDP, Cassandra, Kafka. Outils de suivi : ServiceNow (SNOW), JIRA.
Offre d'emploi
Ingénieur devops
Publiée le
DevOps
3 ans
62k-70k €
540-570 €
Île-de-France, France
Nous recherchons pour le compte de notre client grand compte un.e ingénieur Devops. Vos missions seront : - Gestion de la relation avec les équipes DSI et OPS en France et à l'international. - Etude et développement de solutions pour automatiser les actes techniques sur différents Cloud providers (BNPP et IBM) sur plateformes PaaS sur le Cloud IBM et sur le IaaS (Cloud interne et IBM). - Mise en place et maintien en condition opérationnelle de pipeline IaC basé sur Terraform. - Mise en place de pipeline CI/CD basé sur la plateforme DevSecOps du Groupe. - Rédaction des tests et réalisation des tests techniques de validation de bon fonctionnement. - Rédaction des documentations d'exploitation : dossier d'installation et d'exploitation. - Scripting d'outils d'exploitation. - Accompagnement des utilisateurs sur l'utilisation des outils : formation, support.. Interventions occasionnelles hors heures ouvrées pour la mise en production. Possible astreinte. Une très bonne connaissance de l'environnement de production technique et d'intégration applicative est demandée.
Offre d'emploi
Developeur Java 8/11 Angular Devops Protocol FIX - Market execution
Publiée le
Angular
DevOps
Java
3 ans
50k-60k €
500-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Au sein de l'équipe IT Equity Market Transverse en charge des applications : - référentiel produits Equity : agrégation et centralisation des données de différents provider autour des produits equity) - application qui gère les descentes d'executions et les reportings associés) La mission sera en majeur sur d'executionet reporting. Le projet consiste à faire évoluer l'application en lien avec le changement de version du software Market access en amont avec descente des executions pour booking dans le système front Sophis Equity. Le projet nécessite une réécriture partielle de l'application sur les modules de connexions et aux exchange via protocole FIX pour récupération des exécutions marchés et broker.
Offre d'emploi
DevOps Mobile CI CD
Publiée le
Gitlab
GitLab CI
Scripting
6 mois
40k-75k €
400-550 €
Montreuil, Île-de-France
Télétravail partiel
Gérer un projet d'accélération des livraisons en production des applications mobiles Mes Comptes et assurer la maintenance et les évolutions techniques de notre toolchain mobile. Les missions sont : Coordination des différentes équipes participant a ce changement, techlead, dev, QA, BA Suvi du reporting et la communication des différents chantiers Mise en place les améliorations, apporter des solutions, être moteur de ce changement Maintien et évolution de la toolchain mobile (GitHub, Bitrise) en étroite collaboration avec nos techlead et nos squads : - Gestion de projet - Communication et reporting (orale et écrite) - Github, Github Actions - Gitlab, gitlab CI - Bitrise (ou une autre solution CI/CD) - Scripting
Offre d'emploi
Ingénieur DEVOPS / AIOPS Cloud – Projet Data & Machine Learnin
Publiée le
CI/CD
Large Language Model (LLM)
Terraform
3 ans
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre du développement de ses activités Cloud et Data, notre client — grand groupe international du secteur Assurance — recherche un Ingénieur DEVOPS / AIOPS afin de renforcer un équipage Agile en charge du RUN et de la mise en production de plateformes de Machine Learning (MLOps). Vous interviendrez dans un contexte Cloud hybride (on-premise / Kubernetes / OpenShift) et collaborerez étroitement avec les équipes Data Scientists, Machine Learning Engineers et Production IT . Vos missions : Intégré(e) au sein d’un équipage applicatif, vous aurez pour principales responsabilités : Participer au MCO des plateformes de Machine Learning (supervision, disponibilité, performances). Accompagner les Data Scientists et ML Engineers dans la mise en production des modèles et la gestion des environnements. Assurer le support N3 , l’analyse et la résolution d’incidents complexes. Contribuer à la mise en place et à l’évolution des chaînes CI/CD (Jenkins, GitLab). Automatiser les processus via Ansible, Terraform, scripts Shell/Python . Garantir l’ exploitabilité et la conformité des solutions (sauvegardes, monitoring, sécurité, documentation). Participer aux revues d’architecture et formuler des avis de production . Être force de proposition dans l’amélioration continue (AIOps, observabilité, automatisation). Prendre part aux cérémonies Agile/Kanban et aux opérations planifiées (HNO, astreintes).
Offre d'emploi
CDI - Expert Cloud / DevOps (H/F)
Publiée le
Ansible
Cloud
Dynatrace
Île-de-France, France
Télétravail partiel
I. Rôle et Objectif L'Expert Cloud / DevOps est le référent technique pour la Continuité d'Activité et l'Exploitation 24/7 des plateformes stratégiques de paiement et de connectivité (ex: SEPA Instant Payments). Il/Elle garantit la stabilité et la performance de l'environnement de Production, tout en accélérant l'automatisation et l'industrialisation via les pratiques DevOps et Cloud-Native. II. Missions Principales 1. Exploitation et RUN Assurer le suivi opérationnel 24/7 des plateformes (avec participation à la rotation des Astreintes HNO ). Garantir la Continuité de l'activité et être le point d'entrée unique pour la Production auprès de toutes les entités IT. Gérer de bout en bout les incidents, problèmes et demandes d'évolution (diagnostics, escalades, livraisons en production). Assurer le support applicatif et fonctionnel aux utilisateurs. 2. Expertise Technique et Industrialisation Référent technique sur la gestion des certificats et l'ensemble de la chaîne DevOps CI/CD (ArgoCD, Ansible Tower, Digital AI, Gitlab CI, etc.). Proposer et réaliser des optimisations (automatisation, simplification, standardisation). Construire et piloter les Dashboards de Monitoring (Kibana, Sysdig, Dynatrace) pour la surveillance proactive. Gérer les environnements Production et Hors Production. Maintenir une documentation d'exploitation rigoureuse (DE/DI, PIR, Base de connaissances).
Mission freelance
Consultant Data Engineering & Support Reporting Réglementaire
Publiée le
Data quality
DevOps
Finance
12 mois
Paris, France
Télétravail partiel
Le bénéficiaire recherche un(e) consultant(e) pour accompagner ses équipes en charge du reporting réglementaire et de la supervision des chaînes de production de données . L’objectif : garantir la fiabilité, la qualité et la conformité des flux de données réglementaires, dans un environnement complexe et fortement orienté Big Data . Volet Data Engineering Assurer le bon acheminement quotidien des données dans les applications et systèmes de contrôle (Datawarehouse). Suivre et améliorer la qualité des données : complétude, exactitude, ponctualité (accuracy, timeliness, completeness). Concevoir et implémenter des pipelines de données inter-applications et inter-environnements, afin d’améliorer la qualité et la fiabilité du reporting réglementaire. Volet Support et Supervision Fournir un support technique et fonctionnel transverse , couvrant différents métiers, applications et technologies. Assurer le monitoring des chaînes de reporting et le traitement des anomalies (flux d’opérations, data quality, etc.). Suivre la performance et l’efficacité des chaînes réglementaires (timeliness, complétude…). Participer aux task forces de reprise ou de traitement de stock (scripting, SQL, automatisation). Réaliser des analyses fonctionnelles et techniques sur les rejets liés aux opérations ou aux flux métiers.
Mission freelance
Ingénieur Cloud - Intégration AWS
Publiée le
AWS Cloud
CI/CD
DevOps
12 mois
420-480 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Contexte de la mission: Notre client renforce ses équipes techniques autour de l’application iQ , dans un contexte de livraison de fin d’année et de montée en puissance sur le cloud AWS . L’objectif est d’accompagner la mise en production des développements, d’automatiser les déploiements et de garantir la qualité technique des livraisons. La mission s’inscrit dans un environnement en pleine réorganisation , avec de nouvelles équipes qui viendront se greffer courant novembre. Une internalisation à moyen terme est envisagée pour les profils performants et autonomes. Missions principales: Prendre en charge la livraison et l’intégration des développements réalisés par les équipes applicatives iQ Assurer les tests techniques , le déploiement sur les environnements (préprod, monop, prod) Apporter un support technique aux équipes de développement, QA et production Contribuer à l’ automatisation et à l’ évolution des pipelines de déploiement Intervenir sur la configuration et l’exploitation des environnements AWS Debugger les incidents techniques liés aux livraisons et à la production Documenter les process et participer à l’amélioration continue Travailler en étroite collaboration avec le Tech Lead , tout en gagnant progressivement en autonomie Environnement technique: Cloud : AWS (IAM, EC2, S3, CloudFormation, etc.) Automatisation / CI-CD : scripting (Bash, Python ou équivalent), pipelines de déploiement Outils DevOps : GitLab / Jenkins / Terraform (selon stack FDJ) Support & monitoring : outils d’intégration continue, logs applicatifs, supervision
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
554 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois