Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 973 résultats.
Freelance

Mission freelance
Architecte technique

CAT-AMANIA
Publiée le
Cloud
DevOps
Git

1 an
100-450 €
Villeneuve-d'Ascq, Hauts-de-France
Au sein de l’équipe Core Techs, vous intervenez comme architecte cloud et platform engineer au service des équipes de développement de la direction. Votre rôle consiste à concevoir, mettre en œuvre et maintenir des architectures cloud robustes, sécurisées et scalables sur Google Cloud Platform, en vous appuyant sur des environnements Cloud Run et Kubernetes. Vous accompagnez les équipes produits dans leurs choix d’architecture et vous assurez de la cohérence globale du SI cloud. Vous contribuez activement à la dev platform mise à disposition des équipes, en concevant et en maintenant des briques transverses permettant l’adoption fluide des pratiques DevOps : - chaînes CI/CD industrialisées, - Infrastructure as Code (Terraform, équivalent), - déploiement continu basé sur des approches GitOps, - gestion sécurisée des secrets, - observabilité (logs, métriques, traces), - gestion des images de conteneurs, charts Helm et dépôts binaires. Vous êtes garant de la qualité, de la sécurité et de l’industrialisation des solutions proposées, avec une forte exigence sur l’automatisation, la standardisation et la résilience. Vous privilégiez systématiquement des outils open source, en évaluant leur pertinence, leur maintenabilité et leur intégration dans l’écosystème existant. Enfin, vous jouez un rôle clé de référent technique et de facilitateur : documentation des patterns, partage de bonnes pratiques, accompagnement des équipes et contribution à l’amélioration continue des standards d’architecture cloud et de delivery.
Freelance
CDI
CDD

Offre d'emploi
Expert nouvelles technos (IA, Cloud...) - Secteur Industrie

OCTOGONE
Publiée le
BI
Preuve de concept (POC)

2 ans
Hauts-de-Seine, France
Objectif : Accélérer les projets et augmenter la valeur métier des solutions en explorant et en prototypant de nouvelles technologies (IA, Data/BI) et méthodes (Agilité). Attendus : Des prototypes et "Proof of Concepts" (PoC), des tableaux de bord décisionnels (Power BI), un accompagnement (coaching) des équipes à l'agilité, et des études de veille technologique. Évaluer la pertinence de nouvelles technologies pour le client et construire des environnements de démonstration pour les métiers. Accompagner les projets dans l'adoption de ces nouvelles technologies.
Freelance

Mission freelance
Data Engineer python/ Big Data/ AWS/ Redshift/ Linux / Energie (H/F)

Octopus Group
Publiée le
Amazon Redshift
API
AWS Cloud

6 mois
500-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans l'énergie, un data Engineer Objectifs : Participer au développement des assets de la nouvelle plateforme de données. Participer au cadrage et au lancement des projets d'ingénierie et d’intelligence artificielle. Prise en main des sujets pilotes et d’assurer le Run La conception, la modélisation et l’optimisation des requêtes Redshift est un point clé dans cette mission Missions : Vous participer à la construction de la data plateform dans sa deuxième phase permettant de consolider le socle et mettre à disposition les moyens technique pour exploiter la donnée Vous participez à l’étude opérationnelle de cadrage et d’architecture en anticipant les différentes contraintes avec les référents de l’équipe. Vous serez amené à réaliser des POC et de spiker le backlog. Vous complétez l’équipe avec vos compétences en ingénierie de données et en développement (scripting python, d’expertise sur les API, les tests, les bonnes pratiques, etc.) Vous consacrer votre temps à travailler avec un squad Data Métier, de proposer des solutions technique pour les clients associé, d’assurer le Run et de développer la plateforme associée, et, ce, toute en respectant les consignes d’architecture Participer à la mise en place des projets d’AI engineering - Savoir maîtriser les coûts des services est un Must pour ce poste et être force de proposition
Freelance

Mission freelance
Ingenieur Data RH

Comet
Publiée le
Azure Data Factory
BI
Databricks

12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance

Mission freelance
Consultant IFS Cloud Finance & Intégration ou Consultant ERP IFS / E-invoicing

UTALENT
Publiée le
Finance
IFS Cloud

6 mois
France
On recherche un profil Consultant Fonctionnel/Technique IFS Cloud avec une forte composante intégration: Compétences IFS Cloud : Module Finance IFS Cloud (comptabilité fournisseurs/clients) Module IFS Connect (flux d'échange, connecteurs) Idéalement : expérience sur le module E-invoice ou facturation électronique dans IFS Intégration & API : Développement et consommation d'API REST Expérience avec un ESB (Boomi est un vrai plus, sinon MuleSoft, Talend, etc.) Connaissance des flux EDI/XML/JSON Compétences fortement souhaitées Connaissance du cadre réglementaire facturation électronique française (réforme 2026, PDP, PPF, Chorus Pro) Expérience avec un PDP (Flowie, Chorus, Yooz, Basware…) Notions de Master Data Management Environnement industriel (manufacturing, supply chain)
Freelance

Mission freelance
Data Analyst senior (H/F)

Insitoo Freelances
Publiée le
Google Cloud Platform (GCP)
JIRA
Microsoft Power BI

2 ans
400-460 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analyst senior (H/F) à Hauts-de-France, France. Les missions attendues par le Data Analyst senior (H/F) : Analyse et modélisation • Analyser les besoins métiers et fournir des recommandations basées sur les données. • Mener des analyses exploratoires pour détecter des tendances et opportunités. Production d’outils d’aide à la décision • Développer des dashboards et outils de visualisation interactifs. • Standardiser les processus de gouvernance des données sur les fronts data. Stratégie et gouvernance • Définir les bonnes pratiques en matière d’accès aux données (Report, Dashboard, Self Service Data…) • Assurer la conformité des analyses aux standards définis par l’entreprise. Accompagnement des équipes • Sensibiliser les équipes métiers à l’exploitation des données. • Former les collaborateurs aux outils de visualisation et d’analyse. Compétences • Analyse : Exploration de données, modélisation prédictive, segmentation. • Techniques : SQL, Python, R, Power BI. • Gouvernance : Qualité des données, standardisation. • Communication : Vulgarisation des résultats analytiques. • Expérience utilisateur : UX/UI, storytelling, accessibilité, Recueils feedback, Design System Indicateurs de performance • Taux de réutilisation des analyses. • Temps moyen de mise en production. • Impact des analyses sur la prise de décision. • Qualité et adoption des outils de visualisation. Data Analyste avec 4 à 5 ans d’expérience minimum dans le domaine de la Supply Chain Solides compétences dans l’analyse, la structuration des données mais également dans la production de KPI et tableaux de bord Capacité à travailler en interaction forte avec les équipes Métiers et Contrôle de Gestion Modalités · Présence sur site obligatoire du lundi au mercredi Environnement technique Cloud & Data : GCP (BigQuery, Dataform) DataViz : PowerBI Gouvernance & Qualité : DataGalaxy Documentation & Pilotage : Confluence, JIRA (Scrum)
Freelance
CDI

Offre d'emploi
Ingénieur Kubernetes (H/F)

QODEXIA
Publiée le
Ansible
AWS Cloud
Confluence

10 jours
Marseille, Provence-Alpes-Côte d'Azur
Dans le cadre du renforcement de l’équipe Container Engineering chez l’un de nos clients grand compte, nous recherchons un Ingénieur Kubernetes confirmé. ⚠ La maîtrise de Kubernetes est obligatoire. Merci de postuler uniquement si vous disposez d’une expérience significative et opérationnelle sur Kubernetes en environnement de production. Compétences requises : Excellente maîtrise de Kubernetes ( impératif ) Outils CI/CD : GitLab, Nexus, Artifactory Automatisation : Terraform, Ansible, scripting Outils de productisation : JIRA, Confluence Environnements Linux : RedHat, Ubuntu Connaissances en développement Compétences AWS appréciées
Freelance

Mission freelance
DevSecOps AWS

Tenth Revolution Group
Publiée le
AWS Cloud

3 mois
160-650 €
Paris, France
Dans un contexte de forte accélération produit et de mise en conformité sécurité , notre client renforce son équipe plateforme avec un DevSecOps AWS senior pour sécuriser et industrialiser ses pipelines CI/CD et ses environnements cloud. Missions principales Concevoir et maintenir des pipelines CI/CD sécurisés (GitLab CI / GitHub Actions / Jenkins) Implémenter une approche Security by Design sur les environnements AWS Déployer et maintenir l’ Infrastructure as Code (Terraform principalement) Intégrer des outils de sécurité dans les pipelines : SAST / DAST Scan de dépendances Scan d’images Docker Renforcer la gestion des secrets & des identités (IAM, Secrets Manager, Vault) Participer à la mise en conformité ISO 27001 / SOC2 / RGPD Travailler en étroite collaboration avec équipes Dev, Sec & Platform Environnement technique Cloud : AWS (EKS, EC2, RDS, S3, IAM, CloudTrail, GuardDuty) CI/CD : GitLab CI ou GitHub Actions IaC : Terraform (mandatory) Conteneurs : Docker, Kubernetes (EKS) Sécurité : Trivy, SonarQube, Snyk, OWASP ZAP, AWS Security Hub Monitoring : Prometheus, Grafana, CloudWatch
Freelance
CDI

Offre d'emploi
Expert Sécurité Infrastructures, Identités & Cloud

NEWRAMA
Publiée le
Active Directory
ADFS
Azure Active Directory

3 ans
Paris, France
Au sein d'une Direction des Infrastructures d'un grand groupe, vous occupez un poste transverse alliant expertise technique opérationnelle et pilotage de projets de sécurisation. Vous êtes le garant de la résilience des socles technologiques et de la robustesse des accès, dans un contexte de transformation vers le Cloud hybride. Vos Missions Principales1. Expertise Identités & Accès (IAM & Cloud) Administration avancée des environnements d’identités hybrides : Active Directory (on-premise) et Microsoft Entra ID (Azure AD). Sécurisation des accès : Mise en œuvre et optimisation du MFA, de l’accès conditionnel et des solutions de gestion des comptes à hauts privilèges (PIM/PAM). Gouvernance : Pilotage du cycle de vie des identités (IAM) et gestion des fédérations d’identités (SSO, SAML, OAuth). 2. Sécurité des Infrastructures & Hardening Audit et remédiation : Analyse de la configuration AD et des socles systèmes pour identifier les vulnérabilités et appliquer les bonnes pratiques de durcissement (Hardening). Sécurité Systèmes : Gestion des politiques de groupes (GPO), de la PKI et sécurisation des environnements de virtualisation. Maintien en Condition de Sécurité (MCS) : Suivi des vulnérabilités, déploiement des correctifs et participation active au renforcement de la posture Cyber du groupe. 3. Pilotage de Projets Systèmes & Réseaux Coordination : Pilotage de chantiers techniques complexes liés à l’évolution des infrastructures réseaux et systèmes. Conception : Rédaction des dossiers d'architecture, des procédures d'exploitation et de la documentation de sécurité. Interface : Collaboration étroite avec les équipes de production, le SOC et les responsables métiers pour garantir l’alignement des projets avec la politique de sécurité (PSSI).
CDI

Offre d'emploi
Chef de Projet Technique Infrastructure & Cloud H/F

█ █ █ █ █ █ █
Publiée le
Kubernetes
Linux

Niort, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Architecte DATA - Paris

Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services

12 mois
450-500 €
Paris, France
Recherche d'un architecte Data expérimenté pour renforcer la maîtrise technique d’un projet DataCloud. Contexte : Un interne partira le 1er avril 2026, nécessitant son remplacement pour assurer la continuité du projet. Mission : Analyser les besoins et usages en données des différentes unités métier de l’entreprise. Recommander des solutions adaptées de stockage et de gestion de Big Data. Participer à la conception de l’architecture de la plateforme DataCloud. Contribuer à l’amélioration de l’observabilité de la plateforme. Implémenter la plateforme ainsi que les outils associés. Assurer la maintenance opérationnelle continue de la plateforme. Garantir la sécurité des accès et de l’ensemble de la plateforme. Définir et mettre en place une stratégie de monitoring des coûts et d’optimisation des ressources Azure. Activités : Participer aux décisions de design technique (Design Authority). Contribuer aux travaux du Comité d’Architecture. Rédiger et relire la documentation technique ainsi que les présentations d’architecture. Animer et contribuer aux ateliers d’instruction, notamment pour la construction et la maintenance du socle technique (infrastructure, FinOps, habilitations, conformité, CI/CD). Contribuer à l’automatisation des déploiements et à la gestion du cycle de vie de la plateforme. Surveiller le comportement et la performance de la plateforme. Participer à la résolution des incidents opérationnels. Produire des KPI pour suivre la performance et la consommation des ressources. Informations complémentaires clients : Localisation idéale : Dijon, Châlons-en-Champagne, Paris, Nantes ou Limoges. Expérience requise : minimum 5 ans dans le domaine de la Data. Budget prestataire : TJM de 500€, à négocier selon profil. Début souhaité : dès que possible, en veillant à effectuer un transfert de compétences avec le précédent avant le 1er avril 2026. Profil recherché : Un architecte opérationnel, capable de réaliser concrètement les actions, avec une forte implication technique. Les soft skills (esprit d’équipe, autonomie, sens de la communication) sont également essentiels pour réussir cette mission.
CDI

Offre d'emploi
Ingénieur DevOps F/H

berix
Publiée le
DevOps

40k-50k €
Rennes, Bretagne
En collaboration avec les équipes de développement et le PO, vous êtes le garant de la scalabilité, de la sécurité et de l’automatisation. Vos Missions Clés : Architecture & Infrastructure as Code (IaC) : Concevoir et déployer des architectures Cloud robustes et évolutives (AWS, Azure ou GCP) Industrialiser le provisionnement des environnements via Terraform ou Ansible Gérer l’orchestration des conteneurs avec Kubernetes en production. Assurer la sécurité des infrastructures (DevSecOps) et la gestion des accès (IAM, Vault). Automatisation & CI/CD : Construire et optimiser les pipelines d’intégration et de déploiement continu (GitLab CI, Jenkins) Réduire le « Time-to-Market » en automatisant les tests, les builds et les releases Garantir des déploiements sans interruption de service Observabilité & Fiabilité (SRE) : Mettre en place le monitoring, le logging et l’alerting (Prometheus, Grafana, ELK, Datadog) Analyser les performances systèmes et applicatives pour anticiper les goulots d’étranglement Participer à la gestion des incidents pour améliorer la résilience globale Support : Accompagner les développeurs dans l’appropriation des outils DevOps et des conteneurs (Docker) Promouvoir les bonnes pratiques Ops (ateliers, documentation)
Freelance

Mission freelance
INGENIEUR DE PRODUCTION VTOM sénior H/F

Cheops Technology
Publiée le
Apache
AWS Cloud
CFT (Cross File Transfer)

1 an
400-450 €
Saint-Denis, Île-de-France
Nous recherchons pour un de nos clients un ingénieur VTOM H/F: Intégrer et déployer en méthode AGILE les évolutions de la ligne de Service Ordonnancement (VTOM). Préparer la mise en exploitation des évolutions ou d’une évolution d’application dans un système d’information tout en s’attachant à vérifier que les applications insérées dans le système d’information fonctionnent conformément aux attentes techniques et métiers, et que les procédures d’exploitation sont conformes aux standards établis. Gérer la relation avec les Clients et Projets Applicatifs en vue de garantir et améliorer la qualité des services de production et d’améliorer globalement les services de la ligne de Service ordonnancement Assure la maintenance et l’évolution des plateformes VTOM. •Créer/maintenir les scripts nécessaires pour l’ordonnancement. •Créer et encapsuler des scripts fonctionnelles •Paramétrer les jobs VTOM •Préparer la télédistribution en production •Maintenir en condition opérationnelle des chaines d’ordonnancements et des plateformes. •Accompagner les solutions métiers pour la rédaction de leur plan d’ordonnancement. •Assister et conseiller les équipes projets sur les différentes solutions pour leur ordonnancement applicatif. •Participer à la définition des architectures techniques •Définir / supprimer / modifier les plans d’ordonnancement •Maintenir les documentations •Participer à la conception des feuilles de route techniques des plateformes Environnement fonctionnel et technique : Environnement : Hébergement Datacenter et cloud (Aws, Azure) SGBD Oracle, Micrososft Sql Server, Postgresql, Ingres 9.2 sur Solaris , NoSQL Couchbase, Redis, MONGODB, PAAS SGBD (AWS et Azure) Serveurs Unix Solaris / AIX, Linux Suse / Red Hat / Centos / Ubuntu, Windows Server Middlewares Apache, Tomcat, Weblogic, CFT, MQ Server, SFTP, JMS, VTOM, suite logicielle TIBCO, Networker, Oracle Tuxedo Plateformes/ logiciels / Outils Teraform, Jenkins, Ansible, squash TM, Postman, Docker, Kubernetes, Databricks, Script Shell, Python Supervision Nagios, Datadog, SpluNK
Freelance

Mission freelance
Consultant Fonctionnel IFS – Module RH & Gestion des Droits (F/H)

HAYS France
Publiée le
ERP
IFS Cloud

1 an
400-550 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre de l’évolution et de la sécurisation de son environnement IFS, notre client basé à Aix-en-Provence recherche un(e) Consultant(e) Fonctionnel(le) capable d’intervenir à la fois sur le module RH et sur la gestion des droits IFS , avec un volume important de développements spécifiques à sécuriser. La mission s’inscrit dans la durée, avec un engagement prévu jusqu’à fin 2026 . Missions principales 1. Périmètre RH IFS Structuration et gestion de l’ organisation RH (unités, postes, structures). Support sur les processus de recrutement . Mise en place, optimisation et suivi des workflows RH . Analyse et sécurisation fonctionnelle des données RH . Collaboration avec les équipes métiers et IT pour garantir la cohérence des processus RH. 2. Gestion des droits & sécurité IFS (Cœur de mission) Paramétrage des roles , permission sets , règles d’accès et restrictions. Gestion de la sécurité autour d’un volume important de développements spécifiques (custom pages, custom events, custom lobbies). Mise en conformité des accès selon les règles internes et standards de sécurité. Réalisation de tests fonctionnels approfondis (UAT, tests de régression, tests de sécurité). Documentation des règles d’accès, impacts fonctionnels et scénarios de tests. Analyse des interactions entre modules afin d’assurer la bonne cohérence des droits. Support aux équipes techniques en cas d’ajouts ou modifications de droits.
Freelance
CDI

Offre d'emploi
Architecte Cloud KUBERNETES/OPENSHIFT

VISIAN
Publiée le
Kubernetes
Openshift

1 an
Île-de-France, France
Contexte Une organisation spécialisée dans les offres de containerisation on-prem Kubernetes et Openshift en mode managé propose également des landing zones Cloud public permettant aux entités de consommer les produits EKS/GKE en toute autonomie. Des réflexions sont en cours pour proposer un modèle alternatif d'offre de conteneurs managés sur cloud public sur les bases d'EKS ou GKE. Objectifs de la Mission L'objectif est de : Étudier comment se déploie un Kong sur Openshift Adapter l'offre Kong sur Kubernetes, existante, sur un Openshift Mettre à jour le GitOPS Engine de la squad APIM afin de pouvoir déployer Kong de manière automatisée sur Openshift Posture : Mission exploratoire et conceptuelle avec un attendu de delivery. Finalité de la Mission Qualifier et prioriser les prérequis nécessaires au déploiement de Kong sur Openshift Formaliser au niveau Low Level Design les options de déploiement en fonction des contraintes du produit et de l'offre APIMNG existante sur Kubernetes (Livrables de la prestation) Décider : Go/No Go/MVP, périmètre cible, roadmap et modalités de mise en œuvre si et seulement si la valeur est démontrée. Objectifs Opérationnels Conduire des assessments techniques et fonctionnels auprès d'un noyau de 2 entités pilotes (nombre susceptible d'évoluer), et élargir si nécessaire. Cartographier : architectures actuelles, pratiques d'exploitation, zones de friction (sécurité, réseau, observabilité, support, RACI, compliance, coûts). Comparer la couverture actuelle et les attentes internes (SLO/SLA, posture de conseil, run/SRE, sécurité, gouvernance). Proposer des scénarios : accompagnement ciblé, co-managé, managé - avec périmètre, responsabilités, niveaux de service Éclairer la décision par une analyse technique, organisationnelle, financière (TCO/FinOps) et réglementaire. Périmètre d'Analyse Openshift version 4.19/4.20 Architecture et landing zones : comptes/projets, VPC/VNet, sous-réseaux, connectivité hybride, multi régions Kubernetes opensource : lifecycle cluster/node pools, multi tenancy (namespaces/projects), isolation, autoscaling Sécurité et conformité : IAM, RBAC, OPA/Gatekeeper, secrets management, image signing, supply chain, PSA, network policies, chiffrage (au repos/en transit), journalisation/traçabilité Observabilité & opérations : monitoring, logging, APM, SLO/SLA, politique de rétention des logs et métriques, alerting, on call, gestion des incidents/problèmes/changes, backups/DR CI/CD & policy-as-code : pipelines, qualité, sécurité, promotion, contrôles Coûts & FinOps : modélisation TCO, refacturation interne (ex. par vCPU/heure, par cluster/namespace), optimisation, quotas/limites Gouvernance & modèle de responsabilité : RACI partagé avec CSP/entités, périmètre support (L1/L2/L3), posture de conseil, cibles d'autonomie Livrables Attendus HLD + LLD Plateformes Openshift avec le produit APIMNG (KONG) installé Chaîne CI/CD de déploiement Comptes rendus détaillés des assessments incluant synthèse des besoins et points de friction Dossier d'exploitation RACI Documentations techniques Coûts et synthèse des points d'attention, friction d'une migration Kube vers Openshift pour Kong Déroulé et Jalons Phase 1 - Cadrage & Préparation Cadrage des objectifs et du périmètre ; identification des entités pilotes et des interlocuteurs clés Méthodologie d'assessment, grilles d'entretien, supports de communication Plan de conduite du changement et canaux de feedback Rapport de synthèse, décision (Go/No Go/MVP) et roadmap Architecture de référence (si Go/MVP), critères d'éligibilité et de succès Restitution aux parties prenantes (exécutif et technique) Phase 2 - Build Déploiement de l'offre APIMNG sur Openshift Phase 3 - Automatisation Modification des chaînes CI/CD pour intégrer le déploiement sur Openshift Profil Recherché Expérience 7+ ans en architecture cloud et containers ; missions de conseil/assessment réussies Expertise confirmée sur Amazon EKS et Google GKE ; Kubernetes et écosystème (networking, sécurité, observabilité, CI/CD) Solide expérience hybride on-prem / cloud et compréhension des modèles d'exploitation internes (infogérance, SRE, RACI) Connaissance des exigences du secteur bancaire (sécurité, conformité) [un plus] Connaissance des API Management avec de l'expérience sur du déploiement d'APIM (Kong fortement recommandé et apprécié) Compétences Techniques AWS/GCP (IAM, networking, monitoring, storage, backup/DR) Kubernetes : RBAC, PSA/PSS, OPA/Gatekeeper/policy as code, network policies, secrets, image registry/signing, autoscaling Openshift Observabilité : logs, métriques, traces ; politiques de rétention ; SLO/SLA ; runbooks Sécurité/compliance – si nécessaire : contrôle d'accès, chiffrement, traçabilité, audits ; PCI DSS, 2SR, RGPD (si applicable) FinOps/TCO : modélisation de coûts, refacturation, quotas/limites Compétences Fonctionnelles & Posture Cloud Solution Architect : traduction des besoins métiers en architectures techniques et modèles de service Maîtrise des méthodologies d'assessment ; synthèse claire et actionnable Excellente communication orale/écrite ; conduite d'ateliers/entretiens Posture de conseil - influence, pédagogie, capacité à challenger utilement Autonomie, rigueur, orientation résultat ; adaptabilité aux contraintes bancaires Certification EKS/GKE non obligatoire ; ce sont l'expérience et la posture qui priment.
Freelance
CDI
CDD

Offre d'emploi
Administrateur DBA Production Expert

KEONI CONSULTING
Publiée le
AWS Cloud
Nosql
Python

18 mois
20k-60k €
100-520 €
Lille, Hauts-de-France
CONTEXTE l’administrateur de bases de données (DBA) prend en charge des projets techniques tout en contribuant au maintien en condition opérationnelle des environnements SGBD relationnels et NoSQL sur notre Cloud (AWS / MongoDB Atlas). Nous recherchons une personne disposant d’une très bonne maîtrise des concepts SGBD, d’une connaissance approfondie du Cloud AWS, ainsi que d’un solide bagage en développement et en automatisation des systèmes (Python, Terraform, Git). MISSIONS - Être le contact privilégié sur la partie SGBD pour des projets techniques - Mise au point d’outils d’industrialisation, d’automatisation et délégation pour rendre autonome les factories et le pilotage sur des tâches SGBD - Contact régulier avec les architectes, développeurs et chefs de projets - Organisation, réalisation ou délégation des opérations de maintenance technique (type bascule cluster ou architecture répliquée, …) - Optimisations des performances et vigilance sur le capacity planning et la frugalité des environnements - Passage de livraisons applicatives et traitement des demandes courantes - Montée de versions SGBD ; application des patchs de sécurité, upgrade version majeure - Création et duplication d’environnements SGBD (instances / bases / schéma) - Suivi d’incidents avec les supports Editeur (Ex : Oracle Corp, Mongo Inc.) - Suivi des sauvegardes et tests de restauration - Mise en place de la supervision et test d’alerting - Rédaction de procédure pour enrichir la base de connaissances de l’équipe - Assurer une veille technologique : apporter une connaissance des pratiques et technologies émergentes - Astreintes et opérations en heures non ouvrées à prévoir. Astreintes obligatoires à la grille achat (1 semaine / mois lundi>dimanche) Spécificités Cloud - Intégrer de nouvelles solutions Cloud (DynamoDB, DocumentDB, RDS, etc.) au catalogue de service, en mettant au point les parties supervision, sauvegardes, monitoring, mise en production, etc. - Accompagner les factories : conseils sur les traitements applicatifs, le déploiement, l’exploitabilité et le traitement des alertes. Interactions : Equipes d’Exploitation, Factories, Architectes IT, Sécurité, CDP, Observabilité Livrables • Prise en charge des projets techniques tout en participant au maintien en condition opérationnelle des environnements • Mise au point d’outils d’industrialisation, d’automatisation et délégation pour rendre autonome les factories • Passage de livraisons applicatives et traitement des demandes courantes • Suivi d’incidents avec les supports Editeur (Ex : AWS, Mongo Inc.) • Suivi des sauvegardes et tests de restauration • Mise en place de la supervision et test d’alerting • Rédaction de procédure pour enrichir la base de connaissances de l’équipe • Assurer une veille technologique : apporter une connaissance des pratiques et technologies émergentes Le profil recherché ... ... connait le SQL / NoSQL ... connait l’environnement et les différentes technologies de DB sur le cloud AWS … peut nous apporter son expertise technique pour challenger des projets structurants ... est en mesure de nous accompagner dans le développement Infra As Code de nos solutions (Terraform, Ansible, Python) • SQL/noSQL • AWS • InfraAsCode (Python / Terraform / Git) • Architecture applicative • Connaissance en production • Bonne capacité à travailler en équipe • Force de proposition • Capacité de coordination • Autonomie Compétences clés : Obligatoire : Python, Terraform, AWS, Aurora PostgreSQL, Mongodb, Gitlab, Connaissance production.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

4973 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous