Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 123 résultats.
CDI

Offre d'emploi
Architecte Technique Système / Architecte Solution (H/F)

Publiée le
Architecture
Azure
Conception

48k-55k €
Valence, Auvergne-Rhône-Alpes
Télétravail partiel
Définir, concevoir et documenter les architectures techniques, aussi bien en phase d’avant-vente que lors de la mise en œuvre des projets, tout en garantissant performance, sécurité, disponibilité et respect des contraintes budgétaires. Vous rejoignez une organisation intervenant sur des projets complexes, incluant de grands programmes internationaux. L'environnement technique est varié, incluant Cloud, On-Premise, conteneurisation, et virtualisation. Vous participerez à des projets d’envergure internationale dans un contexte multi-équipes et multi-sites. Les missions principales incluent la conception et la documentation des architectures systèmes des solutions retenues, l'intégration des existants, la proposition de solutions adaptées aux contraintes coûts/délais, et l'accompagnement des équipes de développement et d’intégration dans la mise en œuvre. Vous serez également impliqué dans la phase avant-vente et les réponses aux appels d’offres, en analysant les cahiers des charges, en proposant l’architecture technique cible, et en rédigeant les argumentaires techniques pour les réponses aux AO.
Freelance

Mission freelance
Tech Lead Kubernetes

Publiée le
Github
Kubernetes
Linux

12 mois
Île-de-France, France
Télétravail partiel
Nous recherchons un Tech Lead Kubernetes expérimenté afin d’accompagner la gestion, l’évolution et la fiabilisation des plateformes Kubernetes stratégiques du groupe. Le périmètre couvre à la fois les environnements On-Premises (Tanzu Kubernetes Grid intégré à VMware Cloud Foundation) et les clusters Amazon EKS utilisés pour les applications Data. Vous jouerez un rôle clé dans la disponibilité, la sécurité et la performance des socles techniques Cloud privés et publics, tout en contribuant à accélérer l’adoption des pratiques IaC , GitOps et DevSecOps au sein des équipes internes. Missions principales 1. Environnements On-Premises (TKG / VCF) Administrer, maintenir et faire évoluer les clusters Tanzu Kubernetes Grid (TKG) . Préparer et piloter la migration vers TKG 2.x intégré à VMware Cloud Foundation 9 . Apporter une expertise avancée sur la performance, la résilience et la sécurité Kubernetes. Accompagner la montée en compétences des équipes opérationnelles. Contribuer à l’intégration et à la fiabilisation des pipelines CI/CD dans une approche IaC & GitOps. 2. Environnements AWS (Amazon EKS) Administrer et optimiser les clusters Amazon EKS utilisés pour les workloads Data. Accompagner la reprise opérationnelle des clusters initialement gérés par les équipes Data Cloud. Fournir un support expert sur les incidents, la performance et la sécurité Kubernetes. Garantir la disponibilité, la résilience et l’évolution du socle technique. 3. Exploitation & amélioration continue (On-Prem & AWS) Assurer le maintien en condition opérationnelle des plateformes Kubernetes. Documenter et actualiser les procédures d’exploitation et de reprise après incident. Définir et maintenir les rôles RBAC et la gestion des droits utilisateurs. Automatiser le déploiement bout-en-bout des environnements Kubernetes. Contribuer à la définition du socle commun d’hébergement des applications critiques. 4. Adoption Cloud, DevOps & GitOps Promouvoir les usages Cloud et Kubernetes au sein du groupe. Participer à l’amélioration continue des pratiques GitOps et DevSecOps . Accompagner les équipes Exploitation et Développement dans leur montée en compétences. Assurer le transfert de connaissances et la continuité de service. Livrables attendus Documentation technique complète et actualisée (en français). Référentiel documentaire structuré et maintenu. Contributions aux schémas d’architecture Kubernetes & Cloud. Modules IaC réutilisables & pipelines CI/CD opérationnels
Freelance

Mission freelance
Intégrateur de solutions cybersécurité – SOC Log Integrator & Parsing Engineer

Publiée le
Apache Kafka
AWS Cloud
Azure

1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Nous recherchons un SOC Log Integrator & Parsing Engineer pour rejoindre une équipe Cybersécurité au sein du Security Operations Center (SOC) . Vous serez responsable de l’ensemble du processus de collecte, parsing et normalisation des logs à travers des environnements cloud et on-premise , en support des opérations SOC 24/7. Rattaché(e) au Build Team Lead , vous collaborerez étroitement avec les équipes Cybersécurité, IT et métiers afin de garantir des mécanismes de défense robustes, scalables et automatisés . Responsabilités Concevoir, implémenter et maintenir des pipelines complets de collecte et parsing de logs Gérer et optimiser les systèmes d’ingestion et de transfert de logs (Fluentd, Kafka, etc.) Développer des parsers avancés pour normaliser les données selon des schémas spécifiques Assurer la qualité, fiabilité et standardisation des logs sur l’ensemble des systèmes Intégrer de nouvelles sources de logs en coordination avec les équipes Réseau, Applicatives et SOC Développer et maintenir les règles de parsing, de normalisation et d’enrichissement pour ingestion dans les SIEM (Elastic, Splunk, Sentinel, etc.) Implémenter des pipelines CI/CD pour l’automatisation du déploiement des configurations Appliquer les pratiques DevSecOps pour sécuriser et fiabiliser les processus d’ingestion Créer des mécanismes de supervision continue du pipeline d’ingestion Contribuer à l’amélioration continue de l’observabilité et des capacités de détection du SOC Documenter l’ensemble des workflows, parsers et composants d’intégration
Freelance
CDI

Offre d'emploi
Expert Sécurité Azure

Publiée le
Azure
Cybersécurité
Endpoint detection and response (EDR)

12 mois
100k-150k €
400-900 €
Genève, Suisse
Télétravail partiel
Intégré(e) à une équipe mondiale de cybersécurité dédiée à la banque privée et à la gestion d’actifs, vous contribuez à assurer une sécurité robuste sur les environnements on-premise et Azure Cloud , en prenant en charge la gestion des incidents de bout en bout. Missions : Rechercher et développer des technologies visant à renforcer la sécurité des environnements cloud. Mettre en œuvre des solutions de sécurité telles que Microsoft Defender for Endpoint . Réaliser des évaluations de sécurité cloud basées sur les meilleures pratiques du secteur. Concevoir, implémenter et gérer les politiques de sécurité Azure . Surveillance et gestion des alertes de sécurité : assurer une surveillance continue des outils SIEM et EDR pour les alertes sur les environnements on-premise et Azure ; prioriser, qualifier et répondre aux événements de sécurité en temps réel. Investigation et coordination des incidents : diriger les enquêtes techniques impliquant les équipes internes (réseau, SecOps, IAM) ; corréler les journaux et la télémétrie provenant des pare-feux, proxys, endpoints et outils Azure natifs (par ex. Defender for Cloud ). Analyse de menace et confinement : identifier les vecteurs d’attaque, évaluer l’impact et mettre en œuvre les mesures de confinement ; escalader les incidents critiques et accompagner les actions de remédiation. Analyse forensique et identification des causes racines : réaliser des analyses forensiques sur les systèmes compromis (disque, mémoire, traces réseau) ; documenter la cause première et la chronologie de l’attaque. Reporting et documentation : rédiger des rapports d’incidents détaillés et des synthèses à destination du management ; maintenir les playbooks d’intervention et la base de connaissances. Amélioration des outils et processus de sécurité : proposer des améliorations sur les règles de détection, les workflows de réponse et les automatisations ; participer à l’optimisation du SIEM et des configurations de sécurité Azure (Azure Firewall, Defender for Cloud, etc.). Garantir la conformité avec les standards internes et réglementaires.
Freelance

Mission freelance
Administrateur BDD

Publiée le
Ansible
Git
Google Cloud Platform (GCP)

1 an
400-450 €
Lille, Hauts-de-France
Télétravail partiel
Nous sommes à la recherche d’un profil qui pourrait aussi bien gérer les moteurs de bases de données, faire de l’analyse, prendre en charge le RUN, accompagner les utilisateurs, rédiger la doc et qui maîtrise les sujets d’automatisation (python, ancible, terraform…) . Au sein de notre équipe Cloud Databases, tu feras avec l’équipe le RUN de plusieurs moteurs de bases de données tels que Ingres, PostgreSQL et Oracle on-premise et Postgres, Open Search, Redis sur le cloud (en services managés) Pour cette mission, nous ne recherchons pas un expert pour chaque type de moteur de bases de données mais quelqu’un qui puisse résoudre la majorité des incidents sur les différents périmètres avec astreinte en 24/7. A ce titre, tu as un profil DBA, tu sais travailler en autonomie a l’appuie de documents d’exploitation et des collègues experts sur chaque moteur, tu aimes trouver des solutions pour des analyses complexes, tu es force de propositions et tu souhaites t'investir au sein d 'une équipe de qualité. Alors rejoins-nous !
Freelance

Mission freelance
[LFR] DBA post gre SQL, Expérimenté à Paris - 1104

Publiée le

10 mois
450-590 €
Paris, France
Contexte Pour accroître sa compétitivité et poursuivre son développement dans les meilleures conditions, l’entreprise investit de manière importante dans son système d’information, notamment dans son infrastructure qui est considérée comme clé dans la transformation vers le digital et l’agilité nécessaire à son développement. Objet de la prestation La prestation se fera au sein des Database Administrators du département Infrastructure. Les administrateurs de bases de données ont pour principales activités d’assurer l’architecture, le build et le maintien en condition opérationnelle des bases de données. Ils accompagnent les équipes de développement et d’infrastructure dans l’optimisation, la mise à niveau et la résilience des environnements de leur périmètre. Au-delà de son rôle de DBA, il travaille en collaboration avec les autres équipes « Transversal Governance & Production Excellence » sur le build des projets et services et pour le suivi de certains services. Dans le cadre d’un remplacement et d’un contexte cloud first (Azure/AWS), les DBA ont besoin de renfort afin de travailler sur le design des solutions on-premises et cloud. La prestation se fera donc au sein de l’équipe DBA avec une priorité sur l’accompagnement des projets des équipes de développement. Il devra, après une période d’adaptation, participer aux astreintes. Il aura un rôle de contact privilégié avec les équipes basées en Belgique et devra prévoir des déplacements réguliers sur Bruxelles. Responsabilités : · Travailler en environnement de haute disponibilité · Travailler sur des environnements virtuels · Travailler dans un environnement hybride Microsoft OnPrem / Cloud Azure / Cloud AWS · Gérer les demandes standard et non standard des équipes de support aux applications et des développeurs concernant les nouveaux besoins ou l'évolution des composants de base de données. · S’intégrer aux process agiles des équipes de développement de son périmètre. · Travailler en étroite collaboration avec les équipes infrastructure pour comprendre et appliquer les processus et normes · Être impliqué dans l'étude concernant l'avenir des actifs infra. · Contribuer à la transformation de l'infrastructure informatique chez l'entreprise, qui consiste à mettre en place des solutions pour tirer parti des opportunités offertes par les nouvelles technologies (cloud, infrastructure sous forme de code, développement). · Définir les composants et l'architecture d'infrastructure appropriés à mettre en œuvre dans le cadre de projets d'entreprise. Conseillez et suggérez des solutions innovantes, le cas échéant. Les points clés auquel le candidat doit répondre à minima · Référent PostgreSQL · Administration N3 des environnements PostgreSQL (IaaS & PaaS : Azure PostgreSQL Flexible Server) · Définition et mise en œuvre de standards d’exploitation : sécurité, reloads, supervision, PRA · Automatisation des déploiements et des opérations via Ansible, Git, scripting · Intégration avec les outils Azure : Bicep, Log Analytics, Azure Monitor · Participation à la mise en place de dashboards techniques (Grafana) · Contribution au support, à la documentation, et à la démarche DevOps DBA · Expérience sur du réseau Azure ? 4 ans · Expérience sur du réseau AWS ? 2 ans · Astreinte 1 semaine/2 ou 3 · Niveau d'anglais B2 minimum obligatoire · Télétravail : tous les lundi et mardi, un vendredi sur 2 · Certification Azure DP300 Microsoft Certified: Azure Database Administrator Associate Profil recherché : · Expérience solide en tant que DBA PostgreSQL en environnement de production · Maîtrise des outils d’automatisation (Ansible, Git, scripts Shell ou Python) · Expérience avec PostgreSQL sur Azure (Flexible Server, PaaS, supervision Azure Monitor) · Esprit DevOps, rigueur dans l’automatisation et la documentation · Environnement technique moderne (cloud Azure, infra as code, supervision centralisée), équipe solide et projets à fort impact Les principales activités sont : · Étudier des solutions techniques pour améliorer ou mettre en place des services d'infrastructures · Comparez plusieurs scénarios et faires des recommandations · Rédiger des documentations techniques (documents de conception HLD et LLD) · Contribuer à la construction des solutions d'infrastructure · Conseiller, proposer et valider l'infrastructure à instancier dans les projets métiers · Déployer les infrastructures proposées avec les Delivery Center applicatifs · Transmettre les besoins des Delivery Center Applicatifs aux experts des périmètres concernés Compétences techniques : 1. PostgreSQL : Maîtrise de l’installation, configuration, mise à jour et sécurisation de PostgreSQL Séniorité : Avancé | Obligatoire : Oui 2. PostgreSQL : Optimisation des performances (analyse des plans d’exécution, tuning des requêtes, indexation) Séniorité : Avancé | Obligatoire : Oui 3. PostgreSQL : Sauvegarde et restauration (pg_dump, pg_basebackup, pgbackrest, etc.) Séniorité : Avancé | Obligatoire : Oui 4. PostgreSQL : Gestion des extensions (PostGIS, pg_stat_statements, etc.) Séniorité : Avancé | Obligatoire : Oui 5. Scripting (Bash, Python, PowerShell) pour automatiser les tâches Séniorité : Avancé | Obligatoire : Oui 6. Connaissance des systèmes Linux/Unix (Red Hat, Debian, etc.) Séniorité : Avancé | Obligatoire : Oui 7. Surveillance avec des outils comme Zabbix, Prometheus, Grafana, ou OEM Séniorité : Avancé | Obligatoire : Oui 8. Sécurité des bases de données (gestion des rôles, audit, chiffrement) Séniorité : Avancé | Obligatoire : Oui 9. Expérience avec les environnements cloud (AWS RDS, Azure Database) Séniorité : Avancé | Obligatoire : Oui 10. Azure databases PaaS services Séniorité : Avancé | Obligatoire : Oui 11. AWS databases PaaS services Séniorité : Avancé | Obligatoire : Non 12. Microsoft Certified: Azure Database Administrator Associate Séniorité : Oui | Obligatoire : Oui Type de projet (support / maintenance / implementation /…) : Deploiement d’infra Type de prestation (Client / Hybrid / Remote) : Hybrid (2,5J TT) Les astreintes (HNO, etc.) : oui La possibilité de renouvellement (oui/non) : Oui
Freelance

Mission freelance
DBA Expert/Senior de Production

Publiée le
Microsoft SQL Server
Oracle
PostgreSQL

12 mois
500-600 €
Île-de-France, France
Télétravail partiel
DBA Expert/Senior de Production Mission : Sous l’autorité du manager de l’équipe DBA de la Direction des Infrastructures et des Opérations, l’intervenant bases de données a pour objectif d’exploiter et de maintenir en conditions opérationnelles les bases de données. (On-Premise et Cloud AWS). Il participe à l’exécution des travaux prévus au titre de l’exploitation : incidents, problèmes, changements, disponibilité, continuité, capacity planning, etc. Il est également garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de l’exploitation des bases de données (renseignement détaillé des tickets et mise à jour du référentiel documentaire). Dans son domaine d’expertise, il propose des solutions visant à améliorer les performances des outils et des applications. Il collabore avec les équipes études afin de promouvoir les bonnes pratiques, notamment en matière d’optimisation des performances. Environnement métier et technique Opérations (Delivery Services) · Participe et supervise le maintien en conditions opérationnelles (MCO) des bases de données · S’assure de la bonne application des règles et normes de gestion des BDD et participe à la définition des standards SGBD · Contrôle la fiabilité du système et la sécurité des données · Participe à la mise en œuvre des solutions techniques (installation, mises en production complexes nécessitant l’intervention d’un DBA, portage vers le Cloud) · S’assure de la mise à jour des référentiels de production (CMDB, dossiers d’exploitation, normes et standards, référentiel documentaire) · Réalise l’industrialisation et l’automatisation des tâches d’exploitation courante · Met en œuvre les outils garantissant la bonne exploitabilité des bases de données Services de support (Support Services) · Participe en tant qu’expert BDD à la résolution des incidents et des problèmes · Participe à l’organisation des changements et des mises en production · Analyse, valide et traite les demandes adressées à l’équipe DBA · Communique avec les autres experts, les chefs de projets et les responsables de lignes de service sur ses actions · Apporte un support de niveau 3 sur le RUN Compétences métier et techniques requises · Anglais technique · Expertise en tant que DBA Production N3 principalement sur PostgreSQL (75 %) et SQL Server (25 %) · A minima DBA N2 sur MySQL / Oracle · Connaissances appréciées sur le Cloud AWS (RDS) Qualités humaines recherchées · Esprit d’analyse et de synthèse, rigueur, méthodologie · Sens de la communication · Implication et autonomie Niveau d´étude · Niveau d’études : Bac +5 Informations pratiques · Localisation : Yvelines · Date de démarrage souhaitée : ASAP
Freelance

Mission freelance
Data Engineer

Publiée le
Apache Spark
Java
ODI Oracle Data Integrator

3 ans
400-550 €
Tours, Centre-Val de Loire
Télétravail partiel
En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data
Freelance

Mission freelance
[LFR] Expertise réseau Azure, Senior à Paris - 1054

Publiée le

10 mois
400-590 €
Paris, France
Télétravail partiel
Localisation & Modalités: Temps plein Présentiel obligatoire à Paris (Gare de Lyon, 3 jours par semaine) Profil recherché Expertise Réseau avec une solide expérience en architecture, administration et sécurité des réseaux d’entreprise. Compétences confirmées sur Microsoft Azure, notamment sur les aspects réseau (Virtual Network, VPN Gateway, ExpressRoute, Azure Firewall, etc.). Expérience professionnelle : environ 10 ans (niveau de séniorité flexible, priorité à l’expertise technique et à l’autonomie). Capacité à travailler en environnement hybride (on-premise / cloud) et à collaborer avec des équipes pluridisciplinaires. Compétences techniques clés Protocoles réseau (TCP/IP, DNS, DHCP, BGP…) Sécurité réseau (firewalls, segmentation, monitoring) Infrastructure Azure (VNet, NSG, Azure Bastion, etc.) Outils de supervision et de diagnostic réseau Connaissance des environnements Microsoft (M365, Active Directory, etc.) Besoins auquel cet expert Azure va devoir répondre : Dans un premier temps (P0) l’accompagnement des équipes Réseau pour la construction de ce premier niveau de landing zone (nécessaire et urgente pour l’ouverture de Teams en temps et heure) ainsi que dans leur montée en compétence sur les sujets Azure pour y parvenir Puis le cadrage d’une landing-zone pérenne dont l’utilité sera plus large et servira à la partie Azure Durée estimée de la mission 6 mois, avec possibilité d’extension selon l’avancement du projet Bleu M365.
Freelance

Mission freelance
SysOps Kubernetes

Publiée le
Kubernetes

6 mois
400-530 €
Lyon, Auvergne-Rhône-Alpes
nous recherchons un administrateur Kubernetes qui participera au tour d’astreinte Le produit Hadock est une offre d’hébergement et d’orchestration de conteneurs on-premise basée sur Kubernetes. Nos grands enjeux actuels tournent autour?: - du run zéro crise (sujet valable pour toute la DSI) - d'une nouvelle version de l’offre «?v2?» (nouvelle stack technique basée sur Rancher/ArgoCD) laquelle doit arriver pour la fin de l’année 2025 - d’un sujet de transformation des applications pour les accompagner vers la mise en œuvre des bonnes pratiques Kube et ainsi une préparation à la migration vers notre offre V2 et à terme vers le cloud pour certaines - de l’automatisation pour se rapprocher des services des hyperscaleurs?: services standardisés, as code, provisioning rapide, rationalisation des ressources, scalable, etc… (sujet valable pour tous les services d’infrastructure dont ceux de DIGIT) Afin de renforcer l’équipe Hadock, nous recherchons un profil SysOps Kubernetes senior avec une expérience confirmée en administration de clusters Kube / outillages associés, en environnements de production à fort enjeu. Le service Hadock est un produit du département DIGIT qui vise à fournir de l’hébergement de conteneurs orchestrés par Kubernetes. Nous utilisons également Rancher pour gérer nos quelques dizaines de clusters (et Kubespray pour nos 4 « gros » clusters historiques). Les compétences recherchées sont les suivantes?(non exhaustives) : Système et Administration Linux : commandes Linux, scripting shell, file systems etc. Scripting?: langages BASH, Python, etc. Networks and security : connaissances de base concernant DNS, VPN, firewall, proxy server, loadbalancer Stockage?: connaissance de base concernant SAN, NAS CI/CD pipeline : Git, Ansible, ArgoCD Monitoring-supervision/logs : Victoria Metrics, Grafana, Prometheus, … Containers : connaissances avancées concernant Kubernetes, Docker. Certification CKA, la CKS est un plus En complément, « nice to have » : Rancher, Peering BGP pour la micro-segmentation (Cilium <-> Cisco ACI et Cilium <-> Fortinet) Cloud computing : AWS, Azure, GCP… Les activités se déroulent autour de 3 grands axes : Le build» qui suit le cycle de vie produit : Prototypage / Conception / Réalisation / Tests & Recette / Déploiement / livraison / Résorption Le MCO évolutif/correctif?: Suivi du bon fonctionnement en production / Assurer les évolutions techniques de la plate-forme / Maintenir le niveau de sécurité des éléments de la plate-forme / Assister les équipes projets dans la prise en main de l’environnement Le «?run?» : Réponse à des demandes, support aux équipes projets et traitement des incidents/crises + Participation aux astreintes technique N3 soir&WE une fois les compétences suffisantes acquises?; accompagnement à la mise en œuvre des bonnes pratiques Les livrables attendus sont les suivants?: Code, Documentation technique, Procédures Techniques, Dossier d'Architecture Technique, Request For Change pour les CAB, MaJ des tickets dans Jira, Participation à la préparation des PI planning … T
Freelance
CDI
CDD

Offre d'emploi
Domain Lead – Architecture Infrastructure

Publiée le
Azure
Hyper-v
Veeam

12 mois
Charleroi, Hainaut, Belgique
Au sein de la Factory Hosting, le Domain Lead Architecture Technique Infrastructure aura pour mission d’animer et de structurer une équipe d’architectes et de designers techniques (environ dix collaborateurs), afin de garantir une approche intégrée, robuste et alignée avec les orientations d’entreprise. Le rôle requiert un leadership technique fort, une compréhension approfondie des environnements hybrides (on-premise et cloud) et une capacité à mettre en place une gouvernance d’architecture efficace. Les environnements techniques principaux incluent : * Virtualisation : Hyper-V, VMware * Sauvegarde et PRA : Veeam * Bases de données : Oracle, Microsoft SQL Server * Systèmes : Windows Server, Linux * Infrastructure physique : compute, stockage, réseau * Cloud : environnement hybride avec composante Azure * Automatisation : Terraform, Ansible * Conformité : respect des obligations liées à la norme ISO 27001 Tâches principales: * Définir, coordonner et faire évoluer la vision d’architecture technique du domaine Infrastructure. * Renforcer la cohérence entre les différentes solutions techniques déployées et assurer leur alignement avec les besoins business et les standards d’entreprise. * Structurer et animer la gouvernance d’architecture, en collaboration avec les équipes Solution Architecture, Sécurité et Opérations. * Accompagner les projets critiques tout au long de leur cycle de vie, en apportant un cadrage technique et une validation des choix d’architecture. * Promouvoir la résilience, la performance et la sécurité des infrastructures, en intégrant les exigences ISO 27001 dans les pratiques et les conceptions. * Assurer la documentation des architectures techniques et le transfert de connaissance vers les équipes opérationnelles. * Fédérer, encadrer et faire évoluer une équipe d’architectes techniques et de designers, en favorisant la collaboration, le partage de bonnes pratiques et l’excellence technique. Profil recherché Le candidat idéal dispose d’une expérience significative en architecture technique au sein d’environnements complexes (on-premise et cloud), assortie d’une première expérience réussie en leadership d’équipe ou coordination technique. Compétences techniques souhaitées : * Très bonne maîtrise des environnements d’infrastructure virtualisés, des bases de données et des solutions de sauvegarde. * Bonne compréhension des architectures cloud hybrides et des pratiques d’automatisation. * Sensibilité marquée à la sécurité et à la résilience des systèmes. * Familiarité avec les exigences de certification ISO 27001. * Compétences comportementales attendues : * Leadership fédérateur, capacité à animer et mobiliser une équipe pluridisciplinaire. * Excellente communication, sens de la pédagogie et de la collaboration. * Rigueur, orientation résultat et vision globale des systèmes. * Forte crédibilité technique et posture de référence pour les équipes.
Freelance
CDI
CDD

Offre d'emploi
Consultant BI / Data ANALYST (Cognos , SQL , Snowflake , ETL/ELT ) (H/F)

Publiée le
BI
Cognos
Microsoft Power BI

12 mois
40k-45k €
400-550 €
Paris, France
Dans le cadre de la modernisation de son écosystème Data, notre client déploie une nouvelle plateforme basée sur Azure , intégrant Snowflake et Power BI . Ce projet s’inscrit dans une démarche globale de transformation visant à migrer un volume important de rapports existants provenant d’un ancien environnement on-premise (Datawarehouse + Cognos) vers une infrastructure Cloud plus performant Contexte Dans le cadre de la mise en place d’une nouvelle plateforme Data sur Azure, intégrant Snowflake et Power BI , notre client du secteur bancaire lance un vaste chantier de migration de l’ensemble de ses rapports existants depuis une plateforme on-premise (Datawarehouse + Cognos) vers ce nouvel environnement Cloud. Environ 250 rapports ont été identifiés comme prioritaires. Ils sont principalement utilisés au quotidien par les équipes métiers (recouvrement, fraude, contrôle interne, etc.) via un portail interne. Ces rapports étant essentiels à l’activité opérationnelle, l’objectif est de les reproduire à l’identique , sans refonte fonctionnelle, pour respecter les échéances fixées à août 2025 . Les choix finaux concernant le modèle (datamarts dédiés, vues sur datamart global, etc.) et l’outil de restitution sont encore en cours de définition, et le consultant pourra contribuer à ces orientations. Mission Vous participerez à la reconstruction des rapports sur la nouvelle plateforme Data. Vous travaillerez en étroite collaboration avec deux experts internes (Datawarehouse & Cognos). Vos principales responsabilités :1. Analyse des rapports Cognos existants Étude des frameworks, champs, règles de gestion, filtres et logiques de calcul. 2. Recréation des rapports dans Snowflake / Power BI Construction des couches nécessaires dans Snowflake avec les Data Engineers / Analysts. Création éventuelle de dashboards Power BI (cas limités). 3. Validation et contrôle de qualité Comparaison des résultats Snowflake avec les rapports Cognos. Investigation des écarts avec les référents internes (métier, Data Office, DSI). 4. Documentation Documentation des tables/vues créées (Excel pour alimenter Data Galaxy). Définition et rédaction de la documentation fonctionnelle liée aux rapports.
Freelance

Mission freelance
Développeur Go / Backend Kubernetes

Publiée le
API
Go (langage)
Kubernetes

12 mois
550-600 €
Paris, France
Un grand acteur du secteur bancaire développe et opère en interne une plateforme data et IA destinée à accompagner les équipes de data scientists et d’analystes dans tout le cycle de vie de leurs projets : du développement à l’industrialisation en production. Cette plateforme s’appuie sur un cloud privé on-premise et sur une stack technologique moderne et open source , fortement orientée Kubernetes . L’objectif est d’offrir un environnement performant, automatisé et scalable , permettant la mise à disposition d’environnements de développement, le déploiement de modèles et leur supervision en production. Dans ce cadre, l’équipe recherche un Développeur Go expérimenté , passionné par les architectures backend distribuées et la scalabilité, pour renforcer le cœur technique de la solution. 🎯 Missions principales En tant que Développeur Go / Backend Kubernetes , vous interviendrez au cœur d’un environnement technique exigeant et contribuerez à la conception, au développement et à l’optimisation de composants backend critiques. Conception & développement Concevoir et développer des microservices backend performants et sécurisés en Go. Participer à la conception d’architectures distribuées et Cloud native. Implémenter de nouvelles fonctionnalités et contribuer à l’évolution technique de la plateforme. Garantir la qualité, la maintenabilité et la performance du code. Intégration & déploiement Intégrer vos développements dans un environnement Kubernetes on-premise. Participer à la mise en place et à l’amélioration des pipelines CI/CD (ArgoCD, Argo Workflows). Collaborer avec les équipes SRE et Infrastructure pour assurer la résilience et la fiabilité des services. Performance & observabilité Optimiser les performances backend (latence, allocation de ressources, parallélisation). Contribuer à la mise en place d’outils de monitoring et d’observabilité (Prometheus, Kibana). Participer aux actions d’amélioration continue (tests de charge, tuning, automatisation). Collaboration Travailler en proximité avec les autres développeurs et les équipes Data / MLOps. Être force de proposition sur les choix techniques et les bonnes pratiques de développement. Profil recherché Compétences techniques Excellente maîtrise du langage Go (expérience significative en backend distribué). Très bonne connaissance de Kubernetes (orchestration, scheduling, services, déploiements). Maîtrise des architectures microservices et des APIs REST/gRPC. Connaissances des outils d’automatisation : Terraform , ArgoCD , Argo Workflows . Expérience avec le stockage S3 / MinIO et les volumes persistants ( Portworx ). Connaissances en bases de données ( PostgreSQL , MongoDB ). Bonne compréhension des environnements cloud privés et CI/CD . Pratique de Python appréciée pour l’automatisation ou l’intégration de services. Soft skills Esprit analytique et rigoureux, sens du détail technique. Orientation qualité, fiabilité et performance. Capacité à collaborer avec des équipes pluridisciplinaires (Dev, Infra, Data). Curiosité, autonomie et goût pour les environnements techniques de haut niveau. Environnement technique Langages : Go, Python, Terraform Infra & Cloud : Kubernetes on-prem, S3 / MinIO, Portworx CI/CD : Argo, ArgoCD, Argo Workflows Monitoring : Prometheus, Kibana Bases de données : PostgreSQL, MongoDB Outils : Git, Artifactory, Model Registry
Freelance

Mission freelance
[FBO] Ingénieur système Linux / Expertise Kubernetes - 1080

Publiée le

6 mois
1-360 €
Nice, Provence-Alpes-Côte d'Azur
Contexte de la mission Le service repose sur une solution Database as a Service (DBaaS), offrant aux équipes métiers une plateforme complète pour collecter, stocker de manière sécurisée et exposer la donnée via des APIs. Ces APIs sont déployées sur des clusters Kubernetes hébergés on-premise sur des infrastructures Linux. Certaines de ces APIs vont être migrées vers du Cloud Public GCP. Objectifs et livrables Objectif de la mission : Assurer la mise en production des APIs sur des clusters Kubernetes et garantir leur exploitation (RUN) dans un environnement critique et fortement sollicité. Compétences indispensables: Administration système Linux Expertise Kubernetes, Helm, Docker Infrastructure as Code : maîtrise de Terraform et Ansible Monitoring & Observabilité : utilisation de Grafana et Prometheus Connaissances solides des Web Services (REST, SOAP, etc.) Expérience confirmée en environnement de production critique et hautement transactionnel En + : Cloud GCP Candidatures étudiées à partir de 4 ans d'expérience sur le socle technique évoqué, hors stages/alternances. Nécessité d'être installé dans le 06, avec une capacité à se rendre sur site client à minima 3j/semaine.
Freelance

Mission freelance
232108/Ingénieurie système Linux / Expertise Kubernetes - Sophia Antipolis

Publiée le
Administration linux

3 mois
330-350 £GB
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Télétravail partiel
Ingénieurie système Linux / Expertise Kubernetes - Sophia Antipolis Candidatures étudiées à partir de 4 ans d'expérience sur le socle technique évoqué, hors stages/alternances. Nécessité d'être installé dans le 06, avec une capacité à se rendre sur site client à minima 3j/semaine. Compétences indispensables: Administration système Linux Expertise Kubernetes , Helm, Docker Infrastructure as Code : maîtrise de Terraform et Ansible Monitoring & Observabilité : utilisation de Grafana et Prometheus Connaissances solides des Web Services (REST, SOAP, etc.) Expérience confirmée en environnement de production critique et hautement transactionnel En + : Cloud GCP Le service repose sur une solution Database as a Service (DBaaS), offrant aux équipes métiers une plateforme complète pour collecter, stocker de manière sécurisée et exposer la donnée via des APIs. Ces APIs sont déployées sur des clusters Kubernetes hébergés on-premise sur des infrastructures Linux. Certaines de ces APIs vont être migrées vers du Cloud Public GCP. Objectifs et livrables Objectif de la mission : Assurer la mise en production des APIs sur des clusters Kubernetes et garantir leur exploitation (RUN) dans un environnement critique et fortement sollicité.
Freelance

Mission freelance
Un Administrateur Kubernetes à Lyon

Publiée le
Administration linux

6 mois
340-440 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses client, Un Administrateur Kubernetes à Lyon. Mission Nous recherchons un administrateur Kubernetes qui participera au tour d’astreinte Le produit Hadock est une offre d’hébergement et d’orchestration de conteneurs on-premise basée sur Kubernetes. Nos grands enjeux actuels tournent autour: - du run zéro crise (sujet valable pour toute la DSI) - d'une nouvelle version de l’offre «?v2?» (nouvelle stack technique basée sur Rancher/ArgoCD) laquelle doit arriver pour la fin de l’année 2025 - d’un sujet de transformation des applications pour les accompagner vers la mise en œuvre des bonnes pratiques Kube et ainsi une préparation à la migration vers notre offre V2 et à terme vers le cloud pour certaines - de l’automatisation pour se rapprocher des services des hyperscaleurs: services standardisés, as code,provisioning rapide, rationalisation des ressources, scalable, etc... (sujet valable pour tous les services d’infrastructure dont ceux de DIGIT) Afin de renforcer l’équipe Hadock, nous recherchons un profil SysOps Kubernetes senior avec une expérience confirmée en administration de clusters Kube / outillages associés, en environnements de production à fort enjeu. Le service Hadock est un produit du département DIGIT qui vise à fournir de l’hébergement de conteneurs orchestrés par Kubernetes. Nous utilisons également Rancher pour gérer nos quelques dizaines de clusters (et Kubespray pour nos 4 « gros » clusters historiques). Profil recherché : Les compétences recherchées sont les suivantes?(non exhaustives) : Système et Administration Linux : commandes Linux, scripting shell, file systems etc. Scripting: langages BASH, Python, etc. Networks and security : connaissances de base concernant DNS, VPN, firewall, proxy server, loadbalancer Stockage : connaissance de base concernant SAN, NAS CI/CD pipeline : Git, Ansible, ArgoCD Monitoring-supervision/logs : Victoria Metrics, Grafana, Prometheus, ... Containers : connaissances avancées concernant Kubernetes, Docker. Certification CKA, la CKS est un plus En complément, « nice to have » : Rancher, Peering BGP pour la micro-segmentation (Cilium <-> Cisco ACI et Cilium <-> Fortinet) Cloud computing : AWS, Azure, GCP... Les activités se déroulent autour de 3 grands axes : Le «build» qui suit le cycle de vie produit : Prototypage / Conception / Réalisation / Tests & Recette / Déploiement / livraison / Résorption Le MCO évolutif/correctif : Suivi du bon fonctionnement en production / Assurer les évolutions techniques de la plate-forme / Maintenir le niveau de sécurité des éléments de la plate-forme / Assister les équipes projets dans la prise en main de l’environnement Le «run» : Réponse à des demandes, support aux équipes projets et traitement des incidents/crises + Participation aux astreintes technique N3 soir&WE une fois les compétences suffisantes acquises; accompagnement à la mise en œuvre des bonnes pratiques Les livrables attendus sont les suivants: Code, Documentation technique, Procédures Techniques, Dossier d'Architecture Technique, Request For Change pour les CAB, MaJ des tickets dans Jira, Participation à lapréparation des PI planning ... Technologies & outillage mis en oeuvre : Kubernetes (kubeadm, rke2) 1.30; RedHat 9; f5 Big-IP; Calico; Cilium; Traefik 2 & 3; Docker ; Kyverno; Victoria Metrics; Prometheus; Grafana ; Loki ; Helm ; Chaos Mesh; Ansible ; Git; Artifactory; Kubespray, rke2, Rancher, Argo CD, Trident L’équipe est actuellement composée de 5 experts techniques et d’un Product Owner, accompagné d’un Scrum master et d’un Teachnical Leader Kubernetes?; fonctionne selon le modèle SAFe (Agilité à l’échelle). Les activités assurées peuvent concerner : Définir une architecture cible opérationnelle et résiliente / Réaliser des maquettes et des recettes afin de valider les choix, être force de proposition pour des évolutions Porter des arbitrages sur les solutions techniques et fonctionnelles à embarquer / S’assurer de la pertinence des briques choisies dans le contexte, comme de leur pérennité Assurer les montées de versions des différentes briques de la plate-forme et résoudre les problèmes (au sens ITIL) Accompagner et promouvoir l’approche micro-services des applicatifs et les bonnes pratiques induites / Assurer une veille technologique, autour des solutions retenues à minima.
123 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous