Trouvez votre prochaine offre d’emploi ou de mission freelance PostgreSQL

Ce qu’il faut savoir sur PostgreSQL

PostgreSQL est un système de gestion de bases de données relationnel open-source réputé pour sa fiabilité, sa robustesse et sa conformité aux standards SQL. Il est conçu pour gérer des charges de travail allant des petites applications à des systèmes complexes à grande échelle. PostgreSQL offre des fonctionnalités avancées telles que la prise en charge des types de données personnalisés, des index complexes, des transactions ACID, et des extensions comme PostGIS pour la gestion des données géospatiales. Très apprécié dans les environnements professionnels et académiques, il est compatible avec de nombreuses plateformes et permet une gestion efficace des données grâce à son extensibilité et ses performances élevées.

Votre recherche renvoie 482 résultats.
Freelance

Mission freelance
Consultant FME - confirmé - freelance - Rouen H/F

GROUPE ARTEMYS
Publiée le

1 mois
76000, Rouen, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Dans le cadre d’une mission chez l’un de nos clients grands comptes, nous recherchons un Consultant FME avec expertise confirmée — compétence obligatoire pour le poste. Vous intervenez au cœur de la chaîne de traitement des données géographiques et techniques. Votre mission (si vous l’acceptez) : Concevoir, développer et maintenir des workflows ETL avec FME (desktop / server) Administrer, maintenir et exploiter les bases de données géospatiales Mettre en place des chaînes automatisées de transformation et de contrôle qualité Gérer les droits, créer des tables, fonctions, vues et serveurs liés Exploiter les logs, gérer sauvegardes et restaurations Assurer le support technique auprès des bureaux d’études et des géomaticiens Créer et maintenir des projets sous QGIS Participer à l’industrialisation et à la fiabilisation des flux de données L’environnement technique : Expertise confirmée FME (développement de workflows complexes exigé) Solides compétences SQL PostgreSQL / PostGIS Environnement SIG et data géographique Expérience opérationnelle en contexte géomatique / data géospatiale Scripting bash Python Administration de bases de données Bonnes pratiques d’industrialisation des flux ETL Vous, notre perle rare : Consultant autonome Forte culture data / géomatique Sens du service et du support technique Bon relationnel avec équipes métiers et techniques Esprit d’initiative et rigueur Motivation et engagement projet Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : TJ : 320€ à 380€ Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
Lead DevOps (H/F)

STHREE SAS pour HUXLEY
Publiée le

12 mois
France
Localisation: Paris (2 à 3 jours de télétravail par semaine) Conditions : Freelance ou portage (pas de sous-traitance) et ouvert au CDI Contexte Notre client est un acteur important dans le secteur du paiement. Pour leur département IT, composé d'environ dix personnes (architecte SI, développeurs, experts infra…) je recherche un Lead DevOps expérimenté pour renforcer leur équipe technique passionnée et exigeante. L'environnement est très "geek-friendly" : forte culture technique, volonté de tester, prototyper, documenter et maintenir un code propre. Vous travaillerez au quotidien avec des profils très techniques, dont un management particulièrement sensible aux bonnes pratiques DevOps. Le rôle inclut une grande rigueur, un sens du détail irréprochable, et la capacité à délivrer en autonomie dans un cadre structuré. Objectifs du poste Concevoir, développer et maintenir les plateformes Cloud (principalement GCP) destinées à héberger les solutions internes. Implémenter les meilleures pratiques en matière d'infrastructure, CI/CD, observabilité et sécurité. Optimiser l'usage du Cloud et contribuer à la maîtrise des coûts. Expertise & Leadership technique Être la référence interne sur les sujets GCP, Kubernetes et DevOps pour plusieurs entités. Accompagner et mentorer les membres de l'équipe sur l'ingénierie et les bonnes pratiques. Participer à la définition des architectures, standards techniques et process d'automatisation. Collaboration & Delivery Travailler au quotidien avec les équipes DevOps, AppOps, Développement, Data, IT et Sécurité. Contribuer à la mise en place de solutions robustes, scalables et sécurisées. Produire un reporting clair et synthétique (tickets, documentation, suivi). Stack technique recherchée Must-have Kubernetes (idéalement très solide) CI/CD & IaC : GitHub Actions, GitLab CI, ArgoCD, Terraform, Terragrunt, Ansible Infrastructure as Code : Terraform / Terragrunt Containers : Docker Monitoring : Grafana, Prometheus Langages : Python (gros plus), Shell, Go, Java Dev mindset : un background de développeur (et non purement infra) Databases & Data: PostgreSQL, MySQL, BigQuery, ElasticSearch Cloud & Infra : Linux, GCP (networking, storage, databases, IAM, security), Kubernetes, Cloud Run Monitoring & Ops : Datadog, Grafana, Prometheus, Atlassian Suite (Jira, Confluence, OpsGenie, StatusPage…) IT & Security : JumpCloud, Bitdefender, Bitwarden, Nordpass Anglais courant obligatoire (échanges quotidiens, ticketing en anglais) Nice-to-have GCP (idéalement), mais AWS est totalement acceptable Expérience dans des environnements fintech ou monétique (pas obligatoire) Intérêt fort pour les POCs, les tests, la R&D technique Profil recherché Expérience 10 ans d'expérience minimum en DevOps / SRE. 20 ans serait idéal (ancien senior/lead avec recul et maturité technique). Soft skills Ultra‑rigoureux , attaché au clean code et à la documentation. Très structuré : bullet points Jira, suivi, reporting. Capable de travailler avec des personnes très techniques, "geeks", exigeantes. Capacité à exécuter clairement une demande et rendre compte en fin de journée. À l'aise dans des environnements où l'on attend précision, discipline et respect des conventions techniques.
Freelance

Mission freelance
Développeur Alfresco – 7/8 ans d’expérience

Gentis Recruitment SAS
Publiée le
Alfresco

3 mois
450-550 €
Occitanie, France
Description de poste : Intervention sur des projets de gestion documentaire et dématérialisation basés sur Alfresco Content Services Analyse des besoins métiers et participation aux choix d’architecture technique Conception et développement de composants spécifiques (extensions, Web Scripts, API REST) Modélisation des contenus (content models), configuration des règles et métadonnées Implémentation et évolution de workflows (Activiti / BPMN selon version) Intégration d’Alfresco au SI (LDAP/AD, SSO, Web services, ERP, CRM) Optimisation des performances (indexation, volumétrie, tuning Solr) Participation aux phases de recette, mise en production et support niveau 3 Rédaction de documentation technique et transfert de compétences Environnement technique courant : Alfresco Content Services / Share / ADF Java (Spring, Maven) REST API / Web Scripts Solr / Elasticsearch PostgreSQL / Oracle / MySQL Linux, Docker Git, outils CI/CD
CDI

Offre d'emploi
Data Engineer Banque(F/H)

CELAD
Publiée le

45k-50k €
Paris, France
Contexte Dans le cadre du développement d’une Squad Usages Data Avancés & IA , nous recherchons un(e) Data Engineer confirmé(e) pour contribuer à la conception, l’industrialisation et l’amélioration continue de solutions data à forte valeur ajoutée. Vous évoluerez dans un environnement orienté DataOps , MLOps et industrialisation de solutions analytiques, au sein d’une équipe pluridisciplinaire (Data Scientists, DevOps, Product Owner…). La squad intervient sur : La conception et la maintenance d’applications data L’amélioration continue des produits existants La construction de nouveaux usages Data & IA Vos missions Conception & Architecture Participer à la définition des solutions applicatives data Contribuer aux choix d’architecture (batch, streaming, microservices data) Concevoir des pipelines robustes, scalables et performants Développement & Intégration Construire et maintenir des pipelines ETL / ELT (données structurées et non structurées) Développer des traitements en Python (PySpark, FastAPI) et SQL Intégrer des flux temps réel via Kafka / Spark Réaliser les phases d’intégration et de recette technique Industrialisation – DataOps / MLOps Mettre en œuvre des chaînes CI/CD et de déploiement (Docker, Kubernetes, GitHub/GitLab Actions) Industrialiser des modèles statistiques ou de Machine Learning Versionner données, modèles et code Monitorer la performance, la qualité et les coûts des traitements Assurer l’observabilité des solutions (ELK, Prometheus/Grafana, MLflow) Qualité & Amélioration Continue Mettre en place des tests automatisés (Pytest) Maintenir un haut niveau de qualité de code (SonarQube) Améliorer l’efficacité des processus Maintenir une documentation claire et à jour Collaboration Travailler en étroite collaboration avec les membres de la squad Préparer des datasets pour l’exploration et l’analyse Accompagner les utilisateurs dans la prise en main des solutions Docker Kubernetes GitHub Actions ou GitLab CI Compétences techniques requises Langages & Frameworks: Python (PySpark, FastAPI), SQL Big Data & Streaming: Apache Spark, Apache Kafka Bases de données: PostgreSQL, Teradata, MySQL MLOps / CI-CD / Conteneurisation: Docker, Kubernetes, GitHub Actions ou GitLab CI Qualité & Observabilité: Pytest, SonarQube, Stack ELK, Prometheus / Grafana, MLflow
Freelance

Mission freelance
243566/Expert Linux HPC _ Site mission Les Mureaux

WorldWide People
Publiée le
Linux

12 mois
Les Mureaux, Île-de-France
Expert Linux HPC _ Site mission Les Mureaux Nous recherchons un expert Linux pour intervenir sur des clusters de calculs de la haute performance. Dans le cadre d'un contrat d'Infogérance, chez un acteur majeur français du spatial & de la défense, vous intégrerez une équipe Inetum pluridisciplinaire allant du support utilisateurs à l’expertise technique couvrant l’ensemble des activités d’infrastructure (supervision, intégration, exploitation, administration, ingénierie) Habilitation Très Secret requise, travail 100% sur site. Nous recherchons un expert Linux pour intervenir sur des clusters de calculs de la haute performance. Principales missions : • Administration et gestion des systèmes • Sécurisation des systèmes • Automatisation et optimisation • Participation aux projets clients (Etudes, administration, migrations, audit, documentations, ...) • Retro engineering Environnement technique : • Linux Operating Systeme (Suse, Debian, Redhat, CentOS) • Systèmes AIX (Solaris) • Scripting : Bash, Python, … • Conteneurisation (Docker, Kubernetes) • Monitoring: Nagios, Zabbix, Cacti, PRTG, Skykight, Grafana • Bases de données : PostgreSQL, MySQL/MongoDB, Oracle or SQL server. • Virtualisation : VM Ware • Sauvegarde: Netbackup, Time Navigator, Arcsys • Stockage : NetAPP Objectifs et livrables Nos attentes : - Sens du service - Entraide et solidarité dans les activités à réaliser - Capacité d'adaptation aux imprévus et aux changements de priorités - Contribution à la valeur des produits et services - Amélioration continue - Partage des connaissances et de l'expertise - Suivre et documenter les actions - Communiquer sur nos réalisations Compétences demandées Compétences Niveau de compétence SUSE Expert LINUX Expert kernel Expert BASH Expert UNIX Exper
Freelance

Mission freelance
Cloud DevOps Engineer orienté Data (GCP)

Gentis Recruitment SAS
Publiée le
DevOps
FinOps
Google Cloud Platform (GCP)

210 jours
400-450 €
Montpellier, Occitanie
Contexte Dans le cadre du renforcement d’une équipe Cloud / DevOps chez un acteur du secteur bancaire basé à Montpellier, nous recherchons un Cloud DevOps Engineer senior orienté plateformes Data. Le consultant interviendra sur la conception, l’implémentation et l’exploitation d’une infrastructure GCP containerisée destinée à supporter différents cas d’usage data (pipelines, traitements et services associés). L’objectif est d’industrialiser et d’opérer une plateforme cloud robuste, sécurisée et scalable, avec une forte culture Infrastructure as Code, GitOps et RUN. Missions principales Implémentation et administration GCP Concevoir et déployer des solutions techniques containerisées sur Google Cloud Platform Administrer et optimiser l’infrastructure GCP : GKE, GCE, GCS, Cloud SQL, VPC, Load Balancer, Private Service Connect, IAM Automatisation et industrialisation Automatiser le provisioning et la gestion des ressources cloud via Terraform et Terragrunt Concevoir et maintenir les pipelines CI/CD (GitLab CI) Standardiser les déploiements et garantir leur reproductibilité Sécurité Implémenter les bonnes pratiques de sécurité sur le cloud et Kubernetes Mettre en place la gestion des secrets et des accès (Vault, SSO) Participer au contrôle des vulnérabilités via des outils de scan (Xray, Trivy) Monitoring et observabilité Mettre en place des solutions de monitoring et d’alerting (Prometheus, Grafana, ELK) Exploiter Google Cloud Observability pour la supervision et le troubleshooting Support et RUN Assurer le maintien en conditions opérationnelles de la plateforme Opérer les déploiements et évolutions via une approche GitOps Garantir la traçabilité, la fiabilité et la conformité des déploiements Compétences indispensables Expérience significative sur Google Cloud Platform : GKE, VPC, IAM, Cloud SQL, GCS, Load Balancer Kubernetes et containerisation (Docker) Terraform et Terragrunt (niveau autonome) Git et GitLab CI Gestion des artefacts et registry : JFrog Artifactory ou GCP Artifact Registry Observabilité : Prometheus, Grafana, ELK, Google Cloud Observability Sécurité : Vault et outils de scan de vulnérabilités (Xray ou Trivy) Bonne culture réseau cloud (VPC, routage, sécurisation des flux) PostgreSQL (déploiement, administration et optimisation) Compétences appréciées Connaissance d’OpenShift Connaissance de l’orchestrateur Kestra Sensibilité aux problématiques FinOps et optimisation des coûts cloud
Freelance

Mission freelance
Chef de projet IT Senior (H/F) - 69

Mindquest
Publiée le
Office 365

3 mois
110-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans un environnement bancaire à grande échelle (plus de 100 000 utilisateurs), vous intervenez au sein des équipes AppOps sur des projets stratégiques et à forte visibilité. Vous êtes responsable du pilotage de projets complexes liés au poste de travail et à l’environnement Microsoft 365, avec des enjeux importants de modernisation et de gestion d’obsolescence. Exemples de projets : Migration Windows 11 Déploiement OneDrive et services Microsoft 365 Obsolescence OS (RedHat 7 / 9) Obsolescence MySQL Upgrades d’infrastructure et monitoring Mission Pilotage & Coordination Piloter un portefeuille de projets IT Coordonner les équipes métiers, techniques et prestataires Garantir le respect des délais, budgets et engagements Animer les ateliers et comités de pilotage Anticiper les risques et gérer les environnements complexes Activités opérationnelles Suivi des projets dans Jira (récits, sous-tâches, plans d’action) Planification des ateliers avec les PO Rédaction des procédures, notes de cadrage et cahiers de recette Gestion des inter-dépendances via ServiceNow (RITM, RFC) Coordination des déploiements (SCCM / MECM) Lancement de pipelines via Git Suivi des déploiements et reporting Livrables attendus Planning et suivi projet Comptes rendus d’ateliers Plans d’actions Supports de présentation (COMOP) Notes de cadrage Cahiers de recette Reporting de déploiement Environnement technique Indispensable : Microsoft 365 (OneDrive, Teams, SharePoint, Exchange Online) Windows 10 / Windows 11 - Intune / SCCM / MECM - GPO / Entra ID Environnement Open Complémentaire : RedHat 7 / 9 MySQL Cloudera, Kafka Bases NoSQL (MongoDB, PostgreSQL, Redis…) Jira, ServiceNow, Git
CDI

Offre d'emploi
Engineering Manager - Nantes - CDI

BLOOMAYS
Publiée le
Angular
Java
Springboot

45k-58k €
Nantes, Pays de la Loire
Dans le cadre de la structuration de la R&D et du renforcement de l’encadrement technique, nous recrutons un·e Engineering Manager pour piloter une équipe de 4 à 7 développeur·se·s organisée par domaine métier en architecture microservices. 🎯 Votre rôle : garantir l’excellence technique de l’équipe tout en restant acteur·rice du code. Vous conservez une implication technique significative (environ 20 à 30% de votre temps), tout en assurant le leadership technique et managérial. Vos responsabilités : 💡 Coordination technique & produit Analyser les besoins techniques et piloter les études permettant de réduire les risques. Challenger les estimations et garantir la cohérence technique avec le Product Owner. Traduire la vision portée par l’Engineering Director en actions concrètes. Porter la responsabilité d’un domaine métier clairement identifié, avec exposition d’API vers les autres équipes. 🛠️ Leadership technique Superviser la qualité du code (relectures, pair programming, bonnes pratiques). Suivre les indicateurs de qualité et de vélocité. Participer activement aux décisions d’architecture (microservices, DDD, patterns). Contribuer au développement avec un code exemplaire. Favoriser l’amélioration continue (TDD, XP, DevOps, Scrum). 🌱 Management & développement des talents Fixer les objectifs annuels et assurer un suivi mensuel individuel. Accompagner la montée en compétences. Identifier les besoins de formation. Participer aux recrutements. Donner de la visibilité sur l’avancement, anticiper les risques et optimiser les moyens humains et techniques. Stack principale : Java 25 / Spring Boot Angular 20 HTML5, CSS3 (Sass), WebComponents, Responsive Design SQL (Oracle, SQL Server, PostgreSQL) API REST Git, Jenkins, Sonar Tests automatisés (JUnit, Cucumber, Selenium) Docker AWS (et autres environnements cloud selon contexte) Architecture microservices Bonus appréciés : Domain Driven Design (DDD) Middleware orienté message (RabbitMQ, AWS SQS/SNS) Prompt engineering / orchestration d’agents Storybook Jira, Confluence 📍 CDI basé à Nantes 🏠 Télétravail possible jusqu’à 50% (avec présence attendue pour favoriser la cohésion et l’intégration) 💰 Rémunération : 45 à 55K€ brut annuel fixe + variable annuel (3K€) Avantages intégrés : RTT, tickets restaurant, participation, mutuelle, forfait mobilité, prime télétravail, CSE, vie d’entreprise dynamique (événements internes réguliers). Un parcours d’onboarding structuré est prévu pour garantir une prise de poste efficace.
Freelance

Mission freelance
Consultant Gouvernance Data

Codezys
Publiée le
Gouvernance

12 mois
350-450 €
Paris, France
Sécurité et conformité réglementaire : Garantir la conformité des données aux normes internes et externes, notamment en matière de RGPD et de législation en vigueur. Gestion des rôles et animation de la communauté Data : Identifier et mobiliser les relais de la gouvernance Data dans un contexte de responsabilités fédérées. Animer des séminaires, assurer la communication et favoriser l’engagement des acteurs concernés. Gestion des habilitations : Définir la granularité des habilitations pour les rôles et utilisateurs afin d’assurer une sécurité optimale et une gestion fine des accès. Accompagnement à la montée en compétence : Soutenir le développement des compétences des membres de l'équipe sur les sujets fondamentaux indispensables à la réalisation des missions liées à la gouvernance des données. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Exemples de livrables : Chapitres thématiques de la politique de gouvernance des données : Rôles et responsabilités Gestion du Glossaire et du Dictionnaire des données Gestion du Data Lineage Sécurité et droits d’accès, conformité juridique Suivi de la qualité des données Processus d’évolution de la plateforme Data Environnement technique : La sélection du fournisseur pour la plateforme Data d’entreprise est en cours. La solution cible intégrera notamment : Couche de stockage : Teradata, Hadoop Cloudera, PostgreSQL Transformation des données : DataStage, Spark Business Intelligence : Power BI, SAS Sécurité : 2 jours de télétravail possible par semaine à Paris 12, avec un démarrage prévu à la mi-mars 2026. La mission se clôturera en janvier 2027, avec une option jusqu’en janvier 2028. La date limite de réponse est fixée au 19/02/2026. Type de contrat : salarié ou freelance. TJM cible : 450 € .
Freelance

Mission freelance
Architecte IT transverse Infrastructure / Production

PROPULSE IT
Publiée le
Infrastructure
Production

24 mois
450-900 €
Paris, France
PROPULSE IT recherche un ARCHITECTE INFRASTRUCTURE avec une très bonne expertise de la production. - accompagner des experts techniques et des chefs de projet Infrastructure dans la mise en œuvre de projets Build, qui peuvent couvrir l'ensemble de l'environnement technique du client. - Réfléchir aux préconisations, et challenger les différentes options - Communiquer, et accompagner l'adoption des solutions Connaissances et expériences en Architecture, et de projet production de bout en bout, sur les domaines suivants - les technologies en datacenter : • stockage : EMC, Netapp, • sauvegarde : CommVault • Réseau : CISCO, Checkpoint, Fortinet, F5 - les systèmes d'exploitation serveurs : RedHat Linux et Microsoft Windows - les technologies de virtualisation : VMware, OpenStack, Container Docker - les technologies de bases de données : Oracle, PostgreSQL, MongoDB, SQL Server - les technologies de serveurs d'applications : Weblogic, Tomcat, Apache - les technologies d'orchestration et d'ordonnancement : VRO / VRA, Kubernetes, XOS-Axway - les technologies de Devops : GitLab, Gitub, Ansible, Terraform - les technologies de Provider Cloud : Microsoft Azure, AWS - les technologies de gestion de la sécurité : PKI - les technologies de gestion des identités : LDAP, Active Directory, Bastion - les technologies de supervision et de métrologie : BMC Patrol, Centreon, Nagios
Freelance

Mission freelance
Data Engineer / Analyste Azure (MSBI) :

Cherry Pick
Publiée le
Azure
MSBI
SQL

12 mois
450-500 €
Paris, France
Dans le cadre de projets Data en environnement Full Microsoft, Altarea souhaite renforcer ses équipes sur des sujets d’ingestion, traitement et restitution de données. Les projets consistent à : ingérer de nouvelles données depuis des bases Oracle ou PostgreSQL, Les stocker et traiter sur Azure, Produire des rapports décisionnels via Power BI. Mission Ingestion de données depuis Oracle / PostgreSQL vers Azure Utilisation de SSIS (infra locale) ou Azure Data Factory selon les contraintes techniques et de coûts Traitement et transformation des données Modélisation et restitution via Power BI Travail majoritairement en SQL (pas de besoin Python) Capacité à challenger les choix techniques et à proposer des optimisations Veille technologique et posture de consultant Environnement technique Stack Full Microsoft (MSBI) SQL Server / SSIS Azure (Data Factory, stockage) Power BI Sources : Oracle, PostgreSQL Profil recherché Data Engineer / Data Analyst Azure 5 à 10 ans d’expérience Très bon niveau SQL À l’aise en environnement MSBI Capacité de recul, force de proposition Posture conseil Une expérience dans la promotion immobilière est un gros plus
Freelance

Mission freelance
[LFR] Architecture virtualisation stockage, sénior à Saint-Denis - 1332

ISUPPLIER
Publiée le

10 mois
400-605 €
Saint-Denis, Île-de-France
Description and Location Les missions s’inscrivent dans un contexte d’évolution des infrastructures de stockage, de sauvegarde et de virtualisation, sur des systèmes à forts enjeux de disponibilité, de performance et de sécurité. Les prestataires interviendront au sein des équipes de la DGNUM, en lien étroit avec les équipes RUN, sécurité, infogérants et les autres parties prenantes internes. 1. Objet des missions Les Architectures techniques Seniors auront notamment pour responsabilités de : Porter la vision SI à moyen terme sur leur périmètre (sauvegarde/stockage ou virtualisation/stockage). Garantir la cohérence fonctionnelle et technique des solutions, ainsi que la qualité de service. Contribuer à la continuité opérationnelle, à la sécurité et à la supervision des SI.- Piloter ou contribuer aux projets d’évolution d’infrastructure, de la conception à la mise en production. Participer à la rédaction et à l’analyse des documents techniques dans le cadre des consultations (cahiers des charges, grilles d’évaluation, etc.). 2. Profil et compétences recherchés (communs aux deux besoins) Expérience confirmée en architecture d’infrastructure sur des SI critiques (stockage, sauvegarde, datacenter, virtualisation). Maîtrise attendue notamment sur : Les architectures de stockage (SAN, solutions de sauvegarde, PRA/PCA, continuité de service), Les architectures de virtualisation et de socles techniques transverses, Les problématiques de sécurité, supervision et exploitation (RUN). Vision SI et architecture des socles d’infrastructure Virtualisation et stockage Définition et maintien des standards Etudes de solutions POC et projets de transformation Coordination avec les équipes techniques transverses Compétences clés : Capacité à définir et porter une vision SI à moyen terme. Pratique avérée de la rédaction de dossiers d’architecture, notes techniques, cahiers des charges. Pilotage de projets d’infrastructure (planification, suivi, gestion des risques, coordination des intervenants). 3. Organisation et modalités Durée envisagée : 3 ans à compter du 13/04/2026 (date indicative à confirmer). Localisation : Saint-Denis Environnement technique ➢SYSTEME: LINUX (UBUNTU, REDHAT), UNIX (ORACLE Solaris, IBM AIX), WINDOWS ➢ SGBDR: ORACLE, POSTGRESQL, MONGODB, SQLSERVER, MYSQL ➢ ORDONNANCEUR: VISUAL TOM ➢ RESEAU: DNS, LAN, WAN, NTP, FIREWALL, VPN, SWITCH ➢ SAUVEGARDE: COMMVAULT, VEEAM, TINA, RUBRIK ➢ STOCKAGE (SAN & NAS): DELL/EMC, HPE, NETAPP, CISCO ➢ VIRTUALISATION: VMWARE, NUTANIX ➢ CONTENEURISATION: DOCKER, KUBERNETES ➢ SERVEURS: SUN SERVER, IBM POWER, HPE DL/BL/DX, DELL PER/XC ➢ AUTRES: ACTIVE DIRECTORY, CITRIX
Freelance

Mission freelance
DevOps Engineer – Azure / Kubernetes / CI/CD

Templeton and Partners Limited
Publiée le
Azure
Azure DevOps
CI/CD

6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
DevOps Engineer – Azure / Kubernetes / CI/CD Localisation : Clermont-Ferrand (Hybride) Durée : Mission longue – démarrage ASAP Type : Freelance Contexte Notre client renforce son équipe DevOps et recherche un ingénieur expérimenté pour industrialiser les pipelines CI/CD, superviser les environnements cloud et assurer la fiabilité des plateformes, notamment en production. Missions • Mise en place et maintenance des pipelines CI/CD • Déploiement, supervision et maintien en conditions opérationnelles • Mise en place de solutions de monitoring et gestion des incidents • Participation aux choix techniques et amélioration continue • Garantie des bonnes pratiques DevOps, sécurité et automatisation Environnement technique Azure, Kubernetes, GitLab CI, Kafka, PostgreSQL, MongoDB, Keycloak, Unix/Linux, architectures microservices. Profil recherché • Expérience confirmée en DevOps sur environnement cloud • Bonne maîtrise d’Azure et Kubernetes • Expérience CI/CD et exploitation production • Sensibilité aux sujets de sécurité et haute disponibilité Compétences appréciées : Java, bases de données, architectures event-driven.
Freelance

Mission freelance
POT8902 - Des Consultants JAVA DEVOPS sur Lyon

Almatek
Publiée le
Java

6 mois
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients , Des Consultants JAVA DEVOPS sur Lyon. Stack technique la plus récurrente : Back-end : Java, Front-end : Angular, CloudFront BDD : PostgreSQL Cloud : AWS, Lambda, S3, SQS, DynamoDB, Cognit Devops : Terraform, GitLab, Docker, Jenkins Autres : Cucumber, Cypress, Cloudwatch, Alertmanager, Grafana, ElasticSearch Profils : Lead Tech Front/Back Dev fullstack PO Lead Designer Designer UX/UI Ingénieur DevSecOps Architecte Cloud Almatek recherche pour l'un de ses clients , Des Consultants JAVA DEVOPS sur Lyon. Stack technique la plus récurrente : Back-end : Java, Front-end : Angular, CloudFront BDD : PostgreSQL Cloud : AWS, Lambda, S3, SQS, DynamoDB, Cognit Devops : Terraform, GitLab, Docker, Jenkins Autres : Cucumber, Cypress, Cloudwatch, Alertmanager, Grafana, ElasticSearch Profils : Lead Tech Front/Back Dev fullstack PO Lead Designer Designer UX/UI Ingénieur DevSecOps Architecte Cloud
Freelance

Mission freelance
[LFR] Administration Datadog, Sénior à Saint-Denis - 1331

ISUPPLIER
Publiée le

10 mois
300-445 €
Saint-Denis, Île-de-France
Description and Location Objectifs • Prise en charge des demandes de supervision Datadog, • Réalisation de dashboards répondant aux besoins des demandeurs, • Réalisation de monitors et configuration de l’alarming, • Suivi des tâches et comptes-rendus. Description détaillée des tâches qui constituent la mission • Outillage et écosystème : Utiliser les outils mis à disposition, comprendre et répondre aux sollicitations des demandeurs (Solutions Métiers et Lignes de Services) et appréhender la structure organisationnelle. • Installation et Configuration : Installer et configurer les agents Datadog et autres composants nécessaires. • Modèles (Templates) : Développer et maintenir des modèles standards, de référence ou génériques de monitors et dashboards. • Supervision : Configurer des éléments de supervision (métriques, logs, etc.) pour monitorer le fonctionnement des applications. • Déclencheurs : Créer des monitors pour détecter des conditions anormales grâce à des seuils fixés avec les demandeurs et générer des alertes en cas de dépassement de ces seuils prédéfinis. • Alertes et Notifications : Configurer des actions pour envoyer des notifications (courriels, canal Teams, WebHooks, etc.) en cas d'alertes, et définir des escalades si les problèmes ne sont pas résolus. • Cartes et Tableaux de Bord : Créer des cartes réseau et des tableaux de bord pour visualiser l'état et les performances des différents éléments supervisés. • Maintien et Optimisation : Surveiller et maintenir en conditions opérationnelles le bon fonctionnement et les performances de la supervision mise en place, ainsi que veiller et accompagner les changements (évolution, migration, décommissionnement) pour assurer une supervision efficace et minimiser l'impact sur les ressources système et budgétaire. • Comptes-Rendus, Rapports et Analyse : Rendre compte de l’état d’avancement d’une tâche, présenter ses réalisations, générer des rapports, analyser les tendances et proposer des améliorations. Qualité • Travailler en cohérence avec les normes ISO de la DSI Résultats attendus et/ou livrables avec échéancier si besoin • Voir la description détaillée des tâches 5.1 Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : Les compétences requises : • Expertise en administration Datadog (Agents Datadog, remontée de Metrics/Logs, création de dashboards, de monitors et de remontées d’alarmes). • Compétence confirmée dans les environnements Unix/Linux et Windows.. Les compétences souhaitées : • Notions de développement (Scripting Python, Shell, Terraform), • Utilisation d’APIs (requêtage http/REST, xml, json), • Connaissances basiques à intermédiaires sur des technologies variées (Ansible, Réseau, ESX, Shell, SGBD, Middlewares, Kubernetes, etc.) allant devoir être supervisées. 5.2 Environnement technique : SGBD PostgreSQL Oracle MONGODB Microsoft SQL Server 6 MySQL NoSQL Couchbase Oracle RDB sur Open VMS PAAS SGBD (AWS et Azure) Serveurs Unix Solaris / AIX, Linux Suse / Red Hat / Centos / Ubuntu, Windows Server Middlewares Apache, Tomcat, WebLogic, CFT, MQ, SFTP, JMS, VTOM, suite logicielle TIBCO, Networker, Oracle Tuxedo, NIFI, KAFKA Plateformes/ logiciels Terraform, Jenkins, Ansible, squash TM, Postman, Docker, Kubernetes Observabilité Datadog, Splunk, Zabbix, Dynatrace, Nagios
Freelance

Mission freelance
Consultant ElasticSearch - Paris

Net technologie
Publiée le
Elasticsearch
Grafana

3 mois
Paris, France
Etudier, concevoir et développer les traitements de recherche de données dans Lac de données. Industrialiser l’intégration, le déploiement et l’exploitation de l’infrastructure et des outils des moteurs de recherche en s’assurant de leur scalabilité, de leur résilience et haute disponibilité aux sollicitations. Participer aux ateliers de collecte des besoins des parties prenantes techniques (Lac de données) et fonctionnelles : IA, appli web, les applications internes …. Périmètres techniques : Moteur de recherche : ElasticSearch, Exalead, SolR Moteur de recherches vectorielles Moteur de stockage et BDD : Redis, PostgreSQL, MongoDB, ElasticSearch Log : Graylog Metric : Prometheus Dashboard : Grafana Langage : Python

Les métiers et les missions en freelance pour PostgreSQL

Administrateur·rice de base de données (Oracle, Sybase, Sqlserver…)

L'Administrateur·rice de base de données (Oracle, Sybase, SQL Server...) peut également gérer des bases de données PostgreSQL, bien que ce rôle soit souvent lié à d'autres SGBD, en s'assurant de leur performance et de leur sécurité.

Développeur·euse base de données (SQL, PL/SQL, Oracle...)

Le/ La Développeur·euse base de données (SQL, PL/SQL, Oracle...) développe des applications qui interagissent avec des bases de données PostgreSQL, en utilisant des requêtes SQL pour gérer, manipuler et extraire des données.

Architecte de base de données

L'Architecte de base de données conçoit des structures de bases de données complexes et choisit PostgreSQL comme solution pour sa fiabilité et ses capacités avancées dans les systèmes de gestion de données.

Data analyst

Le / La Data Analyst utilise PostgreSQL pour interroger, analyser et extraire des informations à partir de grandes bases de données, en optimisant les requêtes pour obtenir des insights exploitables.

482 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous