Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Offre d'emploi
DBA PostgreSQL Azure
Il gère et administre les systèmes de gestion de données de l'entreprise, en assure la cohérence, la qualité et la sécurité. Il participe à la définition et à la mise en œuvre des bases de données et des progiciels retenus par l'entreprise. ADMINISTRATION : • Effectue le choix d'implémentation des bases de données • Crée les bases en liaison avec l'administrateur système et les chefs de projets concernés • Met en œuvre les logiciels de gestion de bases de données. Effectue l'adaptation, l'administration et la maintenance de ces logiciels • Met en exploitation et en gestion les serveurs de données (administration, automatisation, développement des procédures, sécurité et autorisation d'accès, optimisation des traitements et des requêtes…) • Crée, à la demande des domaines ou de l'exploitation, les outils spécifiques d'aide à l'exploitation EXPLOITATION : • Assure l'intégrité des bases de données existantes en garantissant la sécurité physique (procédures de sauvegarde, restauration, journalisation, démarrage après incidents…) et logique (confidentialité, accès) • Met en œuvre les outils de surveillance • Règle les paramètres des bases de données pour une utilisation optimale. SUPPORT : • Assiste les utilisateurs (formation, requêtes techniques…) • Effectue un support technique de second niveau pour l'ensemble des bases de données • Possède un rôle de correspondant technique entre les chefs de projets et le support technique des éditeurs ÉTUDES ET CONTRÔLES : • Assure une veille technologique sur les SGBD et les progiciels retenus par l'entreprise • Suit et contrôle les évolutions de version des bases existantes et progiciels retenus par l'entreprise • Teste, valide, pour les aspects techniques, tous les logiciels et progiciels • Définit les normes et standards d'utilisation et d'exploitation des SGBD Ce sont les points clés auquel le candidat doit répondre à minima. • Un DBA infrastructure qui gère les activités du N1 (demandes et incidents simples) au N4 (architecture) • Activités PostgreSQL à 60% et Oracle à 40% • Expérience sur du réseau Azure > 4 ans • Expérience sur du réseau AWS > 2 ans • Astreinte 1 semaine/2 ou 3 • Niveau d'anglais B2 minimum obligatoire (meeting avec des Néerlandais • Télétravail : présence sur site requise tous les lundis et mardis, ainsi qu’un vendredi sur deux • Certification Azure DP300 Microsoft Certified: Azure Database Administrator Associate
Offre d'emploi
Data Analyst / Analytics Engineer (Futur Lead Data)
Sublimez l’usage de la donnée au sein de la plateforme Sincro Solutions Sincro Solutions est un éditeur de logiciels SaaS qui propose un écosystème interconnecté couvrant l’ensemble des besoins des acteurs de la prestation intellectuelle. Nos solutions VMS , ERP et SRM accompagnent la gestion des talents de bout en bout : de l’analyse de CV à la facturation, en passant par la comptabilité d’entreprise et la gestion de projet. Rejoindre Sincro Solutions , c’est participer à un projet unique, intégré et 100 % agile , dans un contexte de forte croissance. Vous évoluerez dans un environnement stimulant, qui réunit les technologies, langages, infrastructures, outils et méthodes les plus performants du marché . Missions principales Rôle et positionnement En tant que Data Analyst / Analytics Engineer , vous rejoignez le pôle Produit et intégrez l’équipe technique en charge de la construction de nouvelles fonctionnalités et de l’optimisation des performances des outils mis à disposition de nos clients internes et externes. Rattaché·e à l’ Engineering Manager , vous interviendrez principalement sur le Cloud Microsoft Azure . Ce poste représente une opportunité unique de créer la fonction Data chez Sincro Solutions et d’en devenir, à terme, le Lead Data . Analytics Engineering En tant qu’Analytics Engineer, vous jouerez un rôle clé dans le développement et la gestion du Data Lake / Data Warehouse utilisé par nos produits et nos clients. Vos responsabilités incluent notamment : Assurer la qualité des données : garantir des données propres, sécurisées et anonymisées dès leur entrée dans le système, en collaboration avec les équipes Data Engineers, ML Ops et Développement. Développer et maintenir des pipelines de transformation : concevoir et maintenir des flux de données en SQL et Python , sur BigQuery ou équivalents. Vous transformerez les données générées par nos clients et les enrichirez avec des sources tierces. Améliorer et documenter les flux de données : faire évoluer les pipelines selon les besoins métiers et techniques, tout en assurant une documentation claire et à jour sur la traçabilité des données. Data Analysis Vous soutenez l’équipe Data & Performance dans l’analyse et l’exploitation des données afin de favoriser la prise de décision stratégique et la compréhension des indicateurs clés . Vos missions principales : Création et maintenance de dashboards Power BI Explorer le Sincro Data Warehouse et concevoir des KPIs pertinents . Développer et maintenir des dashboards Power BI à destination des équipes métier et des clients. Conseiller les Product Owners et les utilisateurs sur les meilleures pratiques de data visualisation . Analyse et interprétation des données Produire des reportings et analyses pour soutenir la stratégie d’entreprise. Identifier et comprendre les dynamiques métiers : recrutement, pipeline commercial, sourcing de talents, contractualisation, facturation, comptabilité, etc. Profil recherché Expérience et formation Minimum 4 ans d’expérience en data analyse ou analytics engineering. Formation Bac +5 (école d’ingénieurs, master Big Data, mathématiques/statistiques ou équivalent). Bonne compréhension des enjeux de gestion d’entreprise . Une expérience en DataOps est un réel atout. Qualités personnelles Organisé·e, rigoureux·se, curieux·se et autonome. Excellente communication écrite et orale, esprit d’équipe et aisance relationnelle. Bon niveau d’anglais (oral et écrit). Goût pour l’apprentissage et l’autoformation, notamment sur des aspects techniques. Compétences techniques Domaine Compétences attendues BI / Data Visualisation Maîtrise indispensable de Power BI SQL Solide expérience en manipulation de données ( BigQuery, MySQL, Fabric , etc.) ETL / Data Transformation Expérience avec Azure Data Factory , dbt , Dataiku ou équivalents Comptabilité & Finance d’entreprise Connaissances en analyse de données dans ces domaines appréciées Langages Bonne maîtrise de SQL , notions de Python appréciées Machine Learning Connaissances de base bienvenues Ce que nous vous offrons Une place centrale dans la construction de la culture Data chez Sincro Solutions. Un projet stimulant , à fort impact, dans un environnement technique exigeant et bienveillant. Une autonomie réelle dans l’organisation de votre travail et vos choix techniques. Des collaborateurs engagés et une équipe attachée à la qualité, à la coopération et à la montée en compétence continue.

Mission freelance
Expert Azure AKS h/f
Notre client recherche un expert Azure AKS / Confluence Data Center pour piloter et exécuter la migration de Confluence Data Center (10k users) depuis une VM AWS vers Azure Kubernetes Service (AKS). Objectifs principaux : Définir l’architecture cible HA multi-nœuds AKS, Azure Database for PostgreSQL, Application Gateway et stockage persistant. Migrer les données Confluence (~3TB) et assurer performance et scalabilité. Automatiser l’infrastructure et le déploiement via Terraform et FluxCD. Assurer intégration avec la ligne de service Managed Apps pour support 24/7. Mettre en place monitoring, alerting, runbooks et PRA.

Offre d'emploi
Développeur .NET (Backend / Cloud Azure) confirmé en Belgique
Nous recherchons pour un de nos clients en Belgique un Développeur .NET (Backend / Cloud Azure) Mission: Dans le cadre d’un projet stratégique de transformation digitale, le client lance la construction d’une nouvelle solution cloud destinée à moderniser et optimiser son système d’information. L’objectif est de développer une plateforme performante, scalable et sécurisée s’appuyant sur les technologies .NET 6/8 et Microsoft Azure, en suivant une approche Cloud Native et DevOps. Le développeur interviendra au sein d’une équipe agile multidisciplinaire composée d’architectes cloud, de développeurs front et back-end, de DevOps engineers et d’experts data. Responsabilités principales : Participer à la conception et au développement des microservices backend en .NET (C#). Contribuer à la mise en place et à l’intégration des services Azure (App Services, Functions, Event Grid, Service Bus, Cosmos DB, etc.). Développer et documenter des API REST performantes et sécurisées. Collaborer avec l’architecte pour garantir la scalabilité et la résilience de la solution cloud. Participer activement aux revues de code, tests unitaires et d’intégration continue. Assurer la surveillance et le suivi des performances via les outils Azure Monitor / Application Insights. Contribuer à l’amélioration continue des pratiques de développement (CI/CD, automatisation, qualité du code). Travailler en méthode Agile / Scrum, en interaction directe avec les Product Owners et l’équipe QA. Compétences techniques requises : Langages et Frameworks : C#, .NET 6/7/8, Core Cloud : Azure App Services, Azure Functions, Azure Storage, Azure Service Bus, Azure DevOps Bases de données : SQL Server, Azure SQL, Cosmos DB Architecture : Microservices, RESTful APIs, Event-driven architecture Outils CI/CD : Azure DevOps, Git, Docker, Kubernetes (AKS) Qualité & tests : xUnit, NUnit, Postman, Swagger/OpenAPI Sécurité : Azure AD, OAuth2, gestion des secrets (Key Vault) Méthodologie : Agile / Scrum, intégration continue, déploiement continu Démarrage: 20/10/2025 Télétravail: 2jrs

Offre d'emploi
Administrateur poste de travail H/F
Tu as entre 3 et 6 ans d’expérience dans un environnement tech varié et tu veux contribuer directement au bien-être des développeurs ? Ce poste est fait pour toi. L’objectif principal : améliorer la satisfaction des développeurs en veillant à ce qu’ils aient accès aux bons outils et ressources nécessaires pour bosser dans les meilleures conditions. Tu évolueras dans un environnement technique riche et stimulant : Windows, Red Hat Enterprise Linux, Java, .Net, Angular, Python, Datastage, Oracle, MySQL, PowerBI, Shell, Openshift, GCP , etc. Voici ce que tu feras au quotidien : Tu assisteras à la configuration des postes de travail , en veillant au respect des normes de sécurité. Tu t’assureras que les outils et frameworks nécessaires soient facilement accessibles. ♻️ Tu suivras le cycle de vie des packages : nouvelles versions, gestion de l’obsolescence, etc. Tu maintiendras à jour la documentation et les notes de version pour que tout soit clair et dispo. Tu animeras des groupes de travail avec les devs pour écouter leurs besoins et identifier les pistes d’amélioration. Tu coordonneras avec les équipes pour garantir bonne livraison des postes de travail. Tu feras une veille technologique sur les outils de développement pour toujours proposer mieux.
Mission freelance
Data Engineer (AWS, Snowflake & Terraform)
Notre client souhaite renforcer son équipe DataPlatform. Vous rejoindrez une équipe composée de 3 Data Engineer, 1 DB Admin, 1 Responsbale BI, 1 Product Owner appuyé par des DevOps mettant à disposition les infrastructures de gestion de la donnée. Vous aurez la charge de 3 principales missions : 1° Implémentation de nouveaux flux de données sur AWS & Terraform avec Python/Airflow (COLD et STREAMING) · Implémentation des flux de données de l’extraction à l’exposition des données via Python/Airflow Managé ou avec Nifi pour les données « cold » et « streaming » 2° On vous demandera pour chacun des projets : · Code Review entre les data engineers · Réalisation des tests unitaire, de non-régression et d’intégration · Mise à jour de la documentation sous Confluence · Mettre à jour la documentation dans confluence. · Réaliser les tests unitaires et d’intégration. · Respecter les bonnes pratiques de développements 3° Maintenance corrective des flux de données 1 à 2 jrs de remote Localisé Paris 12e

Mission freelance
DBA ORACLE / EXADATA (senior/expert) F/H
Automatisation de la mise en œuvre et l’exploitation Oracle sur Linux (scripting Shell, Perl et Sql) ; Exploitation Exadata et MCO des bases en Dataguard documentation et automatisation des procédures ; Migration de bases Oracle vers Exadata (documentation, test et automatisation des procédures) ; Patching Exadata (infra et bases) (documentation, test et automatisation des procédures) ; Mise en œuvre technique des SGBD Oracle en stand-alone et en cluster ; Mise en place des procédures d’exploitation des bases de données (surveillance, sauvegarde) ; Patch management, audits, industrialisation des procédures ; Validation des nouvelles versions produits ; Interface et relation avec les éditeurs ; Automatisation d'Oracle sur Exadata et hors Exadata et fourniture de services au travers du portail du Cloud privé (création de bases, mise en place de la résilience, de la sauvegarde et des procédures d'exploitation, mise à disposition de services à l'utilisateur comme l'ajout de volumétrie ou le clonage) en utilisant du scripting Shell et Perl ; Support opérationnel de production (niveau 3) d'Oracle sur les environnements critiques en RAC sur Linux ; Rédaction des procédures, de réponses techniques et contribution aux dossiers d’architecture technique.

Mission freelance
Développeur PHP/Symfony- NextJS
Développeur PHP/Symfony/MySQL/NextJS Missions principales : Au sein d’une équipe dynamique et agile, vous interviendrez sur toutes les phases du projet, de l’analyse à la mise en production de nouvelles fonctionnalités : Concevoir et développer des solutions techniques répondant aux besoins fonctionnels et aux enjeux de performance (Symfony 7.2, API Platform 3.x, MySQL 8, React/NextJS, TypeScript). Réaliser les développements selon les spécifications et les solutions d’implémentation définies. Mettre en place et exécuter des tests unitaires, fonctionnels et d’intégration avant livraison. Assurer les code reviews et garantir la qualité des livrables. Maintenir l’opérabilité des applications et participer à la résolution d’incidents. Participer à la conception et à l’optimisation des architectures applicatives (pattern hexagonal, design patterns). Profil recherché Formation Diplôme supérieur en informatique ou équivalent. Expérience Minimum 5 ans d’expérience confirmée dans le développement PHP/Symfony et React/NextJS. Expérience significative sur MySQL, notamment sur les problématiques de performance et forte volumétrie . Expérience dans des environnements à très fort trafic et idéalement dans le e-commerce. Compétences techniques PHP / Symfony (7+) : maîtrise approfondie du framework et de ses composants. API Platform 3.x : conception et développement d’API robustes. MySQL 8 : requêtes complexes, optimisations, gestion de volumes importants. NextJS / React / TypeScript : développement frontend moderne et performant. Git, Unix : gestion de versions et utilisation de systèmes Unix. Architecture hexagonale et design patterns : conception d’applications maintenables et évolutives. Compétences complémentaires souhaitées Docker et familiarité avec certains Cloud Providers . Connaissances en concepts IA seraient un plus. Sensibilité aux problématiques de performance API dans un environnement à très fort trafic. Qualités personnelles Rigoureux(se) et respectueux(se) des bonnes pratiques de développement. Capacité à produire un code clair, efficace et maintenable. Dynamique, autonome et avec un bon esprit d’équipe. Capacité à s’adapter à un environnement business en constante évolution. Environnement technique PHP 8+ Symfony 7+ API Platform 3.x NextJS / TypeScript MySQL 8 Gitlab CI Architecture Cloud / API Docker (souhaité)
Mission freelance
Data Engineer azure (SQL / ADF /Power BI)
Au sein d’un Centre de Compétences Data, le Data Engineer participe à des projets de transformation digitale. Il conçoit, développe et déploie des solutions Data et BI pour permettre aux utilisateurs métiers de suivre et analyser leurs activités. Il met en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts), développe des pipelines ETL/ELT automatisés avec Azure Data Factory et SSIS, assure la qualité, la sécurité et la performance des données, et collabore avec les équipes DevOps, Product et Data pour garantir la cohérence technique et fonctionnelle des solutions. Compétences attendues : Langages : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Outils : GitLab, Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning

Mission freelance
data ingnénieur
Objectif global :Développer le socle data Loyalty & Quotation Contrainte forte du projet - Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.

Mission freelance
DBA orienté devops (Ansible, gitlab CI)
Dans le cadre de la modernisation et de l’optimisation d’un système d’information complexe, Notre client, une organisation du secteur culturel et technologique recherche un Ingénieur DevOps / DBA pour renforcer son équipe IT. La mission consiste à : Administrer, exploiter et optimiser les bases de données (PostgreSQL, Vertica, MariaDB, Oracle). Mettre en place et maintenir des environnements Cloud (AWS) et on-premises. Participer au maintien en conditions opérationnelles (MCO) et au Run . Développer et automatiser l’infrastructure (Infrastructure as Code). Garantir la supervision, la sécurité, la haute disponibilité et la continuité de service. Accompagner la montée en compétences des équipes internes et assurer le respect des normes. Stack technique Bases de données : PostgreSQL, Vertica, MariaDB, Oracle 11g/19c Outils DevOps : Docker, Ansible, Git, Terraform, ElasticSearch, Kibana Systèmes & Réseaux : Linux, Réseaux Cloud : AWS (IAM, CloudWatch, CloudTrail, S3, EC2, services Core) Méthodologies : Cycle en V et Agile (Scrum, Kanban
Offre d'emploi
Data engineer H/F
🎯 Venez renforcer nos équipes ! Pour accompagner notre croissance, nous recherchons un(e) Data Engineer pour un beau projet chez un acteur majeur de la grande distribution. Dans ce contexte international et exigeant, vous intégrez des équipes dynamiques, vous abordez de nouveaux challenges ! 📍 Ce Qui Vous Attend La mission consiste à préparer les socles de données après validation et transformation, au service des équipes de Data Analyse Contribuer autant au RUN qu’à des actions de BUILD orientée DevOps Assurer le maintien en condition opérationnelle sur l'existant, analyse et traitement des incidents Support à l'usage des données, documentation et assistance

Offre d'emploi
Développeur Kotlin AWS
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d’un Développeur Backend Senior pour rejoindre une équipe agile intervenant sur des applications à fort trafic et sur des projets innovants à forte valeur ajoutée. Vous serez amené(e) à travailler sur la conception, le développement, le déploiement et la maintenance de fonctionnalités critiques, tout en garantissant la qualité et la robustesse des solutions mises en place. Vous interviendrez dans un environnement stimulant et multi-clients, avec des enjeux techniques variés : refonte de modules stratégiques, implémentation de connecteurs, gestion de la rétrocompatibilité des APIs, rédaction de documentations techniques et technico-fonctionnelles, et amélioration continue de l’écosystème applicatif. L’environnement technique est moderne et complet : Développement d’APIs en Java / Kotlin avec Spring Boot Infrastructure décrite en Terraform , déployée via GitlabCI sur Kubernetes (EKS) Bases de données Mongo Atlas , AWS DynamoDB , AWS S3 Communication via HTTP , messaging (ActiveMQ, AWS SQS/SNS) et AWS Lambda Suivi et monitoring avec Datadog Build avec Gradle ou Maven Forte culture DevOps : you build it, you run it Ce poste vous permettra de contribuer à des projets structurants dans un contexte multi-fournisseurs, où l’autonomie, la curiosité et l’appétence pour la qualité logicielle (tests automatisés, documentation, monitoring) sont valorisées. Si vous êtes actuellement à l’écoute du marché, je vous invite à m’envoyer votre candidature. Bien à vous

Offre d'emploi
Tech Lead DATA - PUY DE DOME
Pour un gros client industriel nous cherchons, un Tech Lead Data. Il devra maitriser Azure Data Bricks, et avoir de bonnes connaissances sur Power BI. En terme de langages, Python et SQL sont indispensables. Il devra comprendre l'anglais technique au minimum. Mission sur Clermont-Ferrand, démarrage dès que possible, 2 jours de télétravail possibles par semaine. Compétences transverses Niveau d'expérience : 3 à 5 ans minimum Compétences : Azure Data Bricks ; Power BI ; Python ; SQL Langues : Anglais requis Profil : Tech Lead Data ou Ingénieur Data expérimenté Démarrage de mission : ASAP Durée de mission : Longue durée Télétravail : Partiel (2 j par semaine)
Mission freelance
Développeur (8/10XP) 80% Back End
Le client recherche un développeur expérimenté alliant une expertise en développement et une casquette orientée "Architecte Fonctionnel" Le projet tourne autour de la plateforme Paddock qui orchestre l’exposition vers l’externe de services existants dans le Groupe tels que l'authentification, la facturation, l’envoi de SMS… Ils veulent gérer L’intégration de nouveaux services ou nouveaux partenaires pour donner lieu à de nouvelles versions. Certains de ces lots d’évolution seront confiés au prestataire et comprendront les types d’activités suivants : • Définition des choix fonctionnels en relation avec l’architecte leader de Paddock ; • Participation à la conception ; • Développement logiciel ; • Tests unitaires ; • Soutien à la mise en production • Soutien aux exploitants du service. Objectif : travailler sur le système de billing central de Paddock qui comportent une trentaine de composants. Il devra donc d’abord monter en compétence sur le fonctionnel au plus vite. Vos missions : Concevoir l’architecture logicielle des composants ; Faire évoluer les composants existants et développer de nouveaux composants pour les environnements de qualification et de production ; Optimiser l’architecture logicielle des composants existants en vue d’en améliorer la robustesse et les performances ; Gestion de la chaîne d’intégration continue ; • Rédiger les documents techniques : TIG (technical installation guide), TOG (technical operational guide), MIS (monitoring instruction sheet) ; Faire les tests unitaires et le rapport associé ; Apporter un soutien à la qualification de bout en bout avec le pays ; Apporter un soutien aux exploitants en prenant part au support niveau 3 (composante « run » à ne pas négliger).

Offre d'emploi
DBA Production
Intitulé du poste : Administrateur de Bases de Données – Production (DBA) Rattachement hiérarchique : Responsable Infrastructure / Responsable Data / Directeur des Systèmes d’Information (DSI) Missions principales Le DBA Production est garant de la disponibilité, performance, sécurité et intégrité des bases de données en environnement de production. Il assure la maintenance opérationnelle , l’ optimisation et la supervision des bases tout au long de leur cycle de vie, dans un contexte souvent critique et 24/7. Activités principales Gestion et exploitation des bases de données en production Assurer la disponibilité, la performance et la sécurité des bases de données. Surveiller les performances (monitoring) et optimiser les requêtes et ressources (tuning, indexation). Mettre en place et maintenir les plans de sauvegarde, restauration et reprise d’activité (PRA/PCA). Gérer les montées de version, patchs et mises à jour SGBD. Garantir l’intégrité des données et la haute disponibilité des services. Support et maintenance Gérer les incidents de niveau 2/3 liés aux bases de données. Rédiger et maintenir la documentation technique. Participer à l’industrialisation et à l’automatisation des tâches récurrentes. Contribuer à la veille technologique et proposer des axes d’amélioration.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- De AI-Revolutie: De Impact en Toekomst van ChatGPT
- Redressement massif pour les SASU à l’IR
- Je me présente, je suis consultante SEO
- L'IA ou les "IA" et le SEO (Référencement Naturel)
- Je suis développeur Web et Consultant SEO.
- Freelances : que pensez-vous d’un agent IA qui décroche des missions et gère votre quotidien ?