Trouvez votre prochaine offre d’emploi ou de mission freelance Nosql

Votre recherche renvoie 77 résultats.
Freelance

Mission freelance
Expert technique Oracle - Minimum 10 ans d'exp

Publiée le
Oracle

24 mois
400-800 €
Paris, France
Télétravail partiel
Propulse IT recherche pour un de ses clients un consultant Oracle expérimenté. Le client souhaite renforcer son pôle de compétence base de données et serveur d'application (middleware) avec un expert ayant des compétences et une expérience sur les différentes SGBD (PostgreSQL, Microsoft SQL Server, Oracle) et sur les serveurs d'application (Oracle 10gAS, 11gAS, …, Tomcat) afin de l'assister sur les projets d'évolution de briques. Voici un exemple des projets en cours de réalisation par l'équipe : • Participation à la mise en oeuvre d'une chaine CI/CD de delivery d'infrastructure OnPrem • Évolution des socles techniques (PostgreSQL version 14, Oracle version 19c, SQL Server version 2017) • Mise en œuvre des solutions de haute disponibilité Oracle DataGuard, Microsoft SQL Server AlwaysOn, PostgreSQL Patroni. • Etude de mutualisation de ressources : Oracle Exadata. • Mise à disposition d'un SGBD NoSQL : MongoDB. L'estimation de la répartition des tâches à réaliser dans le cadre de la prestation s'articule de la manière suivante : - Ingénierie bases de données/serveur d'application : 60-70% - Support N3 : 20-25% - Conduite technique de projet : 10-15% Les projets identifiés à ce jour dans le cadre de la prestation est : • Mise en place de de l'évolution Oracle Forms/reports D'autres projets sont susceptibles de s'ajouter à cette liste, en fonction des besoins de l'équipe. Livrables attendus : • Rédaction des dossiers d'architecture, d'exploitation, d'installation • Rédaction des modes opératoires à destination des différents acteurs projets et des équipes de Production • Compte rendu des ateliers de travail et des réunions réalisées dans le cadre des projets • Compte rendu de l'activité mensuelle
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance

Mission freelance
Data Engineer Python Azure

Publiée le
Azure
Databricks
PySpark

12 mois
600-650 €
Paris, France
Télétravail partiel
DATA ENGINEER Avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Objectifs et livrables : Nous recherchons une prestation de Data Engineering avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Le consultant Data Engineer évoluera dans un contexte agile, en mode itératif et co- constructif, en s’appuyant sur l’intelligence collective. Le prestataire Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir data modeling SQL/NoSQL Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Expérience réussie d’au moins 6 ans en Data Engineering. Compétences requises quotidiennement : Maîtrise des technologies suivantes : Python niveau expert - (4/4) Azure Cloud niveau avancé - (3/4) Azure functions niveau confirmé - (2/4) Compétences requises : Pyspark niveau expert - (4/4) Databricks niveau expert - (4/4)
CDI

Offre d'emploi
Data architect senior H/F

Publiée le

50k-60k €
Strasbourg, Grand Est
Télétravail partiel
Au sein de la DSI, vous intégrez une équipe pluridisciplinaire et jouez un rôle stratégique dans la définition, la structuration et l'évolution des architectures data. Vous êtes garant de la cohérence, de la performance et de la sécurité des systèmes de données. Concevoir et faire évoluer l'architecture data globale (modélisation, flux, stockage, sécurité) Définir les standards et bonnes pratiques en matière de gouvernance des données Superviser la mise en place des pipelines de données (Databricks, Power Automate) Piloter la modélisation des bases de données SQL et NoSQL Collaborer avec les équipes métier et techniques pour aligner les besoins fonctionnels et les solutions data Assurer la qualité, la traçabilité et la fiabilité des données dans un environnement cloud Participer au suivi et à la maintenance de l'exploitation
Freelance

Mission freelance
Développeur Python (H/F)

Publiée le
Python

3 ans
Île-de-France, France
Context: Le client est un leader mondial de l’assurance engagé dans une transformation digitale majeure. Services: Fourniture de services informatiques standardisés à l’ensemble des entités du groupe, en favorisant l’alignement du portefeuille, l’excellence de service et l’efficacité des coûts ; Remplacement des plateformes de gestion de contenu historiques (Documentum, FileNet, NAS) par une plateforme CMX (Content Management eXperience) : une solution clé en main, en mode SaaS, proposant des API REST et une interface web, entièrement alignée avec les standards du groupe en matière d’architecture, de sécurité, de conformité et de résilience ; CMX est une propriété intellectuelle détenue à 100 % en interne, et l’enrichissement de ses capacités — ajout de fonctionnalités innovantes, nouveaux services basés sur l’IA et accélération des migrations vers le cloud — est critique pour son succès à long terme. Deliverables: Maintenance et évolution des outils cœur en Python, prototypage de nouveaux services à forte valeur ajoutée — en s’appuyant sur des technologies telles que l’IA générative, les technologies sémantiques et les patterns cloud-native — afin de générer un impact métier à l’échelle du groupe ; Collaboration étroite avec les parties prenantes métiers, les product managers et les ingénieurs pour transformer des besoins émergents en services robustes et à forte valeur ; Construction et évolution des outils cœur : audit, stabilisation et refactorisation de scripts Python existants ; Garantie d’un code propre, conforme aux normes PEP8, avec des tests complets et une documentation associée ; harmonisation et développement de nouveaux modules, tels que la traduction de règles métiers exprimées en langage naturel en workflows techniques automatisés, stratégies de compression et de regroupement de fichiers ; Innovate & Prototype: Pilotage de sprints d’innovation courts et dynamiques pour explorer de nouveaux services répondant à des cas d’usage ciblés (tagging automatique, recherche sémantique, contrôle qualité des contenus) ; Conception de proofs of concept (POC), définition et remise en question des cas d’usage et besoins spécifiques via du prototypage rapide à des fins de laboratoire ; Évaluation de la faisabilité et proposition de roadmaps de mise en production ; Revue de code, partage des bonnes pratiques et mentorat des pairs sur le développement piloté par les tests (TDD), le CI/CD et l’architecture propre ; Contribution aux pipelines DevOps — CI/CD, infrastructure as code (Terraform, CloudFormation), déploiements automatisés. Expertise: Expertise en développement Python, sur des applications orientées données ou contenu (environ 10 ans d’expérience) ; Core Languages & Tools: Python (avancé), Git, Bash, Java, JavaScript (React/Vue) ; Data & AI: Pandas, regex, parsing JSON/XML, prompt engineering, NoSQL (MongoDB, MarkLogic), RDF/SPARQL, graphes ; Cloud & DevOps: AWS (S3, Lambda), CI/CD (Jenkins/GitLab CI), Terraform, OpenShift, Kubernetes, Artifactory, OpenLDAP ; Testing & Quality: Pytest, frameworks BDD (Behave/Cucumber), revues de code, Selenium, outils d’analyse de sécurité et de qualité (SonarQube, Snyk).
Freelance
CDI

Offre d'emploi
Architecte Technique Applicatif

Publiée le
Application web
Architecture
AWS Cloud

2 ans
40k-83k €
400-720 €
Villejuif, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un architecte technique : Les qualités requises sur cette mission sont de plusieurs ordres : - Technico-applicatif : • Les principes d’architecture Cloud native • Les solutions de containerisation (Docker, Kubernetes), et cloud public tel que AWS, GCP et à moindre mesure Azure • Les patterns applicatifs tels que DDD, Architecture Hexagonale, Clean architecture, CQRS, MVC2… • Le modèle d’architecture API/REST, les solutions d’API Manager (WSO2, Kong) et les protocoles de gestion d’identité et accès OpenIdC/OAuth2 • Les pratiques et solutions DevOps et GitOps (Git, GitLab, Operateur Kube…) • Les architectures évènementielles et les solutions technologiques associées (Kafka, Change Data Capture, MQSeries…) • Les Frameworks Web et back-end JavaScript & CSS, Angular, React, Bootstrap, NodeJS, Springboot • Les bases de données SQL (PostgreSQL, mySQL…) et noSQL (MongoDB, Redis…), • La plate-forme Java JEE et son écosystème • Les systèmes d’exploitation et serveur d’application Windows, Linux, Tomcat, Websphere. • Connaissances du Mainframe IBM serait un plus Experience dans le développement des applications bancaires
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-420 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance

Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France

Publiée le
Big Data
Cloud
Infrastructure

6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Freelance

Mission freelance
Intégrateur solution Linux REDHAT Aix en Provence

Publiée le
Red Hat Linux

6 mois
330-380 £GB
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Intégrateur solution Aix en Provence ASAP Distanciel : 2 jrs/semaine Séniorité : 3-7 ans d'xp Obligatoire : Linux REDHAT Important : Certificats électroniques control-m control-m / splunk / dynatrace XL deploy / XL release Contexte Dans le cadre de l'intégration et l'exploitation des applications du notariat en production, il assure le maintien en conditions opérationnelles des applications, ainsi que l'intégration des nouvelles versions applicatives. Description Au sein de l’équipe d'exploitation, il contribue au choix des différents composants SI (progiciels, bases de données, développements spécifiques...). Il en assure l’assemblage dans le respect du plan d’urbanisme des systèmes d’information de l’entreprise et de l’architecture retenue pour le projet. Il assure la cohérence des flux inter-applications, de l’intégrité des données et de la sécurité de l’ensemble. Il assure le maintien en condition opérationnel des applications en production. Livrables Plan d'opération: Document détaillant la stratégie d'intégration des systèmes et applications en production Scripts d'exploitation: Développement de scripts et de procédures pour automatiser l'exploitation des applications. Documentation technique : Dossier d'exploitation des applications et maintien du dossier d'architecture technique. Tests d'intégration : Rapports sur les tests effectués pour valider le bon fonctionnement des applications en production. Analyse des incidents : Rapports sur les problèmes rencontrés lors de l'exploitation et les solutions apportées. Documentation : Rédaction de documentation technique et les bonnes pratiques suivies. Compétences Technologies d'intégration : Connaissance des outils d'intégration. Langages de programmation : Maîtrise des langages (Java, Python) pour la lecture et le développement de solutions d'exploitation. Bases de données : Compréhension des systèmes de gestion de bases de données (SQL, NoSQL) pour le traitement des données. Protocoles de communication : Familiarité avec les protocoles d'échange de données (REST, SOAP, XML, JSON). Outils de gestion de projet : Utilisation d'outils de gestion de projet pour planifier et suivre les intégrations (Jira, Trello). Analyse des besoins métiers : Capacité à travailler avec les équipes métiers pour comprendre leurs besoins d'intégration. Résolution de problèmes : Compétences pour diagnostiquer et résoudre les problèmes techniques liés à l'accidentologie en production. Technologies requises : Obligatoire : Linux REDHAT Important : Certificats électroniques control-m control-m / splunk / dynatrace XL deploy / XL release
Freelance
CDI

Offre d'emploi
Architecte Technique Cloud Azure

Publiée le
Azure
Docker
ELK

1 an
50k-60k €
450-600 €
Valence, Auvergne-Rhône-Alpes
Télétravail partiel
Objectif général : Assurer la définition, la documentation et la mise en œuvre des architectures techniques des solutions billettiques, dans le respect du budget, des exigences de sécurité, et du planning des projets. Le rôle comporte deux axes majeurs en parallèle : Avant-vente & Appels d’offres Projet & Delivery 🧩 1. Missions Avant-vente Le candidat devra assister l’équipe avant-vente pour : Analyser les cahiers des charges avec les business analysts. Proposer une première architecture technique et estimer les charges. Fournir au service achats les éléments de coûts (licences, infrastructures…). Rédiger les argumentaires techniques pour les réponses aux appels d’offres. Participer aux soutenances techniques. 🎯 But : produire une vision d’architecture réaliste, vendeuse, et conforme aux attentes du client. 🧩 2. Missions Projet Le candidat devra : Produire et documenter l’architecture système du projet. Prendre en compte les existants et les contraintes de coûts/délais. Argumenter et faire valider ses choix technologiques. Accompagner les équipes de développement et d’infrastructure. S’assurer de la cohérence et de l’implémentation correcte de l'architecture. 🎯 But : garantir la stabilité, la performance et la cohérence technique du système. 🌍 Spécificités de la mission Projet majeur avec un client dans un pays étranger. Collaboration quotidienne avec des équipes techniques à l'étranger. Horaires adaptés : travail tôt le matin pour alignement avec le fuseau horaire étranger. Anglais indispensable (écrit et oral). Possibilité de déplacements étrangers. À terme : prise de rôle du Lead Architect, avec coordination de jusqu’à 4 architectes et gestion du budget de l’équipe. Compétences techniques essentielles 🎯 Connaissances techniques requises : Azure (maîtrise impérative) VMware / Hyper-V Kubernetes & Docker (maîtrise de la conteneurisation) API Management (Gravitee, Azure APIM) IAM : Keycloak ou équivalent Oracle, + bases NoSQL (ElasticSearch, MongoDB) Linux & Windows Kafka / RabbitMQ / Azure Event Hub Stack ELK (ElasticSearch, Logstash, Kibana) Azure DevOps C#, .NET Core, JavaScript, PL/SQL, scripting (PowerShell, Python, Shell)
Freelance

Mission freelance
Développeur Back Java/WebFlux (H/F)

Publiée le
Apache Kafka
Entreprise Java Bean (EJB)
Mongodb

2 ans
300-430 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Back Java/WebFlux (H/F) à Lille, France. Les missions attendues par le Développeur Back Java/WebFlux (H/F) : - Développer des fonctionnalités et services au sein d'une plateforme microservices - Garantir le fonctionnement optimal des composants applicatifs et services d'intégration techniques. - Implémenter des fonctionnalités de type services exposés ou consommant des API exposées par nos partenaires. - Élaborer des solutions standardisées de développement dʼapplications serveurs, les partage et les documente - Élaborer ou faire évoluer lʼarchitecture applicative et technique du SI pour répondre aux enjeux - Accompagner les équipes et les partenaires sʼappuyant sur nos solutions - Garantir le respect la chaîne dʼindustrialisation Intégration, Développement, Packaging, Déploiement, Test) - Sʼassurer que nos solutions soient sécurisées en termes dʼexécution et de communication avec le SI et des applications tierces - Contribuer aux études et à la définition des spécifications applicatives et techniques des projets - Réaliser de la veille & du contrôle à la qualité des réalisations - Partager de manière permanente sur les technologies IoT Excellente maîtrise : - développement Java (Spring, Webflux) - technologies de messaging Kafka (développement, configurations, outils) bases de données NoSQL (mongoDB) - architectures Microservice / SOA et des design patterns environnement de développement IntelliJ Java - usage d'API - usage des procédures d'authentification OAuth2 - gestion de sources / branches GIT
Freelance

Mission freelance
Architecte MongoDB / Azure

Publiée le
Azure
Mongodb

3 mois
650-700 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte MongoDB / Azure" pour un client dans le secteur de l'immobilier Description 🎯 Contexte de la mission Le Groupe, acteur majeur de l’immobilier en France, regroupe de nombreuses activités : promotion, construction, gestion de patrimoine, hôtellerie, restauration, foncier d’entreprise et administration de biens. La DSI, structurée autour de pôles spécialisés (sécurité, architecture, production, métiers et projets transverses), pilote l’ensemble des systèmes d’information du groupe. Dans le cadre de la digitalisation réglementaire de la facturation (PDP – Plateformes de Dématérialisation Partenaires) , le groupe doit mettre en place une nouvelle base NoSQL centralisée pour assurer la conformité, la traçabilité et la supervision des flux de facturation multi-métiers. Ce projet, baptisé DIABI , s’appuiera sur MongoDB Atlas sur Azure et s’interfacera avec les PDP satellites via l’ESB Snaplogic . L’objectif est de garantir la robustesse, la sécurité et la performance de cette solution critique, tout en assurant une gouvernance et une exploitation optimales. ⚙️ Rôle et responsabilités En tant qu’ Architecte MongoDB Atlas sur Azure , vous serez en charge de concevoir et piloter la mise en œuvre de l’architecture technique complète de la plateforme NoSQL. Vos principales missions seront : Concevoir l’architecture cible MongoDB Atlas sur Azure : topologie, interconnexion réseau, haute disponibilité, sauvegarde et reprise après incident. Définir le modèle de données et les schémas documentaires adaptés aux formats de facturation (Facture X) et aux contraintes réglementaires. Implémenter la sécurité : chiffrement (at rest / in transit), BYOK / Azure Key Vault, RBAC / AD / IAM, audit et journalisation. Superviser l’intégration des flux avec les pipelines Snaplogic, Kafka ou Azure Data Factory. Mettre en place l’observabilité et le monitoring via Grafana / Azure Monitor (métriques, alerting, dashboards). Optimiser les performances : indexation, sharding, tuning des agrégations et requêtes. Connecter MongoDB à Grafana et Power BI pour la visualisation et la gouvernance des données. Rédiger les livrables techniques (architectures, runbooks, plans de tests, schémas de données, règles de sécurité). Accompagner les équipes internes dans la prise en main et le run de la solution.
Freelance

Mission freelance
DBA PostgreSQL/MariaDB/MySQL

Publiée le
MySQL
PostgreSQL

1 an
500-600 €
Hauts-de-Seine, France
Télétravail partiel
1 - Gestion des incidents 2 - Support et Assistance 3 - Maintien en condition opérationnelle des environnements BDD OpenSources SQL et NoSQL 4 - Gestion des Performances 5 - Audit et expertise 6 - Automatisation des Tâches (grosses attentes sur le DevOPs) 1). ETUDE : CONCEPTION Assure un rôle de responsable des choix techniques du modèle et de la conception des objets de la BDD S'assure au sein des projets du respect des normes, méthodes et processus d'industrialisation Contribue aux chiffrages des développements BDD à réaliser Contribue à la conception technique (MCD, MPD*) de la solution à mettre en œuvre dans le respect des choix techniques en lien avec les autres intervenants du projet Peut participer à la réalisation des scripts de création des modèles physiques EXPLOITATION Participe à la définition des process d'exploitation spécifiques aux BDD : méthode de sauvegarde, process de maintenance, etc. en vue de leur spécification dans les dossiers d'exploitation Assure en collaboration avec les équipes projet & développement la définition des paramètres de la BDD pour une utilisation optimale SUPPORT Est référent sur la conception et l'implémentation des BDD, du modèle à la construction et à l'optimisation des requêtes associées en lien avec les Développeurs et Tech Lead Assiste les utilisateurs des équipes projets au travers de formations et de conseil sur l'utilisation des BDD Effectue le support technique des équipes de développement de niveau 2 de l'ensemble des BDD Peut assurer un rôle de correspondant entre les directions sur les aspects BDD ÉTUDES ET CONTRÔLES Assure une veille technologique sur les Systèmes de Gestion de BDD (SGBD) Définit les normes et standards d'utilisation et d'exploitation des SGBD pour les équipes de développement Contrôle l'implémentation des normes pour les applications développées en interne : validation des clés primaires, secondaires et des index Audite les applications développées par des tiers 2). PRODUCTION : ADMINISTRATION Effectue le choix d'implémentation des bases de données (BDD) Crée les bases en liaison avec l'administrateur système et les chefs de projets Met en œuvre les logiciels de gestion de BDD et effectue l'adaptation, l'administration et la maintenance de ces logiciels EXPLOITATION Assure l'intégrité des BDD existantes en garantissant la sécurité physique (procédures de sauvegarde, restauration, journalisation, démarrage après incidents?) et logique (confidentialité, accès) sur les environnements anté-préproduction Met en œuvre les outils de surveillance Règle les paramètres des BDD pour une utilisation optimale Participe aux analyses sur la gestion des espaces de stockage : Capacity planning, Tablespaces et partitionnements SUPPORT Supporte les développeurs et Tech lead sur les problématiques liées aux BDD Assiste les utilisateurs (formation, requêtes techniques?) Effectue le support technique de niveau 2 de l'ensemble des BDD Possède un rôle de correspondant technique entre les chefs de projets et le support technique des éditeurs ÉTUDES ET CONTRÔLES Assure une veille technologique sur les SGBD et les progiciels Suit et contrôle les évolutions de version des bases existantes et progiciels Teste, valide, pour les aspects techniques, tous les logiciels et progiciels Définit les normes et standards d'utilisation et d'exploitation des SGBD* Contrôle l'implémentation des normes pour les applications développées en interne : validation des clés primaires, secondaires et des index Audite les applications développées par des tiers Veille à la sécurité d'accès aux données : définit ou implémente l'accès aux données en autorisant des profils de connexion (gestion des privilèges)

Les métiers et les missions en freelance pour Nosql

Data scientist

Le / La data scientist utilise les bases de données NoSQL pour stocker et analyser de grandes quantités de données non structurées, ce qui permet une exploration flexible et des analyses avancées.

Architecte de base de données

L'architecte de base de données conçoit des solutions NoSQL pour répondre aux besoins de stockage de données massives, en optimisant la structure et les performances des bases non relationnelles.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le / La développeur·euse data intègre des bases NoSQL dans les pipelines de traitement des données pour gérer des volumes élevés et des schémas de données flexibles.

Ingénieur·e R&D

L'ingénieur·e R&D explore et implémente des technologies NoSQL pour créer des solutions innovantes, particulièrement dans les systèmes distribués et les applications big data.

77 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous