Trouvez votre prochaine offre d’emploi ou de mission freelance SQL à Lyon

Ce qu’il faut savoir sur SQL

SQL (Structured Query Language) est essentiel pour gérer et manipuler les bases de données relationnelles. Il est largement utilisé pour interroger, mettre à jour et maintenir les données, le rendant crucial pour les applications basées sur les données.

Votre recherche renvoie 34 résultats.
Freelance
CDI

Offre d'emploi
DBA Oracle et SQL Server H/F

HELPLINE
Publiée le
Microsoft SQL Server
Oracle

1 mois
46k-52k €
390-410 €
Lyon, Auvergne-Rhône-Alpes
💼 Mission : Dans le cadre de son développement, HELPLINE recherche un/une DBA Oracle et SQL Server pour un de nos clients partenaire dans le secteur bancaire à Lyon (69). Responsabilités : Vous serez en charge de veiller au bon fonctionnement et à la résolution des incidents et problèmes de performances des bases de données ORACLE, SQL-SERVER et MYSQL. Vous participerez aux travaux de préparation des environnements de certification et migrations au travers des outils mis à disposition, tout en apportant l'expertise nécessaire pour tenir nos engagements de planning. -Technologies RAC, Dataguard d'Oracle -Technologies Microsoft SQL Server (Always On) - Maintien en condition opérationnelle des serveurs de bases de données - Administration de la réplication en configuration multi-site - Support niveau 2 auprès du pilotage sur les incidents de bases de données au niveau des moteurs SGBD et du code SQL ; - Analyse technique des changements ; - Identification des maintenances préventives et pilotage de ces maintenances ; - Traitement des changements correspondant aux évolutions ; - Traitements des incidents de niveau 3 et des problèmes de niveau 2
Freelance

Mission freelance
DBA Junior - SQL Server - Lyon

Atlas Connect
Publiée le
Database
dBase
Microsoft SQL Server

2 ans
340-370 €
Lyon, Auvergne-Rhône-Alpes
Missions principalesAdministration et exploitation Administrer et maintenir les bases de données de la plateforme client Assurer le maintien en conditions opérationnelles (MCO) des infrastructures bases de données Gérer les incidents et problèmes liés aux bases de données Optimiser les performances et la capacité des bases Assurer la disponibilité et la sécurité des infrastructures Projets et évolution Participer à la mise en œuvre des solutions d’infrastructure bases de données Contribuer aux projets d’évolution des plateformes Réaliser les déploiements techniques liés aux projets Participer aux tests de résilience et de continuité d’activité Support et exploitation Assurer un support technique de niveau 2 Mettre en place et maintenir les outils de supervision Créer des outils facilitant l’exploitation des bases de données Documenter les configurations et procédures d’exploitation Collaboration Travailler en étroite collaboration avec les équipes : Études Infrastructure Sécurité Exploitation
Freelance

Mission freelance
DBA PostGreSQL (H/F)

Insitoo Freelances
Publiée le
PostgreSQL

2 ans
400-440 €
Lyon, Auvergne-Rhône-Alpes
Contexte : Mission à Lyon - 3 jours sur site par semaine Les missions attendues par le DBA PostGreSQL (H/F) : Aministrateur de bases de données, il faut disposer d'une expérience sur un poste similaire. Maîtrise de plusieurs moteurs de bases de données : PostgreSQL (obligatoire) Oracle Teradata Cassandra DB2 Connaitre également des outils de surveillance des applications (OEM, Newtest, AppDynamics ...). Être force de proposition et faire preuve de réactivité, avoir une bonne capacité de travail en équipe dans un contexte où bonne organisation et autonomie sont des facteurs clés de réussite Missions principales seront les suivantes : - Supervision/monitoring (temps réel et prédictif) / alertes - Traitement des incidents et des demandes - Contribution active aux crises applicatives et à la gestion des problèmes - Sécurisation de l’exploitabilité des applications - Support et accompagnement aux choix techniques - Audits réguliers - Contribution aux chantiers d'industrialisation
Freelance

Mission freelance
Ingénieur Data Oracle/SQL/Python

CS Group Solutions
Publiée le
Apache Airflow
Oracle
Python

12 mois
380-400 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
CDD
CDI
Freelance

Offre d'emploi
QA Expert Décisionnel - SQL

KEONI CONSULTING
Publiée le
IBM DataStage
SQL
Squash

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
Contexte Nous recherchons pour notre client un profil qualifieur sénior (plus de 7 ans d'expérience) pour compléter le dispositif du service qualification . l’objectif est le renforcement de l'équipe qualification Décisonnel avec l'intégration d'une resource maitisant le requetage SQL. Fort de ses expériences techniques et fonctionnelles, le candidat devra également montrer une forte connaissance de la BI et une connaissance des méthodes Agiles." MISSIONS • Identifier les impacts d’une nouvelle application ou des applications modifiées sur le niveau d’intégration du SI ; • Vérifier l’interopérabilité entre les systèmes ; • Réaliser les tests d’intégration : valider les correctifs livrés, vérifier l’interopérabilité ; • Organiser et préparer la phase de test, planifier les tests : critères de recevabilité des livraisons, estimation et planification des travaux, organisation des équipes, définition des besoins d’infrastructure et d’environnement, préparation des jeux de données ; • Préparer les tests : préparation des scénarios et mise à disposition des infrastructures (contextes, logiciels, données) ; • Coordonner et apporter le support aux campagnes de tests : suivi exécution des sessions TP, exécution des plans batch, analyse des résultats, suivi des non-conformités ; • Rédiger le bilan de qualification ; • Participer à la coordination des phases de recettes ; • Participer aux phases de déploiement en préproduction et en production LIVRABLES Etude d’impact Stratégie de test Plan de tests Bilan de qualification Environnement technique - technologique "ETL/ELT/Traitement : Datastage/SQL Restitution : PowerBI (dataset, dataflow, rapports) Stockage : Teradata, PostgreSQL • SQL pour des usages multiples (requêtage) • JIRA (ticketing) • iTOP (gestionnaire des matériels, logiciels, et services) • SquashTM (référentiel tests)"
CDI
Freelance
CDD

Offre d'emploi
Développeur Big Data : Python, SQL, Shell, Spark expérimenté

KEONI CONSULTING
Publiée le
JIRA
Python
SQL

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
Contexte Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans nos actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et ""clients"" (Groupes de protection sociale). La connaissance de Power BI et de SAS sont des plus." Livrables attendus Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale (Retraite Complémentaire idéalement)
Freelance

Mission freelance
Développeur H/F WinDev

SURICATE IT
Publiée le
HFSQL
Microsoft SQL Server
WinDev

6 mois
340-400 €
Lyon, Auvergne-Rhône-Alpes
📋 Détails de la mission : Lieu : Lyon ou remote Durée : Mission longue, renouvelable 🛠️ Vos missions : Développer et Optimiser les nouveaux modules sous WinDev Optimiser les requêtes et la structure de la base de données ( HFSQL et SQL Server) Assurer la maintenance corrective et l'évolution des fonctionnalités existantes pour préparer une migration future. Documenter les développements réalisés. Participer à la résolution d'incidents complexes lors de déploiements ou montées de version chez les clients ou sur les serveurs.
Freelance

Mission freelance
Administration Base de Données Oracle

Deodis
Publiée le
Microsoft SQL Server
Oracle

2 ans
380-450 €
Lyon, Auvergne-Rhône-Alpes
Connaissances fortes de Oracle - Astreintes - Interventions HNO L'esprit d'équipe et la communication sont impératifs. La connaissance du monde bancaire est un plus. les interventions sont réalisées en HNO. Gère et administre les infrastructures matérielles et/ou logicielles de l'entreprise, en assure la cohérence, la qualité et la sécurité Participe à la définition et à la mise en oeuvre de ces infrastructures retenues par les projets : Prend en charge le maintien en conditions opérationnelles des infrastructures matérielles et logicielles relatives à son périmètre Traite les incidents et problèmes pouvant survenir sur les plates-formes Fiabilise et optimise le fonctionnement des infrastructures en anticipant les évolutions de capacité et de performance Contribue à la mise en oeuvre des solutions de continuité et participe aux tests de résilience Documente les configurations et rédige les consignes destinées aux supports niveaux 1 et 2 Réalise les déploiements des infrastructures dans le cadre des projets techniques et métier Travaille en relation étroite et permanente avec les équipes Etudes et Infrastructures et Sécurité 2-3 jours de télétravail possible
Freelance
CDI

Offre d'emploi
Ingénieur de production devops (H/F)

STORM GROUP
Publiée le
Kubernetes
Linux
Openshift

3 ans
45k €
400 €
Lyon, Auvergne-Rhône-Alpes
L’Infrastructure de Confiance du Groupe (ICG) est née de la volonté du groupe de réunir l’ensemble des fonctions de probation (authentification sécurisée et signature électronique) dans une seule et même plate-forme. Historiquement sur 2 applications (ICG et CFN), le service de Production ICG travaille dorénavant sur plusieurs applications majeures : ICG (authentification et signature), OASIS (nouvelle plateforme de signature), CFN, Trust (nouvelle plateforme authentification) Le service de production ICG c’est : Une équipe de 10 personnes en charge de la production ICG et CFN La gestion au quotidien d’une flotte d’environ 300 serveurs Linux RedHat Un pôle BUILD en charge : Des déploiements applicatifs du hors Prod jusqu’à la Prod Suivi des projets Du suivi et la planification des changements De participer aux cellules de crises lors d’un incident en Production Un pôle RUN en charge de : La gestion du stock des incidents affectés au service de niveau 2 à 3 aussi bien sur des sujets techniques que fonctionnels Être moteur lors aux cellules de crises lors d’un incident en Production et s’assurer la remontée et le suivi des éléments techniques et fonctionnels auprès de nos fournisseurs Participer aux comités opérationnels avec nos différents fournisseurs autour de nos problématiques et incidents. Contribuer à l’élaboration de nouvelles chaines d’ordonnancement (via VTOM) et le suivi au quotidien des chaines existantes Optimiser la supervision de l’application via Zabbix, ELK, AppDynamics, Grafana pour être le plus proactif possible dans la détection d’un incident Des besoins communs aux deux pôles : Assurer des astreintes et des interventions en HNO Être en mesure d’échanger avec des interlocuteurs très variés (équipes projets applicatif, équipes réseau, sécurité, infra) L’innovation : identifier et réaliser différentes actions pour améliorer notre quotidien (création/amélioration de scripts, rédaction de procédures pour un nouvel usage/outil, etc.) Spécificités pour les tests techniques : Prise de connaissance du changement et de son contexte technique Compléter le plan de tests proposé Préparer les infrastructures de tests Valider les documents et les procédures à destination de la production Réaliser les différents tests techniques Analyser les résultats Contribuer au diagnostic en cas de dysfonctionnement Rédiger les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production Constituer ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures Effectuer le reporting vers le Responsable IntégrationContribue à l'amélioration continue Industrialiser les tests techniques récurrents (autoatisation, outillage…) Développer des scripts et les outils pour automatiser les tâches et améliorer l'efficacité des opérations Concevoir et maintient l'automatisation à l'aide d'outils tels que Terraform ou Ansible Finops: Proposer des solutions pour optimiser les performances et réduire les coûts Accompagner les équipes de développement dans la mise en œuvre des meilleures pratiques de sécurité et l'utilisation des outils DevSecOps Se maintenir à jour sur des nouvelles menaces de sécurité et les évolutions des outils DevSecOps pour une amélioration continue des processus Environnement technique : Système : Linux Bases de données : Oracle Middleware : Apache, Tomcat Supervision : Zabbix, Grafana, AppDynamics, ELK, Newtest / Datamétrie Déploiement : XLDeploy / XLRelease, Jenkins, Ansible Sécurité : HSM, Venafi (PKI), Firewall applicatif, gestion des certificats, cryptographie Ticketing : SUN (ServiceNOW) Scripting/langage : Bash, Python, Java Ordonnancement : VTOM Gestion de projet : Jira/Confluence
Freelance

Mission freelance
Architecte DATA

Codezys
Publiée le
Python
SQL
Teradata

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d'une phase de transformation visant à adopter un modèle axé sur les données (Data Centric) et de définition d'une stratégie Data, le client met en œuvre une nouvelle plateforme Data Régime pour répondre à ses besoins. Un programme dédié à cette plateforme a été lancé fin 2025. Au premier trimestre 2026, des Proofs of Concept (POC) sont en cours afin de sélectionner la future plateforme Data. Le client recherche une prestation en architecture Data pour l’accompagner dans la définition de l’architecture cible et la mise en œuvre de cette nouvelle plateforme au sein d’un écosystème existant. Objectifs et livrables Le consultant intervenant aura pour mission de définir, concevoir et accompagner la construction de l’architecture cible Data. Ses principales responsabilités seront : Définir l’architecture cible Data : Concevoir une architecture alignée avec la stratégie globale Data et les principes Data-Centric, en déterminant les patterns d’intégration ainsi que les couches fonctionnelles de la plateforme (inclusion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : Élaborer l’architecture technique globale en intégrant l’écosystème existant (tels que Teradata, Hadoop) et en tenant compte des stratégies d’évolution (cloud ou on-premise, gouvernance, scalabilité). Proposer une trajectoire d’évolution permettant la transition vers cette nouvelle plateforme, incluant stratégie de migration, coexistence et déploiement par phases. Modélisation et harmonisation des données : Définir des modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossaire). Établir les principes de modélisation adaptés aux usages, qu'ils soient analytiques, opérationnels ou liés à des data products. Data Products & accompagnement métier : Soutenir les équipes métiers dans la conception et la structuration des data products, en veillant à leur cohérence avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : Élaborer les standards d’intégration, de transformation, de stockage et d’exposition des données. Formaliser les bonnes pratiques concernant les outils de l’écosystème, notamment ceux liés à l’ingestion, à la qualité, à l’orchestration, au catalogage et à la gouvernance.
CDI
Freelance

Offre d'emploi
Ingénieur de production Linux

VISIAN
Publiée le
Bash
CI/CD
Kubernetes

3 ans
43k-58k €
350-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre de l’exploitation d’une plateforme critique d’authentification et de signature électronique du secteur bancaire, nous recherchons un Ingénieur de Production Senior pour renforcer le pôle RUN . La plateforme gère plusieurs milliards d’opérations annuelles et repose sur un environnement Linux étendu (plusieurs centaines de serveurs). L’équipe assure l’exploitation, la supervision, la gestion des incidents N2/N3 ainsi que l’amélioration continue de l’industrialisation et de la sécurité. Missions principales 🔧 RUN – Exploitation & Continuité Assurer le maintien en conditions opérationnelles des applications Gérer les incidents N2/N3 techniques et fonctionnels Participer activement aux cellules de crise Assurer la communication technique avec les fournisseurs Contribuer aux comités opérationnels Optimiser la supervision (proactivité sur détection d’incidents) Participer à l’ordonnancement des traitements (création et suivi de chaînes) 🚀 BUILD – Contribution transverse Participer aux déploiements applicatifs (Hors Prod → Prod) Contribuer au suivi et à la planification des changements Participer à la construction des chaînes CI/CD Anticiper l’exploitabilité dès la phase projet Participer aux validations techniques (GO/NOGO) 🔐 Sécurité & Amélioration continue Contribuer aux sujets liés à l’authentification et à la signature électronique Renforcer les pratiques sécurité (certificats, cryptographie, PKI) Proposer des optimisations techniques (scripts, procédures, automatisation) Participer aux astreintes et interventions HNO Environnement technique Systèmes Linux RedHat Bases de données Oracle Middleware Apache Tomcat Containers OpenShift / Kubernetes Supervision Zabbix Grafana AppDynamics ELK Déploiement & CI/CD XLDeploy XLRelease Jenkins Ansible Ordonnancement VTOM Ticketing ServiceNow Scripting / Langages Bash Python Java Outils projet Jira Confluence Sécurité HSM PKI / gestion certificats Firewall applicatif Cryptographie Compétences requises Impératif Linux RedHat – Confirmé Oracle SQL – Junior OpenShift / Kubernetes – Junior Anglais professionnel Français courant Souhaitable CI/CD Scripting (Bash / Python)
Freelance

Mission freelance
Qualifieur Senior

Codezys
Publiée le
Business Intelligence
Databricks
PostgreSQL

12 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de ses activités en Business Intelligence (Décisionnel), le client recherche un profil de qualifieur sénior (avec plus de 7 ans d'expérience) pour un poste à temps plein équivalent (1 ETP) . Ce profil viendra renforcer le dispositif du service qualification sur le site de Lyon. L'objectif principal est d'intégrer une ressource compétente en requêtage SQL afin de consolider l'équipe de qualification en Décisionnel. Fort de ses compétences techniques et fonctionnelles, le prestataire devra également posséder une solide connaissance de la Business Intelligence ainsi qu'une compréhension approfondie des méthodes Agile. Objectifs et livrables Sous la supervision du responsable du Bureau d’Étude et de Qualification Décisionnel & Big Data, le profil aura notamment pour missions : Identifier les impacts d'une nouvelle application ou des applications modifiées sur l'intégration du SI-RC ; Vérifier l’interopérabilité entre les différents systèmes ; Réaliser les tests d’intégration : valider les correctifs livrés, assurer l’interopérabilité et la cohérence globale ; Organiser et préparer la phase de tests, en planifiant notamment : les critères de recevabilité des livraisons ; l’estimation et la planification des travaux ; l’organisation des équipes ; les besoins en infrastructure et environnement ; la préparation des jeux de données. Préparer les scénarios de tests et mettre en place les infrastructures nécessaires (contextes, logiciels, données) ; Coordonner et accompagner les campagnes de tests : suivi de l'exécution des sessions de test ; exécution des plans batch ; analyse des résultats ; suivi des non-conformités. Rédiger le rapport de qualification ; Participer à la coordination des phases de recettes ; Contribuer aux phases de déploiement en préproduction et en production.
Freelance

Mission freelance
Consultant décisionnel BI

Codezys
Publiée le
Git
Informatica
Java

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet iPilot offre aux utilisateurs des fonctionnalités de reporting et d’analyse de données, permettant de consolider et de restituer de manière fiable les données de CCMA. Il s’agit d’une équipe d’environ dix personnes composée d’un chef de projet Scrum Master, d’un Product Owner (Business Analyst), de développeurs BI, DevOps, et d’un Lead Technique. L’application iPilot existe depuis plus de six ans. Les deux dernières années ont été consacrées à des travaux de nature technique. Nous souhaitons effectuer une refonte de nos tableaux de bord afin d’améliorer l’application. Cette démarche consistera à partir de l’existant, à le challenger en collaboration avec les représentants des utilisateurs, et à proposer des évolutions pour mieux répondre à leurs besoins. Objectifs et livrables Le consultant décisionnel en Business Intelligence intervient principalement selon trois axes : Analyser les besoins fonctionnels et techniques afin de concevoir une architecture de données adaptée et performante. Modéliser et enrichir les datawarehouses et datamarts. Produire des rapports destinés aux métiers, en accompagnant ou formant les utilisateurs dans leur exploitation. Il peut, si nécessaire, s’appuyer sur des référents techniques pour les composants sortant d’un cadre BI classique—tels que les clusters Big Data, NoSQL, ou l’absence d’ETL pour l’intégration des données. Ses qualités personnelles essentielles incluent : Autonomie, rigueur et capacité à proposer des solutions. Adaptabilité et esprit d’équipe. Compétences analytiques et synthétiques. Spécialisé en datavisualisation, il sera chargé de créer ou d’améliorer des tableaux de bord, ainsi que d’interagir avec les utilisateurs pour affiner leurs besoins. Une expérience d’au moins 5 ans dans le domaine est requise. La maîtrise de Tableau constitue un atout supplémentaire. Activités principales : Analyser les besoins fonctionnels et techniques. Localiser les sources de données pertinentes pour répondre aux besoins. Développer les processus d’intégration de données. Modéliser et enrichir les datawarehouses et datamarts. Produire des rapports et tableaux de bord clairs, compréhensibles et adaptés aux exigences métier. Vérifier la qualité et la performance des livrables. Participer aux activités et cérémonies de l’équipe de développement en mode Agile. Activités secondaires : Mettre à jour la documentation applicative.
CDD
CDI
Freelance

Offre d'emploi
Architecte DATA  Sénior

KEONI CONSULTING
Publiée le
Big Data
SQL
Teradata

18 mois
20k-60k €
100-600 €
Lyon, Auvergne-Rhône-Alpes
"Contexte du besoin Nous recherchons un profil senior en architecture Data afin de nous accompagner dans la définition de l'architecture Data cible, la mise en oeuvre de la nouvelle plateforme Data dans un ecosysteme exisant. Le profil devra accompagner à la définition de l'architecture Data cible, la définition des standards, normes et bonnes pratique sur l'ensemble des socles Data et la mise en œuvre de la nouvelle plateforme Data. MISSIONS - Définir l’architecture cible Data : concevoir l’architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). - Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). - Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. - Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. - Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance). Le profil devra justifier : - d’une expérience confirmée dans la conception et la mise en œuvre de plateformes Data modernes, - d’une expertise en architecture Data (modèles de données, intégration, scaling, sécurité, qualité), - d’expériences significatives sur des projets incluant : la définition d’architectures cibles, la conception de modèles de données complexes, l’accompagnement de trajectoires de migration (Hadoop, Teradata ou plateformes équivalentes), la mise en place de data products et d’approches orientées produit." Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python" Livrables attendus Dossiers d'architecture cible, générale et détailée Cartographie des flux et sources de données Schéma d'intégration avec l'écosystem existant Documents de description des standards, principes et bonnes pratiques Feuille de route et trajectoire cible Ateliers et comptes rendus Support de présentation architecture et dossiers d'arbitrages Environnement technique - technologique Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python Compétences Data Conception d'architecture plateforme Data : - maitrise des architectures Data - maitrise patterns d'ingestion, stockage, transformation, exposition, - capacité à concevoir une architecture cible cohérente avec le SI existant" Modélisation des données : - concevoir des modèles conceptuels, logiques et physiques ; -harmoniser et rationaliser les modèles dans une logique Data Centric ; - appliquer des standards et bonnes pratiques (normalisation, typage, granularité, qualité)." Définition, conception et urbanisation de Produits Data Définition des standards, normes et bonnes pratiques Accompagnement, communication et alignement multi-acteurs "Compétence liée à l'environnement " "Expérience dans l'écosystème de la protection sociale (Retraite Complémentaire idéalement)"
CDI
Freelance

Offre d'emploi
Ingénieur QA automatisation (H/F)

Aleysia
Publiée le
Cucumber
Cypress
ISTQB

12 mois
Lyon, Auvergne-Rhône-Alpes
Les défis techniques et les analyses complexes t'animent ? Tu es certainement l’ingénieur·e automatisation QA que nous attendons ! 🚀 Ton challenge si tu l’acceptes : Participer à la définition des stratégies de test et à l’automatisation des scénarios de test Collaborer avec les équipes de développemen t pour rédiger les spécifications techniques et fonctionnelles Concevoir et exécuter des cas de tests fonctionnels et automatisés Identifier, documenter et suivre les anomalies jusqu’à leur résolution Réaliser le reporting d’avancement des tests Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe Collaborer avec l'ensemble des équipes QA dans l'amélioration continue des outils d’automatisation
CDI

Offre d'emploi
Développeur Back-End (Python) H/F

█ █ █ █ █ █ █
Publiée le
Django
Flask
Python

Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Les métiers et les missions en freelance pour SQL

Data analyst

Le/La Data Analyst utilise SQL pour extraire et manipuler des données dans des bases de données relationnelles.

Data scientist

Le/La Data Scientist utilise SQL pour préparer les ensembles de données nécessaires à la création de modèles prédictifs.

Administrateur·rice de base de données (Oracle, Sybase, Sqlserver…)

Le/La Administrateur de bases de données utilise SQL pour gérer et optimiser les bases de données d'une organisation.

34 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lyon, Auvergne-Rhône-Alpes
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous