Trouvez votre prochaine offre d’emploi ou de mission freelance SQL

Ce qu’il faut savoir sur SQL

SQL (Structured Query Language) est essentiel pour gérer et manipuler les bases de données relationnelles. Il est largement utilisé pour interroger, mettre à jour et maintenir les données, le rendant crucial pour les applications basées sur les données.

Votre recherche renvoie 792 résultats.
Freelance

Mission freelance
Data Architect (Secteur Luxe)

Nicholson SAS
Publiée le
Azure DevOps
Git
Github

8 mois
1 200 €
Paris, France
Bonjour, Pour le compte de l’un de nos clients, acteur majeur du secteur du luxe, nous recherchons un Data Architect afin d’intervenir sur une mission stratégique autour de la structuration, gouvernance et valorisation des données . 📍 Informations clés Localisation : Paris (présence sur site requise) TJM max : 1200 € Démarrage : ASAP Fin de mission : 31/12/2026 🚀 Contexte & mission Vous interviendrez sur la mise en place d’une architecture data moderne et scalable basée sur Azure Fabric , avec un fort enjeu autour de la gouvernance, de la qualité des données et de leur valorisation auprès des métiers. 🎯 Responsabilités principales 🔹 Architecture & Data Platform Concevoir et déployer des solutions data end-to-end (Lakehouse, Data Warehouse, modèles sémantiques) Structurer les couches de données ( Bronze / Silver / Gold ) Garantir la scalabilité, la performance et la robustesse de la plateforme 🔹 Data Engineering & Modélisation Concevoir et implémenter des pipelines ETL / ELT Définir les règles de transformation, de gestion des données incrémentales et des dimensions Optimiser les performances des requêtes et du stockage Développer des scripts Python (PySpark) et des requêtes SQL avancées 🔹 Gouvernance & Qualité des données Définir et mettre en œuvre les frameworks de gouvernance (traçabilité, métadonnées, qualité) Implémenter les mécanismes de contrôle qualité et gestion des erreurs Mettre en place les politiques de sécurité et d’accès ( RBAC, RLS ) 🔹 CI/CD & Industrialisation Mettre en place des pipelines CI/CD pour les produits data Gérer les référentiels Git, stratégies de versioning et déploiements Garantir la traçabilité et l’audit des évolutions 🔹 Data Mapping & KPI Assurer la cartographie des flux de données de bout en bout (E2E) Définir les règles métier et indicateurs KPI en lien avec les enjeux business Construire les dictionnaires de données et glossaires métier 🔹 Documentation & bonnes pratiques Définir les standards d’architecture et de développement Documenter les processus, runbooks, guidelines et décisions d’architecture (ADR) Accompagner les équipes et faciliter l’onboarding 🛠️ Environnement technique Cloud & Data Platform : Microsoft Azure, Azure Fabric Data Engineering : PySpark, SQL, Azure Data Factory, dbt CI/CD & DevOps : GitHub, Git CLI, Azure DevOps Pipelines, GitHub Actions BI & Data Viz : Power BI (RLS) Gouvernance : Azure AD / Entra ID, Purview Documentation : Confluence, Visio / Lucidchart 👤 Profil recherché Data Architect avec 7 ans d’expérience minimum Forte expertise sur les environnements Azure Data (Fabric / Data Platform) Solide expérience en architecture data, gouvernance et modélisation Excellente maîtrise de SQL et Python (PySpark) Expérience en industrialisation, CI/CD et gestion de plateformes data Très bonnes capacités de communication, structuration et vision transverse
CDI
Freelance

Offre d'emploi
Technicien en Support Applicatif

Lùkla
Publiée le
CRM
ERP
GLPI

1 an
La Défense, Île-de-France
Au sein de l’équipe IT / applicative, le Technicien Support Applicatif aura pour missions : Assurer le support fonctionnel et technique des applications métiers . Prendre en charge les incidents et demandes utilisateurs (niveau 1 / niveau 2). Diagnostiquer les problèmes et proposer des solutions correctives . Escalader les incidents complexes vers les équipes niveau 3 / développement si nécessaire. Participer au suivi et à la résolution des tickets via l’outil de ticketing. Assurer le suivi des incidents jusqu’à leur résolution . Rédiger et mettre à jour la documentation technique et les procédures . Participer aux tests applicatifs et à l’amélioration continue des outils .
Freelance
CDI

Offre d'emploi
Ingénieur SRE / DevOps

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
Ansible
Azure
Bash

12 mois
40k-45k €
300-400 €
Bordeaux, Nouvelle-Aquitaine
Conception, participation à la définition de l’architecture et déploiement de l'infrastructure OnPremise et Cloud Conception & développement de scripts et APIs techniques Configuration de middlewares Analyser les anomalies sur les environnements de pré-production/ staging et de production Définition des critères d’exploitabilité d’un applicatif S’assurer de la mise en place des critères de sécurité définis par le client Être garant, de la mise en place de l'exploitabilité des applicatifs déployés en production (smokeTest, supervision, alerting, fiches consignes, KPI…), en suivant les critères d’exploitabilité définis par la communauté devops Effectue le suivi de la qualité de la production (performances, incidents) conformément au contrat de service Accompagne les projets d’un domaine d’activité en tant que spécialiste de la production : vérification du respect des critères d’exploitabilité Élabore, réalise et fiabilise les plans d’ordonnancement des traitements de production Automatiser les tâches manuelles automatisables, répétables et sans valeur ajoutée Conception et construction des usines de déploiement logiciels Maintien en condition opérationnelle des usines de déploiement logiciels existantes et des APIs associées, des outillages et infrastructures transverses Réaliser de l'astreinte, notamment lors d'alertes en HNO Travailler en mode agile dans les squads de développement (le mode agile ne doit pas empêcher le ticket JIRA) Diffuser la connaissance et les bonnes pratiques devops, notamment en participant et en animant des communautés de pratiques Devops. Documenter Être force de proposition dans l'amélioration des techniques d'industrialisation et d’automatisation, grâce à de la veille technologique Communication avec les autres équipes IT du groupe Support aux équipes de développement et d'exploitation
Freelance

Mission freelance
Data Engineer

Signe +
Publiée le
Database
ETL (Extract-transform-load)
SQL

2 ans
400-500 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients un Data Engineer. Contexte : Renforcement de l’équipe Data pour industrialiser et faire évoluer les environnements BI/ETL/Cloud (GCP BigQuery, Teradata, Informatica/IDMC, BO, Power BI) et soutenir les activités de delivery et de transformation. Mission & objectifs Concevoir, développer et industrialiser des pipelines de données robustes (batch/ELT). Garantir la qualité, la sécurité et la gouvernance des données (IAM, rôles, permissions). Moderniser les assets BI et modèles sémantiques (Power BI, Business Objects). Contribuer à l’ automatisation et à l’ infrastructure as code (Terraform). Accompagner les équipes Métiers/Tech dans l’usage des plateformes data (BigQuery, Teradata, Unix/Linux). Participer à la documentation et à la montée en compétence de l’équipe.
Freelance
CDI
CDD

Offre d'emploi
Data Quality Analyst senior

FIRST CONSEIL
Publiée le
BigQuery
Data quality
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Île-de-France, France
Au sein d'une équipe composée de data analysts intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer, analyser et documenter les données du data warehouse du groupe; Contribuer à l’amélioration de la qualité du data warehouse : mettre en place le plan d’action défini sur 2026 : contrôles, monitoring et alerting Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. Notre stack data : GCP, BigQuery, Python, Looker Studio Profil recherché Formation : Diplôme de niveau BAC +4 à 5, en école d’ingénieurs ou université spécialisé en statistiques, data science, informatique décisionnelle ou data management ; Langues : Français et Anglais courant exigés ;
Freelance

Mission freelance
Data Engineer

Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API

1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Freelance

Mission freelance
Data Engineer GCP

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

18 mois
450 €
Saint-Ouen-sur-Seine, Île-de-France
Bonjour, Dans le cadre d’un projet stratégique pour notre client, nous recherchons un Data Engineer GCP sénior pour rejoindre les équipes DST DataLab . Contexte de la mission: Vous interviendrez au sein d’une équipe data engagée dans la construction et l’optimisation de chaînes de traitement et d’intégration de données sur l’environnement Google Cloud Platform . La mission s’inscrit dans un contexte de structuration et de fiabilisation des flux de données , avec un fort enjeu autour de la qualité, de la performance et de la gouvernance. Informations pratiques: Localisation : Saint-Ouen-sur-Seine Présence sur site : 2 à 3 jours par semaine (obligatoire) Démarrage : 20 avril 2026 Fin de mission : 31 décembre 2027 TJM maximum : 450 € Missions: Concevoir et développer des pipelines de traitement de données sur GCP Mettre en place et maintenir des chaînes d’intégration et de transformation de données Travailler sur l’optimisation et la structuration des bases de données analytiques Participer aux choix d’architecture et aux bonnes pratiques de développement Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, architecture et métiers Stack technique: Compétences requises GCP Dataform (prioritaire) ou DBT BigQuery SQL (maîtrise avancée) Python Apache Airflow CI/CD Google Cloud SQL Google Cloud Run Compétences appréciées: Architecture applicative Expérience autour des APIs, IHM et exposition de données Expérience avec Cloud Run / Cloud SQL ou Kubernetes (JKS) Profil recherché: Data Engineer avec 5 ans d’expérience minimum Solide expérience sur les environnements data cloud Capacité à travailler dans un cadre structuré avec des méthodes de développement rigoureuses Excellentes soft skills : communication, autonomie, esprit d’équipe et sens de l’organisation
CDI

Offre d'emploi
Data Analyst - CDI Uniquement

AEROW
Publiée le
Grafana
Python
SQL

40k-50k €
Bruxelles, Bruxelles-Capitale, Belgique
ATTENTION, CDI UNIQUEMENT, POUR PERSONNE HABITANT OU SOUHAITANT S'ETABLIR A BRUXELLES OU PROCHE BRUXELLES: Dans le cadre de ses activités opérationnelles, l’organisation recherche un Data Analyst capable de soutenir les équipes métiers et IT dans l'analyse de la performance, la qualité des données, le reporting et la génération d’insights. La mission est orientée vers l’amélioration continue, la fiabilité opérationnelle et la valorisation des données issues de multiples systèmes. 2. Responsabilités principales A. Cas d’usage analytiques Analyse de la performance et de la fiabilité des processus opérationnels. Reporting sur les actifs et la maintenance (utilisation, disponibilité, temps d’arrêt). Analyse de tendances en sécurité , incidents et anomalies. Suivi des coûts et de l’efficacité opérationnelle dans différents domaines. B. Gestion & qualité des données Structuration et harmonisation de données issues de multiples systèmes opérationnels . Mise en place de processus de contrôle qualité pour assurer la fiabilité des analyses. Support à l’intégration des résultats analytiques dans les systèmes de reporting existants . C. Reporting & visualisation Conception et mise en œuvre de tableaux de bord dédiés aux utilisateurs opérationnels. Développement de KPI standardisés et cadres de reporting. Optimisation continue des rapports pour améliorer la lisibilité et la génération d’insights. D. Transfert de connaissances Coaching des Data Analysts internes (meilleures pratiques, storytelling, visualisation…). Documentation des processus analytiques, modèles de données et guidelines de gouvernance.
Freelance
CDI

Offre d'emploi
Développeur backend

Management Square
Publiée le
.NET
Apache Kafka
API REST

6 mois
40k-45k €
350-400 €
Paris, France
Nous sommes à la recherche d'un(e) : Développeur Backend - Développement d’applications APPS (Dashboard ou Selfservice) - Administration et développement : gestion des catalogues, création/modification de workflow, de questionnaires, de groupes, de sujets, de filtres, de vue, écrans conditionnels, erreurs de saisie, brouillon, reportings et indicateurs, etc … - Gestion des Assets - Administration avancée de EasyVista (modules Self Service et Service Manager). -Capacité à gérer et personnaliser l'outil, notamment les catalogues, workflows, questionnaires, groupes, filtres, vues, écrans conditionnels, et reporting.
Freelance

Mission freelance
Data Analyst Lead – Gouvernance & Conception Data

Comet
Publiée le
Data Strategy
Databricks
Microsoft Power BI

300 jours
550-580 €
Châtillon, Île-de-France
Data Analyst Lead – Gouvernance & Conception Data Objectif global Renforcer l’expertise en analyse, conception et gouvernance des données au sein d’un DataLab, dans un contexte grande distribution multi-enseignes et multi-métiers. Livrables : - Expertise analytique et conception de solutions data - Contribution à la structuration des KPI métiers - Animation de la communauté Data Analyst - Participation à la Data Authority - Contribution au modèle de données commun Contexte de la mission : - Mission au sein d’un DataLab, rattachée à l’équipe Gouvernance des données. Environnement : - Grande Distribution - Multi-enseignes - Multi-métiers Enjeux forts de performance, qualité des données, modélisation et usages analytiques à grande échelle ⚠️ La connaissance opérationnelle de la Grande Distribution est impérative. Objectifs - Apporter une expertise avancée en data analyse et en conception de solutions data - Contribuer à la montée en compétence des Data Analysts - Accompagner les équipes produits et projets sur des problématiques analytiques complexes - Animer la communauté Data - Coanimer la Data Authority et les ateliers de gouvernance Missions principales : - Expertise en analyse de données et conception de solutions orientées data - Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions) - Structuration et alignement des KPI métiers - Animation de la communauté Data Analyst (ateliers, bonnes pratiques, REX) - Contribution et évolution du modèle de données commun - Coanimation des instances de gouvernance Data Compétences techniques attendues : Impératif : Connaissance confirmée de la Grande Distribution Enjeux business KPI clés : ventes, marge, stock, approvisionnement, performance magasin Usages métiers de la donnée Important Modélisation des données (confirmé) Analyse de données (confirmé) Conception de solutions data (confirmé) Stack & Environnement technique Big Data : - SQL - Databricks - Scala - Python Environnement Azure BI / Reporting : - Power BI - MicroStrategy Modélisation : - PowerDesigner Gouvernance & Qualité : - DataGalaxy - SODA (Data Quality / Observability) Méthodologie & outils : - SAFe (Agilité à l’échelle) - Jira Profil recherché - Data Analyst Senior / Lead - Forte capacité à challenger les solutions - Vision transverse et structurante - Capacité à fédérer une communauté - Aisance en animation d’ateliers - Posture d’expert référent
Freelance

Mission freelance
Ingénieur Technique - Renfort Support Utilisateurs

Codezys
Publiée le
KNIME
SQL
VBA

12 mois
Paris, France
La mission se déroulera au sein de la Direction Comptable Groupe , dans le service Études, Support et Administration Outils , structuré en deux unités : Administration des outils Études, Projets et Support Outils L’unité « Études, Projets et Support Outils » est composée d’un manager et de cinq collaborateurs. L'équipe est responsable des missions suivantes : Assister les responsables opérationnels dans la formulation de leurs besoins concernant les applications Participer à la rédaction des cahiers des charges et des spécifications fonctionnelles pour les évolutions des outils comptables Valider les spécifications fonctionnelles en collaboration avec les comptables Approuver la pertinence opérationnelle des solutions proposées et les plannings associés Configurer les schémas comptables Valider les ajustements et arbitrages ayant des impacts opérationnels Définir le plan de recette et en coordonner la mise en œuvre jusqu’à la mise en production des évolutions Communiquer des reportings aux responsables opérationnels Objectifs et livrables Dans le cadre de ses missions, la direction comptable utilise plusieurs applications bureautiques (Access, Excel, Knime, Business Objects, Tableau) en complément de l’outil comptable Océan (Oracle PeopleSoft) et de Ciclade (Business Objects). Les activités principales incluent : Assistance aux utilisateurs Maintenance des applications développées sous Access Développement de rapports avec Business Object Conception de processus avec Knime Actions à réaliser Participer à la définition des spécifications générales Réaliser les développements nécessaires Élaborer les jeux de tests pour les tests unitaires Réaliser ces tests unitaire Identifier et corriger les dysfonctionnements Assurer la maintenance corrective Effectuer la maintenance évolutive Rédiger la documentation associée Assister les utilisateurs Livrables attendus Rapports Business Objects : états financiers, contrôles Processus KNIME Tableaux de bord Tableau Bases Access Suivi des demandes via JIRA Réponses aux utilisateurs Documentation des applications Modes opératoires et guides utilisateurs
Freelance

Mission freelance
Data Engineer Azure Python

Cherry Pick
Publiée le
Azure
Python
SQL

12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
CDI
Freelance
CDD

Offre d'emploi
INGENIEUR DE DEVELOPPEMENT JAVA SWING/JAVA J2EE 

KEONI CONSULTING
Publiée le
API
Java
SQL

18 mois
20k-60k €
100-500 €
Évry, Île-de-France
Contexte : Le candidat interviendra dans le développement d’applications Java complexes, tant sur le plan graphique (interfaces riches avec Swing ou JSF) que sur la couche métier (Java EE, SringBoot). Il conçoit, développe et intègre des composants logiciels robustes, évolutifs et ergonomiques, en s’appuyant sur des méthodologies orientées objet (UML, design patterns) et des environnements distribués. Son expertise couvre tout le cycle de vie logiciel, de l’analyse fonctionnelle à la rédaction de la documentation technique. MISSIONS Activités principales : • Faire l’analyse fonctionnelle du composant graphique ou de l’application à développer • Conception éventuelle d’une hiérarchie de classes java • Valider les spécifications avec la maitrise d’ouvrage • Concevoir les programmes de tests • Tester et intégrer • Rédiger les documents techniques Profil & Exigences techniques : • Avoir des connaissances approfondies en ingénierie logicielle : concepts et langage java, javascript …), outils et méthodologies de développement logiciel • Maîtriser les concepts et techniques liés au langage Java, ainsi son écosystème de frameworks comme Spring Framework (Core, Boot, MVC, Data), les API de logging (SLF4J), les API de tests et de mocking, et les outils de build (Maven, Gradle) • Maîtriser les concepts d’Interface Homme Machine et d’ergonomie et notamment Java SWING. • Maitrise des environnements distribués (architecture micro-services, API Web REST et GraphQL) • Maitrise des conteneurs Docker • Maîtriser les concepts et techniques liés au langage SQL, ORM, JDBC • Maîtrise de Git, GitLab/GitHub CI, pipelines CI/CD • Maitriser le développement dans le cadre d’environnement d’applications d’entreprise (JEE, Nodejs, React,..) • Connaître les méthodologies d’analyse et de conception orientée objet (UML, Design Patterns) LIVRAVLES Spécifications fonctionnelles et techniques ; - - - - - - - Code source des composants Java (Swing / J2EE) ; Interfaces graphiques (IHM) et couches métier ; Scripts de tests unitaires et d’intégration ; Cahier de recette et rapports de tests ; Package ou artefacts prêts à déployer ; Documentation technique ; Etc.
CDI
Freelance

Offre d'emploi
Consultant MSBI (Power BI)

adbi
Publiée le
Azure Data Factory
Azure DevOps
CI/CD

4 mois
40k-51k €
500-520 €
Île-de-France, France
Le groupe, leader de la transformation urbaine bas carbone, est un groupe français présent sur l’ensemble des métiers de l’immobilier. Au sein de la Direction des Systèmes d’Information, le Pôle Data recherche un Consultant Microsoft BI confirmé. Sa mission principale sera de prendre en charge les développements liés au projet de reporting pour l’activité ENR. La mission comprendra les tâches suivantes : · Concevoir des modèles de données adaptés. · Créer et optimiser des bases de données et entrepôts de données (SQL Server principalement). · Prendre en charge les développements de rapports Power BI. · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.
Freelance
CDI

Offre d'emploi
Data Quality / VBA Developer (H/F)

OMICRONE
Publiée le
Microsoft Access
Microsoft Excel
Microsoft Power BI

2 ans
40k-45k €
400 €
Île-de-France, France
📢 Mission – Data Quality / VBA Developer (H/F) Dans le cadre d’un programme de transformation data au sein d’un grand groupe bancaire, nous recherchons un consultant confirmé en VBA / Data Quality pour intervenir sur des sujets de réconciliation de données et automatisation de processus . 🔹 Missions : Maintenance et évolution de scripts VBA (Excel / Access) Pilotage des processus de réconciliation de données Exécution et suivi de bulk data Administration et migration SharePoint Online Suivi des incidents et amélioration des processus 🔹 Environnement technique : VBA, Excel, Access, SQL, PowerShell, SharePoint Online, ServiceNow, Power BI 📍 Localisation : France (présentiel + télétravail) 📅 Démarrage : Avril 2026 👤 Expérience : 3 ans minimum
Freelance

Mission freelance
DBA OpenSource / DevOps - Projet Innovant - Île-de-France (H/F)

EASY PARTNER
Publiée le
MariaDB
MySQL
PostgreSQL

1 an
500-550 €
Châtillon, Île-de-France
Missions Missions principales Assurer le maintien en condition opérationnelle des environnements de bases de données OpenSource SQL et NoSQL. Gérer les incidents et garantir un support de niveau 2 pour toutes les problématiques BDD. Participer activement à l'automatisation des processus dans un environnement DevOps. Missions annexes Réaliser des audits et apporter une expertise en performance tuning. Former et assister les équipes projet dans l'utilisation optimale des bases de données. Participer à la conception technique et à la gestion des performances des BDD. Stack technique À maîtriser PostgreSQL - Expert MariaDB/MySQL - Confirmé AWX - Expert CouchBase - Confirmé Environnement technique global Bases de données SQL & NoSQL Méthodologies DevOps Anglais professionnel impératif

Les métiers et les missions en freelance pour SQL

Data analyst

Le/La Data Analyst utilise SQL pour extraire et manipuler des données dans des bases de données relationnelles.

Data scientist

Le/La Data Scientist utilise SQL pour préparer les ensembles de données nécessaires à la création de modèles prédictifs.

Administrateur·rice de base de données (Oracle, Sybase, Sqlserver…)

Le/La Administrateur de bases de données utilise SQL pour gérer et optimiser les bases de données d'une organisation.

792 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous