Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)
Mission freelance
Consultant PUR AZURE + BI
* Concevoir et développer des entrepôts de données (Data Warehouse), Data Marts et Data Cubes * Développer des flux ETL réutilisables avec Azure Data Factory * Intégrer et transformer des données provenant de multiples sources vers Azure SQL DB / Data Lake * Mettre en oeuvre des mécanismes de chargement (complet, delta, historique) * Optimiser la performance des requêtes (SQL, DAX, MDX) et assurer la qualité des données * Mettre en place des outils analytiques et alimenter les dashboards Power BI * Développer des rapports Power BI * Gérer la sécurité des données, notamment le Row Level Security à tous les niveaux de la chaîne * Participer à la mise en place de pipelines CI/CD automatisés via Azure DevOps / GitLab
Offre d'emploi
Chef.fe de projet Capacité IT & Performance
Vous participez au pilotage de la performance et de la capacité des infrastructures IT, en produisant, analysant et restituant les données clés. Votre rôle Production des données de capacité · Produire et actualiser les inducteurs relatifs au parc IT, à la performance des serveurs et aux consommations de stockage. · Contribuer aux calculs et à la mise à jour des notes IT SCORE. · Participer à la production des inducteurs liés à la sobriété numérique et à la mesure de l’empreinte environnementale du SI. · Maintenir à jour les référentiels et modes opératoires associés. Analyse, reporting & restitution des données · Élaborer et maintenir les tableaux de bord Power BI pour le suivi des KPI techniques et applicatifs · Analyser les données issues des outils TSCO / IT SCORE et produire les rapports d’analyse correspondants · Assurer le reporting sur les activités et les résultats du périmètre de la capacité IT Maintenance, évolution & support · Gérer la maintenance et le déploiement des ETL, ainsi que la mise à jour des référentiels techniques et administratifs · Contribuer à la gestion des évolutions fonctionnelles et techniques des outils TSCO / IT SCORE · Traiter les incidents et assurer le suivi des plans d’action et des corrections associées Coordination & Amélioration continue · Assurer la coordination entre la DSI, les directions métiers, le contrôle de gestion et la finance · Participer au partage de connaissances et au transfert de compétences au sein de l’équipe · Préparer et documenter la phase de réversibilité en fin de mission
Offre d'emploi
Data Architecte Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Data Engineer - Lyon
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Data Engineer Snowflake DBT
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.
Mission freelance
Expert Alteryx H/F
Mission principale Concevoir, optimiser et maintenir des workflows complexes dans Alteryx afin de répondre aux besoins de transformation, d’automatisation et de fiabilisation des données au sein des équipes métiers et IT. L’expert Alteryx sera également chargé d’accompagner les utilisateurs dans l’adoption de la plateforme et la mise en place des bonnes pratiques. Responsabilités Analyser les besoins métiers et traduire les exigences en solutions dans Alteryx. Concevoir, développer et maintenir des workflows et macros complexes (préparation, transformation et automatisation des données). Optimiser la performance et la robustesse des processus existants. Mettre en place des standards et bonnes pratiques pour l’utilisation d’Alteryx au sein des équipes. Former et accompagner les utilisateurs (analystes, risk managers, contrôle de gestion, etc.). Participer à l’intégration d’Alteryx avec d’autres systèmes (bases de données, BI, cloud). Assurer la documentation et la traçabilité des workflows. Contribuer à la veille technologique autour des outils d’automatisation et de data preparation. Compétences techniques Maîtrise approfondie de Alteryx Designer et Alteryx Server . Excellentes connaissances en manipulation et modélisation de données. Bonne maîtrise du SQL (optimisation de requêtes, jointures complexes). Connaissance d’outils complémentaires : Tableau, Power BI, Python ou R (serait un plus). Compréhension des architectures data (ETL, API, entrepôts de données). Connaissance des environnements cloud (Azure, AWS ou GCP) appréciée. Compétences fonctionnelles Compréhension des activités et produits des marchés financiers (actions, taux, dérivés, change, etc.). Sensibilité aux problématiques de conformité, risque et reporting réglementaire. Capacité à dialoguer avec des interlocuteurs variés : métiers, IT, data engineers, contrôleurs.
Offre d'emploi
Consultant(e) MOA Finance BI
Dans le cadre du renforcement de l’équipe BI Finance, nous recherchons un(e) Consultant(e) MOA pour intervenir en assistance à maîtrise d’ouvrage sur des activités de support, maintenance et projets évolutifs liés aux outils décisionnels et à l'ERP du domaine. Responsabilités principales : Sous la responsabilité du Responsable de Domaine , vous aurez pour missions : Recueillir les besoins utilisateurs et rédiger les expressions de besoin (cahiers des charges, tickets Jira) Présenter les besoins et solutions fonctionnelles à l’ équipe technique (MOE) Participer au pilotage fonctionnel des projets et assurer le suivi des développements Réaliser les tests fonctionnels et présenter les solutions développées aux utilisateurs métier Contribuer au suivi de la feuille de route du domaine
Offre d'emploi
Architecte Infrastructure / Expertise en infrastructure
Architecte Infrastructure / Expertise en infrastructure Le bénéficiaire souhaite une prestation d'accompagnement pour des activités d'expertise et d'ingénierie des technologies cloud. Expert en infrastructure cloud spécialisé dans le déploiement, administration, optimisation et la gestion de clusters kubernetes sur un service cloud kubernetes et OpenShift. Responsabilités principales : Deploiement des architectures Kubernetes sur service cloud. Automatisation les déploiements et la gestion des clusters. Mise en place les bonnes pratiques DevOps. Assurer la haute disponibilité et la scalabilité des applications. Optimisation des performances et les coûts d'infrastructure. Implémentation des politiques de sécurité et de conformité. Formation et accompagnement des équipes des experts DataStage et se former en parallèle sur l'administration de l'ETL DataStage. Documentation des architectures et procédures.
Mission freelance
Architecte DATA
Recherchons un Architecte DATA Tâches à réaliser : Conceptualisation de solutions et réalisation de proof of concept Estimation des efforts, développement, mise en œuvre et déploiement d’applications Développement de code sécurisé, propre, réutilisable et bien documenté (méthode AGILE) Configuration des environnements de développement, test et production (local et cloud) Maintien de la qualité du code, documentation, déploiement en production et transfert de connaissances Compétences demandées Data ingestion: scripting like PowerShell & python Confirmé PowerBI (DAX) Confirmé Knowledge in Azure Cloud Confirmé TALEND Expert ServiceNow customization Avancé Azure Data Factory Confirmé Familiarité avec les solutions d’automatisation d’infrastructure (Ansible, Terraform, etc.) Confirmé Pratique du langage Python, documentation du code, implémentation de tests unitaires et de pipelines d’intégration Confirmé
Mission freelance
Ingénieur Exploitation Systèmes Critiques
Entreprise française indépendante du secteur autoroutier et des infrastructures de transport, notre client gère et exploite un réseau stratégique à forts enjeux de continuité de service. Ses activités reposent sur des systèmes de péage et de monétique critiques, garants de la fluidité du trafic, de la fiabilité des transactions et de la satisfaction des usagers. Dans le cadre d’une évolution interne, l’entreprise recrute un Ingénieur / Technicien d’Exploitation pour rejoindre le service Systèmes d’Information , rattaché à la Direction Technique . Vos missions Exploitation & Supervision Garantir la disponibilité et la performance des systèmes critiques de péage et de monétique. Assurer le suivi des traitements automatisés et des flux inter-applicatifs. Identifier, analyser et résoudre les incidents d’exploitation. Participer aux mises en production et au suivi des évolutions applicatives. Gestion & Contrôle des Flux Surveiller les échanges de données entre les systèmes internes et les partenaires externes. Contrôler l’intégrité et la cohérence des transactions monétiques et financières. Exploiter et maintenir les outils de transfert et d’intégration de données (GoodSync, GoAnywhere, ETL). Automatisation & Amélioration Continue Contribuer à l’optimisation et à l’automatisation des processus d’exploitation. Documenter les procédures, modes opératoires et plans de supervision. Participer à la définition d’indicateurs et au suivi de la performance des systèmes. Collaboration & Support Collaborer étroitement avec les équipes Métiers, Exploitation et SI. Assurer un support de niveau 2/3 sur les incidents complexes. Être force de proposition sur les évolutions techniques et les pratiques d’exploitation.
Mission freelance
Développeur PL/SQL
Pour le besoin de mon client basé en Ile de France , je suis à la cherche d'un profil qui maîtrise le PL/SQL, mais non orienté ETL , Lobjectif est de trouver quelquun qui maîtrise le développement et loptimisation PL/SQL au sein dun environnement applicatif, et non un profil spécialisé dans les flux de données ou lintégration. La mission est sur le périmètre Décisionnel de la squad, le profil doit être plutôt teinté MOE, il devra assurer essentiellement du RUN et pouvoir traiter déventuelles évolutions en BUILD.
Mission freelance
POT8704 - Un DBA / DevOps / AWS > 5 ans d'expérience sur La Défense
Almatek recherche pour un de ses clients, Un DBA / DevOps / AWS > 5 ans d'expérience sur La Défense Contexte : Dans le cadre de la modernisation et de l’optimisation de nos systèmes de données, nous recherchons un profil hybride : DBA confirmé avec une forte culture DevOps/Cloud. Ce rôle va au-delà des missions classiques d’administration : il s’agit d’apporter une expertise sur les bases de données, d’accompagner la migration vers AWS, d’optimiser les performances et d’automatiser la gestion des environnements. Profil recherché : DBA / DevOps / AWS Confirmé > à 5 ans d’expérience dans la fonction Expérience confirmée en DBA/administration de bases de données OnPrem. Maîtrise des environnements AWS Data Services (RDS, Aurora, Glue, Redshift). Expérience en optimisation et migration de systèmes de données. Appétence forte pour les environnements DevOps / IaC. Une expérience sur d’autres Cloud (Azure, GCP) est un plus Missions principales : Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances (requêtes SQL, tuning, architectures de stockage). Garantir la haute disponibilité, le PRA et la continuité de service. Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD. Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). Gérer l’évolution des schémas BDD via des outils de migration comme Liquibase. Compétences techniques recherchées : Bases OnPrem : PostgreSQL, Vertica, MariaDB, Oracle 11g/19c. Cloud : AWS (RDS, Aurora MySQL, Glue, Redshift). ? Maîtrise AWS = pré-requis. Azure, GCP = un plus apprécié. ETL / Data pipelines : Airflow, Dollar Universe ou équivalent. Langages : SQL avancé, Python, Shell. IaC & DevOps : Terraform, Ansible, Git, Docker, CI/CD ? pré-requis. Kubernetes = un plus apprécié. Monitoring : Prometheus, Grafana, ELK = un plus apprécié. Sécurité & conformité : IAM, chiffrement, RGPD, sauvegardes/restaurations. Gestion de schémas BDD : Liquibase (pré-requis). Soft skills clés : Vision transverse : relier la technique aux besoins métier. Communication claire : expliquer simplement les choix techniques. Esprit d’analyse et optimisation : détecter les points de blocage et proposer des solutions efficaces. Autonomie et proactivité : anticiper, être force de proposition. Collaboration : travailler en équipe pluridisciplinaire (Data, BI, IT, Cloud). Curiosité : veille permanente sur les innovations Cloud et Data. Orientation résultat : recherche de valeur ajoutée, pas uniquement de solution technique.
Mission freelance
Expert BI SQL SERVER / POWER BI / DATABRICKS
Nous recherchons un Expert SQL Serveur, Power BI et modélisation de données, avec une expérience dans un environnement Databricks pour une mission basée à Guyancourt. La mission portera sur : la migration de reportings Power BI depuis une plateforme Datawarehouse sous SQL Server vers Databricks, l’optimisation de rapports existants, l’accompagnement des utilisateurs, la création de nouveaux reportings. Vous avez une vraie expertise sur l'ETL SQL Server, Powerbi et Databricks. Vous êtes autonome et parlez anglais. Vous avez une dizaine d'année d'expérience en BI principalement sur SQL Serveur. Vous avez déjà travaillé en environnement PME. La mission est basée à Guyancourt. Important: Le site est mal desservi et il vaut mieux être véhiculé. Une partie de la mission pourra se faire en remote après une période d'onboarding.
Mission freelance
DATA Engineer - AWS(H/F)
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Offre d'emploi
Consultant Teradata
Dans le cadre d’un projet stratégique orienté data, la mission consiste à intervenir sur des traitements ETL complexes au sein d’un environnement décisionnel basé sur Teradata. Le poste couvre à la fois des activités d’étude et de réalisation : 🔍 Phase d’étude Analyse de l’existant sur un périmètre de traitements ETL Définition de la cible technique sur Teradata Découpage en lots, estimation des charges et planification 🛠️ Phase de réalisation Conception des solutions cibles Développement et tests en SQL Teradata Exécution de doubles RUN et bilans en vue des mises en production Suivi des traitements post-MEP durant la phase de VSR Proposition et mise en œuvre d’optimisations techniques 📑 Livrables attendus Documentation technique et fonctionnelle Dossiers d’étude, d’architecture, de sécurité et de mise en production Résultats de tests, PV de recette, fiches d’anomalies Comptes rendus d’activité et de réunions 🤝 Interactions Collaboration avec les équipes métiers pour la mise à disposition et l’exposition des données Coordination avec les autres équipes IT et partenaires externes
Offre d'emploi
Data Engineer (Bordeaux)
En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.