Find your next tech and IT Job or contract ETL (Extract-transform-load)

Your search returns 46 results.
Permanent

Job Vacancy
Tech Lead Salesforce ++ (H/F)

Published on
Architecture
Development
ETL (Extract-transform-load)

Paris, France
Actual Talent, cabinet de recrutement depuis 2000 et spécialiste des métiers du digital et de l'IT recherche un(e) LEAD DEVELOPER +++ (Digital Business Solution) pour son client CARMIGNAC. Carmignac est une société de gestion d’actifs financiers indépendante fondée en 1989 avec un capital entièrement détenu par ses salariés. Carmignac est l’un des leaders européens de la gestion d’actifs et opère depuis 7 bureaux différents. Basé à Paris et sous la responsabilité du Head of digital and Operation for Distribution, l’équipe Digital Business Solutions (DBS) de Carmignac recherche un Tech Lead +++ pour gérer son écosystème numérique (Salesforce, outils marketing, données). Le Tech Lead +++ aura les responsabilités de piloter des projets et des équipes, superviser l’architecture technologique et la gestion des données, optimiser les solutions digitales, pour la distribution et le marketing: - Supervision d'équipe et de projets : Superviser une équipe de développeurs, assurer le suivi de la feuille de route et piloter la méthodologie de développement. - Architecture et stratégie : Superviser l'architecture technique, proposer des évolutions et définir la stratégie de la plateforme CRM Salesforce et de son écosystème. - Solutions digitales : Identifier et mettre en œuvre des solutions technologiques pour améliorer la distribution multicanale et l'expérience client. - Gestion des données : Superviser la gestion des données d'entreprise, développer des capacités d'analyse de données et soutenir les équipes d'ingénierie dans la conception d'analyses avancées. - Innovation et amélioration continue : Évaluer les technologies émergentes, recommander des solutions innovantes et promouvoir une culture axée sur le client et les résultats. - Collaboration et communication : Travailler avec les équipes internes (marketing, ventes, opérations) pour aligner les solutions technologiques sur les objectifs stratégiques et communiquer efficacement avec les parties prenantes.
Permanent

Job Vacancy
Responsable de Domaine Data/BI

Published on
Data Warehouse
ETL (Extract-transform-load)
PowerBI

90k-100k €
Antony, Ile-de-France
Hybrid
📌 Responsable de Domaine Data / BI (H/F) 🎯 Contexte & Enjeux du Poste Dans le cadre d’une évolution organisationnelle et du redimensionnement d’un poste stratégique, notre groupe renforce son Département Études et recrute son Responsable de Domaine Data / BI. Ce rôle clé intervient au moment où l’entreprise engage une refonte complète du SI décisionnel, une modernisation de son architecture data, et une professionnalisation de sa gouvernance de la donnée. Le poste combine vision stratégique, pilotage technique, management d’équipe (5 à 10 personnes, internes et prestataires) et accompagnement des métiers. 📝 Missions principales 1. Définition & Pilotage de la Stratégie Data Construire et suivre la feuille de route Data/BI du groupe (stratégie, priorités, trajectoires, budgets). Contribuer au ciblage de l’architecture Data et aux choix technologiques clés. Conduire la refonte du SI décisionnel et la modernisation des outils associés. 2. Gouvernance & Qualité de la Donnée Définir et appliquer les standards de qualité, sécurité, conformité et intégrité de la donnée. Superviser l’ensemble des flux, entrepôts, modèles et indicateurs clés. Garantir la fiabilité, performance et disponibilité des plateformes data. 3. Management & Structuration de l’Équipe Encadrer une équipe de 5 à 10 collaborateurs (internes + prestataires). Définir l’organisation, les responsabilités, les objectifs et les rituels d’équipe. Monter en compétence les équipes : méthodologie, bonnes pratiques, culture data. 4. Supervision Technique & Opérationnelle Piloter l’ensemble du périmètre technique BI & Data : Systèmes : SAP BW, SAP BO, Power BI, Snowflake Outils & technologies : ETL / Talend, SQL, modèles de données Garantir la maintenance, les évolutions, les déploiements et le bon fonctionnement des plateformes. Valider les solutions : ETL, dashboards, reporting, modèles de données, intégration, architecture. 5. Relation Métiers & Accompagnement Être l’interlocuteur privilégié des métiers (commerce, logistique, finance, opérations…). Recueillir, challenger et prioriser les besoins en intelligence décisionnelle. Accompagner les équipes dans l’usage des outils, la compréhension des indicateurs et la diffusion de la culture data. Collaborer étroitement avec la MOA et les chefs de projet SI
Contractor
Permanent

Job Vacancy
PO DATA - DECISIONNEL

Published on
Data management
Dataiku
ETL (Extract-transform-load)

3 years
40k-70k €
400-600 €
Nanterre, Ile-de-France
La prestation consiste à mener au sein de la MOA, des projets décisionnels depuis le recueil des besoins auprès des différents clients internes, jusqu’à la mise en production et l’accompagnement utilisateur. Le PO Décisionnel sera responsable de la qualité et la cohérence des livrables, en assurant une modélisation et l'architecture des données. Les principales missions : Recueillir et analyser les besoins métiers, définir la solution adaptée et estimer la charge du projet. Proposer l’architecture fonctionnelle par une modélisation des données garantissant la cohérence des flux d’informations et la qualité des données utilisées Piloter la mise en place des outils Qlik Sens Gérer la roadmap du projet et définir les priorités en collaboration avec le PM Rédiger les US et gérer le backlog en mode Agile pour garantir une bonne communication avec les équipes techniques. Validation du résultat et en production et assurer le support fonctionnel aux utilisateurs après déploiement. Communiquer l’avancement du projet auprès des différentes parties prenantes et garantir une bonne gestion des instances projets. Effectuer le reporting auprès de la MOA Collectives pour assurer un suivi régulier des projets
Contractor

Contractor job
Architecte Solution Intégration type ESB, ETL/ELT, API Management (H/F) – IDF 92 – Vorstone

Published on
API Platform
API REST
Architecture

1 year
750-950 €
Paris, France
Hybrid
Architecte Solution Intégration ESB, ETL/ELT, API Management (H/F) – IDF 92 – Mission 9 à 12 mois – Programme Stratégique Groupe Vorstone recherche un Architecte Solution Intégration data et applications pour un grand groupe badée en IDF/PARIS (92) Démarrage : ASAP Durée : 9 à 12 mois (BDC trimestriel) Contexte : Environnement international – Equipes Digital & IT – GDO (Global Data Operations) Contexte de la mission Le département Global Data Operations conçoit, développe et opère les plateformes Data, AI, Automation et Integration du groupe. Au sein de GDO, la ligne de service Integration Platform pilote et opère les solutions d’intégration de données et d’applications , et conduit un programme stratégique visant à : Rationaliser et moderniser le paysage d’intégration, Globaliser les activités d’intégration, Définir les architectures cibles et le futur operating model, Unifier les pratiques et technologies au niveau groupe. Cela inclut des solutions d ’ETL/ELT, ESB, B2B/EDI, API, CDC, EDA. Le client recherche un Architecte Solution Intégration de données et applications très expérimenté , immédiatement opérationnel, pour renforcer l’équipe. En tant qu’ Architecte Solution Intégration , et sous la responsabilité du Program Manager, vous contribuerez directement au programme de globalisation des activités d’intégration. Vos missions principales : 1. Architecture, Analyse & Vision Cible Réaliser l’inventaire détaillé des solutions d’intégration existantes au sein du groupe. Recueillir et analyser les besoins d'intégration (actuels et futurs). Évaluer les solutions existantes et concevoir les architectures cibles et scénarios d’évolution. Contribuer à la cohérence globale et à la rationalisation du paysage. 2. Conception et Gouvernance Concevoir des architectures robustes, évolutives, sécurisées, alignées aux standards Groupe. Participer ou animer les comités TADA (Technology & Architecture Design Authority). Intervenir sur les projets impactant l’intégration pour garantir l’alignement architectural. Produire la documentation d’architecture, les bonnes pratiques et règles d’intégration. 3. Expertise & Support avancé Accompagner les équipes techniques sur les patterns, performances, supervision, dimensionnement… Conduire des PoCs pour valider technologies ou choix architecturaux innovants. Garantir la mise à jour des référentiels dans Atlas Archi . 4. Animation & Collaboration transverse Animer une communauté d’experts autour de la plateforme d’intégration. Collaborer avec les architectes (solutions, produits, entreprise), experts techniques, responsables programmes/projets et partenaires externes. Intervenir dans un contexte international et multi-équipes.
Contractor

Contractor job
ARCHITECTE DATA SNOWFLAKE AWS-anglais courant- Habilitable H/F

Published on
AWS Cloud
ETL (Extract-transform-load)
Snowflake

40 days
400-600 €
Blagnac, Occitania
La mission consistera à travailler sur : •Frameworks d’ingestion et restitution : oDéfinir les standards pour ingestion (batch, streaming, CDC) et restitution (API, BI, data services). Vision AS IS > TO BE •Framework « Observabilité & qualité des données » : oDéfinir métriques et roadmap pour monitorer la qualité des données critiques, en lien avec une initiative déjà lancée avec SODA. •Monitoring des flux & santé de la plateforme : oContribuer à la mise en place des indicateurs et outils pour surveiller la performance et la disponibilité des pipelines, service et ressources de la plateforme. (en lien avec le plan de robustification déjà lancé et les travaux menés en parallèle sur la partie FinOps) •Plan de migration SSIS + SQL Server → Snowflake : oDéfinir la méthodologie (phases, outils, patterns). oIdentifier les risques et dépendances. •Stratégie d’Access Management : (priorité 2) oDéfinir les rôles, politiques RBAC/ABAC. oGarantir la conformité avec les standards de sécurité et gouvernance. •Tous éléments de documentation jugés nécessaires pour sécuriser la gestion quotidienne et évolutive de la plateforme : des travaux de retro-documentations pourraient être réalisés afin d’illustrer les écarts VS état de l’art. Ces activités mèneront à la production des livrables ci-dessous : •Documentation des frameworks ingestion & restitution(As is > To be). •Plan d’observabilité & qualité des données (métriques, outils, roadmap). •[CONTRIBUE]Tableau de bord pour monitoring des flux et santé plateforme. •Plan de migration (méthodologie, roadmap, estimation effort). •Stratégie d’Access Management (modèle de rôles, règles d’accès). •Formaliser la feuille de route opérationnelle 2026+ avec le data architect déjà en place pour limiter les écarts avec l’état de l’art.
Contractor

Contractor job
Lead C#/PHP/JS

Published on
API REST
Architecture
AWS Cloud

3 months
Lille, Hauts-de-France
Hybrid
Environnement Technique : Fullstack C#.NET / PHP / JS , Cloud (AWS/Azure). 1. Missions Principales : L'intervenant garantira la conception d'architectures robustes et évolutives. Ses responsabilités incluront : Cadrage et Conception : Définir les orientations techno, concevoir des architectures (microservices, event-driven) et identifier les risques techniques. Aider à la réalisation de conception complexe. Pilotage Technique : Collaborer avec les devs, apporter un support expert sur les problèmes complexes et piloter la transformation DevOps (CI/CD). Gouvernance : Promouvoir les standards (SOLID, Clean Code) et animer des revues d'architecture. 2. Compétences Requises (Hard Skills) : Développement Fullstack (Indispensable) : Maîtrise de C#.NET, PHP, JavaScript, SQL. Architecture : Concepts Microservices, Serverless, Event-driven. Intégration : API REST, ETL, ESB. Cloud & DevOps : Connaissance AWS/Azure/GCP et maîtrise des pipelines CI/CD. 3. Profil Recherché : Expérience : 8 à 10 ans minimum en développement logiciel dont plusieurs années sur des problématiques d'architecture. Savoir-être : Leadership, capacité de vulgarisation et vision stratégique.
Permanent
Contractor

Job Vacancy
Ingénieur Solutions SI H/F

Published on
Architecture
Azure Active Directory
ETL (Extract-transform-load)

6 months
Monaco
Hybrid
ASTERIA recherche, pour l’un de ses Clients basé sur Monaco, un Ingénieur Solutions H/F. VOTRE MISSION : La DSI de notre Client recherche un Ingénieur Solutions H/F pour accompagner la transformation digitale de celui-ci. Cette mission a pour objectif de concevoir des solutions techniques garantissant la compliance, la performance et l’évolutivité du SI de notre Client tout en répondant aux attentes et exigences des métiers variés de l’entreprise. En tant qu’Ingénieur Solutions, vous portez la responsabilité de l’implémentation de solutions métiers dans le système d’information en assurant le respect des critères DICT, de la stratégie d’architecture ainsi que de la politique de sécurité des systèmes d’information (PSSI). Vous aurez donc la charge de concevoir, déployer, documenter et assurer les conditions d’une bonne MCO/MCS de plateformes applicatives d’entreprise (ERP, CRM, PMS, CMS, RH...) dans des environnements cloud privés et publiques. Missions principales : Réunions de cadrage avec les parties prenantes, les chefs de projet et responsables métiers, ainsi que les fournisseurs pour convertir les expressions de besoin / spécifications fonctionnelles en propositions techniques appropriées. Livraison des différents composants du projet (Réseaux, Machines Virtuelles, Systèmes, Middleware et autres pré requis) et accompagnement des fournisseurs dans les phases d’installation et de déploiement. Documentation des designs (HLD, LLD), des procédures d’exploitation et de recette, codes sources et fichiers de configurations afin de maintenir un haut niveau de transparence et de faciliter le partage des connaissances au sein de différentes équipes. Participation à la sélection des technologies les plus adaptées (Externes ou Internes, nouvelles ou existantes) en fonction des exigences de performance, de coûts et de sécurité. Contribution à l’amélioration continue (Monitoring, Evolution), au maintien en condition opérationnelle (support de Niveau 3).
Contractor
Permanent

Job Vacancy
Data Architect - 12 months - Brussels

Published on
Data governance
Data management
Data Warehouse

12 months
Brussels, Brussels-Capital, Belgium
Data Architect - 12 months - Brussels Our important client is currently looking for a Data Architect for a 12-month contract based in Brussels. Hybrid with 2 to 3 days onsite mandatory. Please find the description below: This role involves designing and maintaining the enterprise architecture framework, guiding digital transformation, and overseeing enterprise data architecture to ensure data is treated as a strategic asset. Key Responsibilities Enterprise strategy Participate in strategic discussions on company level. Have a clear overview of business units, their functions and processes. Impact estimation of possible strategic decisions on the organisation, processes and technology Architecture Strategy & Governance Define and maintain enterprise architecture principles, standards, and roadmaps. Ensure architectural alignment with business objectives and regulatory requirements. Design and maintain the overall application landscape and the mapping of these applications with their business functionalities Ensure there is a design of an integration framework through which data flows between these applications Solution Design & Integration Design scalable, secure, and cost-effective solutions in collaboration with business and IT stakeholders. Oversee integration of systems across business units and platforms. Evaluate emerging technologies and recommend adoption strategies. Enterprise Data Architecture Define and maintain the enterprise data architecture roadmap aligned with business and IT strategies. Establish data standards, principles, and best practices for modeling, integration, mastar data management and governance. Integration & Interoperability Design data integration patterns (ETL/ELT, APIs, Service bus, streaming) for on-premises and cloud environments. Enable interoperability between transactional- and operational systems but also analytics systems (data warehouse, data lake,...) Lifecycle Management Manage the lifecycle of applications, platforms, and infrastructure. Define modernization and cloud migration strategies. Stakeholder Engagement Translate business needs into architectural requirements and technical solutions. Communicate architectural decisions and their impact clearly to non-technical stakeholders. Governance & Compliance Identify architectural risks and propose mitigation strategies. Ensure compliance with data protection, cybersecurity, and industry standards. Required Skills & Qualifications Education: Master’s in Computer Science, Information Systems, or related field. Experience: 10+ years in data architecture, data engineering, or enterprise architecture roles. Technical Expertise Strong knowledge of relational and NoSQL databases, data modeling, and data integration, Experience with Azure and Microsoft related data technologies (Azure synapse, data lake storage, Fabric), Experience with integration technologies in Azure like Logic apps, Azure functions,... Soft Skills: Excellent communication and stakeholder management. Strategic thinking with hands-on problem-solving ability. Ability to integrate into an organisation and identify skills and characters in order to outline governance models. If you are interested please send me your CV and I will contact you as soon as possible with further details.
Contractor

Contractor job
Data Engineer | DevOps AWS (H/F)

Published on
AWS Cloud
CI/CD
Data analysis

9 months
400-450 €
Saint-Denis, Ile-de-France
Hybrid
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Contractor
Permanent

Job Vacancy
DBA / DevOps

Published on
Ansible
AWS Cloud
ELK

12 months
Ile-de-France, France
Hybrid
Descriptif de mission Dans le cadre d’un projet de modernisation et d’optimisation des systèmes de données , nous recherchons un profil hybride : DBA confirmé avec une forte culture DevOps et Cloud . Le poste dépasse les missions classiques d’administration : il s’agit d’apporter une expertise technique sur les bases de données , d’ accompagner une migration vers un environnement AWS , d’ optimiser les performances et d’ automatiser la gestion des environnements . Missions principales Administrer et optimiser les bases de données OnPrem (PostgreSQL, Vertica, MariaDB, Oracle). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances SQL et les architectures de stockage . Garantir la haute disponibilité , le PRA et la continuité de service . Automatiser la gestion des environnements via Infrastructure as Code (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD . Contribuer au monitoring et à l’ observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data , BI et IT pour garantir des données fiables et performantes. Assurer une veille technologique sur les sujets Cloud, Data Lake et Big Data . Gérer l’évolution des schémas de bases via des outils de migration tels que Liquibase
Contractor

Contractor job
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)

Published on
AWS Cloud
Azure
CI/CD

1 year
Montreal, Quebec, Canada
Hybrid
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
Contractor

Contractor job
Architecte / Expert MongoDB Atlas sur Azure

Published on
.NET CORE
Apache Kafka
ARM architecture

6 months
530-620 €
Bordeaux, Nouvelle-Aquitaine
Hybrid
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Contractor

Contractor job
Développeur MSBI - Power BI Ms Consultant (Secteur bancaire)

Published on
Azure Data Factory
Azure DevOps
BI

12 months
500-560 €
Ile-de-France, France
Hybrid
Au sein de la Direction des Données et des Services Analytiques, le service Analytic assure la mise en œuvre et le support des solutions analytiques et de Business Intelligence de la Banque. L’équipe DEV Rapide MSBI intervient sur des projets de développement agiles et rapides (moins de 20 jours de développement) pour répondre aux besoins métiers en matière d’analyse, de reporting et de visualisation de données. Le consultant interviendra sur l’ensemble du cycle de vie des projets BI : du recueil de besoin jusqu’à la mise en production, tout en accompagnant les utilisateurs et en participant à la promotion de l’offre de services BI. 🎯 Missions Recueil des besoins auprès des équipes métiers et participation aux ateliers techniques et fonctionnels. Conception et développement de solutions BI agiles (SQL, SSIS, SSRS, SSAS, Power BI). Mise en œuvre de prototypes et POC pour valider les choix fonctionnels et techniques. Accompagnement des utilisateurs dans la prise en main des solutions et des outils de datavisualisation. Maintenance et évolution des solutions BI déployées. Avant-vente et conseil : participation à la présentation de l’offre de services BI, réalisation de démonstrations et supports de communication. Animation de communautés BI et partage des bonnes pratiques. Mise à jour documentaire (SharePoint) et suivi des activités (reporting hebdomadaire). Veille technologique sur l’écosystème Microsoft BI et les outils complémentaires.
Contractor

Contractor job
Technical Architect

Published on

6 months
£450-500
England, United Kingdom
Hybrid
SC Cleared Technical Architect 6 Month contract initially Location: Remote, occasional travel Rate: £450 £500 p/d (via Umbrella company) We have a great opportunity with a world leading organisation where you will be provided with all of the support and development to succeed. A progressive organisation where you can really make a difference. We have a great opportunity for a Technical Architect to join the team. Key Responsibilities: * Review AWS Infrastructure components design & usage and implement enhancements. * Design and implement an ETL (Extract, Transform, Load) engine using AWS EMR (Elastic MapReduce) for efficient data processing. * Design, review and Implement reporting solutions integrating Tableau with AWS services for seamless data visualization. * Design and implement containerized UI applications (Front end & back end) with microservices Architecture on Amazon EKS (Elastic Kubernetes Service). * Experience in Infrastructure as code, scripting (Python/Bash), Helm charts, Docker, Kubernetes * Experience is reviewing and implementing cloud security best practices. * Integrate and optimize supporting AWS services to create a cohesive, performant application ecosystem. * Ensure the overall architecture meets performance, scalability, and security requirements. * Provide technical leadership and guidance to the development team throughout the project lifecycle. * Continuously evaluate and recommend improvements to the architecture to enhance performance and reduce costs. * Automate deployment processes and workflows using tools like Terraform, Ansible, and Jenkins. * Monitor and optimize system performance, ensuring high availability and reliability. * Develop and enforce best practices for security, compliance, and cost management in cloud environments. * Collaborate with development and operations teams to streamline CI/CD pipelines , DevOps tools and practices to improve software delivery. * Troubleshoot and resolve infrastructure-related issues, providing technical support and guidance. Key Skills & Experience: * Extensive AWS service knowledge * Lambda * Avaloq experience * ETL (Extract, Transform, Load) * Integrating Tableau with AWS services * Amazon EKS (Elastic Kubernetes Service) * Infrastructure as code, scripting (Python/Bash), Helm charts, Docker, Kubernetes * Tools like Terraform, Ansible, and Jenkins. * CI/CD pipelines, DevOps tools and practices This is an excellent opportunity on a great project of work, If you are looking for your next exciting opportunity, apply now for your CV to reach me directly, we will respond as soon as possible. Due to the nature and urgency of this post, candidates holding or who have held high level security clearance in the past are most welcome to apply. Please note successful applicants will be required to be security cleared prior to appointment which can take up to a minimum 10 weeks. LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.
46 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us