Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)
Votre recherche renvoie 186 résultats.
Offre d'emploi
Chef de projet Data & BI H/F
CONSORT GROUP
Publiée le
IDT
39k-45k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Chef de projet Data & BI H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la donnée, la BI et la conduite de projets décisionnels ? Ce poste est fait pour vous. En tant que Chef de projet Data & BI , vous êtes responsable du pilotage , du développement et du déploiement de notre écosystème : Côté build : Prendre en charge l’ensemble des phases projet : recueil & analyse des besoins métier, spécifications, développement et déploiement. Concevoir et modéliser les architectures décisionnelles (datawarehouse, datamarts, modèles relationnels). Développer et maintenir les dataviz dynamiques et intuitives (SAP BO, Need4Viz, Power BI, QlikSense). Mettre en œuvre et optimiser les flux d’alimentation ETL (SAP BODS souhaité). Réaliser les recettes techniques et fonctionnelles : TU, TNR, scénarios, tests de cohérence des données. Garantir la qualité, la cohérence et la sécurité des données dans le respect du RGPD Côté run : Assurer le suivi et la maintenance évolutive des solutions décisionnelles existantes. Diagnostiquer les problématiques data/BI et proposer des solutions pertinentes et performantes. Accompagner les utilisateurs dans l’appropriation des outils BI et assurer un support de proximité. Surveiller la qualité, la cohérence et l'intégrité des données dans le datawarehouse. Maintenir les plateformes BI : SAP BO 4.3, Need4Viz, 360Suite, Infoburst, Power BI, QlikSense. Optimiser les performances des requêtes SQL et des traitements décisionnels. C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements de chefferie de projet dans le domaine de la Data & BI exigeants. Vous aimez analyser, modéliser, concevoir et livrer des solutions décisionnelles de qualité , tout en innovant. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Maîtrise de SAP BusinessObjects 4.3 (WebI, IDT, CMC) et de Need4Viz . Très bonne maîtrise du SQL , des bases Oracle / SQL Server , et de la modélisation relationnelle. Expérience en ETL , idéalement SAP BODS, sur des flux complexes. Excellentes compétences en dataviz et en conception de tableaux de bord dynamiques. Connaissance de 360Suite , Infoburst , Power BI et QlikSense appréciée. C’est votre manière de faire équipe : Forte capacité d’analyse et de résolution de problématiques. Esprit critique, force de proposition et goût pour le fonctionnel métier. Curiosité, autonomie et rigueur en toutes circonstances. Sens aigu de la qualité et de la sécurité des données. Excellent relationnel et esprit collaboratif. C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2j Salaire : De 39000€ à 45000€ (selon expérience) brut annuel Famille métier : Data & BI Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
Développement .NET / Azure - Référentiels Data
STHREE SAS pour HUXLEY
Publiée le
12 mois
500 €
France
Ingénieur Développement .NET / Azure - Référentiels Data (Asset Management) 📍 Paris (hybride) | 🕒 12 mois renouvelables | 🎯 Senior | 💬 FR & EN | 🚀 Start : 26/01/2026 Le pitch Rejoignez l'équipe Référentiels d'un acteur majeur de la gestion d'actifs (client anonyme ) pour bâtir un référentiel unique et migrer une application On‑Prem vers Azure , tout en intégrant une nouvelle source de données (instruments, émetteurs, extra‑financier/ESG). Rôle clé au carrefour IT x Métier . Vos missions Développer de nouveaux composants .NET et garantir la cohérence technique (clean code, tests, modèles de données). Rédiger les spécifications techniques (API/archi/exploitation) en lien avec le BA. Planifier/estimer les travaux, gérer risques & blocages . Concevoir & suivre les environnements Azure , tester & déployer jusqu'en UAT/PROD avec un haut niveau de qualité. Votre profil Bac+5, 5+ ans en dev, exp confirmée sur Azure et API REST ; maîtrise ETL/Batch/Services et modèles de données . Sens de la qualité (Sonar ; tests auto = +), Agile/Scrum , DevOps . Français & anglais opérationnels ; idéalement finance/asset management & référentiels data. Stack Must‑have : .NET 8 , C# , Blazor (WASM/Server), Visual Studio , Git , Azure DevOps , REST API , SQL Server , EF Core . Nice‑to‑have : HTML5/CSS3 , Azure Data Factory , Postman , API Management , Syncfusion , SonarCloud .
Mission freelance
PRODUCT OWNER (DATA SUPPLY)
Signe +
Publiée le
Snowflake
12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Mission freelance
Chef de programme Data / Banque - Migration Datalake
STHREE SAS pour HUXLEY
Publiée le
12 mois
500 €
France
Chef·fe de Programme Data - Migration Datalake 🚀 Lieu : Paris 📍 * Contrat : Freelance/Assistance technique 🤝 * Démarrage : Jan 2026 ⏱️ * Durée : jusqu'au 31/12/2026 (~218 j) 🗓️ Mission 🎯 Piloter la migration d'un datalake local vers un datalake groupe dans un environnement international (organisation globale basée aux 🇳🇱). Assurer la gouvernance et le pilotage : planning, actions log, risk log, roadmap, tableaux de bord, reporting direction 📊. Garantir l'intégrité des données et la continuité des reportings réglementaires (Finance, Paiements, Transactions, KYC) ✅. Co‑gestion du programme avec un prestataire offshore et un Program Manager au niveau groupe 🤝. Animation des instances (comités projet/direction), coordination équipes métiers & IT, levée d'obstacles, suivi des livrables 🧭. Environnement & périmètre 🔍 Migration lake‑to‑lake avec forte dimension data governance et qualité de données. Publics variés : technique, métier et exécutif (adaptation du discours, synthèse et pédagogie) 🗣️. Cadence structurée : plans d'itération, revues de risques, points d'alignement multi‑stakeholders 📑. Profil recherché 👤 10-15 ans en program management / projets data complexes (banque/assurance idéalement) 🏦. Solides bases en data modeling et architecture data 🧠. Expérience avérée des livrables de gouvernance (plans, dashboards, rapports de direction) 🧾. Outils : ETL (DataStage / pipelines) & Power BI 🛠️. Leadership d'influence, excellente communication (tech ↔ business) et capacité à aligner des équipes pluridisciplinaires 🎛️. Français courant 🇫🇷 & anglais professionnel 🇬🇧 (impératif). Modalités 🧩 🏢 * Pas de déplacements ✈️ * Pas d'astreintes 🌙. Périmètre France avec interface groupe : coordination locale/globale 🔄.
Mission freelance
Développeur Java NodeJS
HAYS France
Publiée le
Google Cloud Platform (GCP)
Java
Node.js
3 mois
300-400 €
59000, Lille, Hauts-de-France
Nous recherchons un Développeur Java / NodeJS pour intervenir sur un projet stratégique de transformation des systèmes d’information Finance au sein d’un grand groupe de distribution. Vos missions À la demande du Métier, vous analysez, paramétrez et développez les composants logiciels applicatifs, dans le respect des normes et procédures en vigueur. Vos responsabilités incluent : Développement de programmes de transformation et d’enrichissement de données en NodeJS typé (TypeScript) et SQL sur Google Cloud Platform (GCP) Développement de programmes de transformation et d’enrichissement de données en Java au sein d’environnements ETL Conception et exécution des tests unitaires Correction des anomalies et participation à l’amélioration continue Collaboration étroite avec les équipes Métier et techniques
Offre d'emploi
Intégrateur technique H/F
OBJECTWARE
Publiée le
API REST
AS400
SQL
1 an
45k-55k €
400-460 €
Bordeaux, Nouvelle-Aquitaine
IDENTIFICATION ET SÉLECTION DES TECHNIQUES DU PROJET : • Définit, sous la responsabilité du chef de projet, l’architecture fonctionnelle et technique du système d’information sur le périmètre applicatif dont il a la charge • Sélectionne les options techniques les plus adéquates pour la conception d’applications en optimisant l’équilibre entre coûts et qualité. • Réalise les flux inter applicatifs nécessaire au bon fonctionnement du projet CONCEPTION, VALIDATION ET ASSEMBLAGE DE CES COMPOSANTS : • Mobilise les techniques de conception pour développer une application adaptée en accord avec les besoins du client. • Adapte les solutions existantes en procédant par exemple au portage d’une application vers un autre système d’exploitation. • Code, débugue, teste, documente et communique sur les étapes de développement du produit. • Choisit les options techniques appropriées au développement comme la réutilisation, l’amélioration ou la reconfiguration de composants existants. • Optimise efficacité, coûts et qualité. Valide les résultats avec les représentants des utilisateurs type, intègre et garantit la solution dans son ensemble. DÉFINITION DES INTERFACES ET DES ÉVENTUELLES ÉVOLUTIONS À APPORTER AUX COMPOSANTS POUR PERMETTRE LEUR INTÉGRATION : • Le cas échéant, modifie ou créée de nouveaux composants • Définit et réalise des interfaces • Met au point et exécute des procédures systématiques de test sur des systèmes informatiques ou les exigences d’utilisabilité du client pour s’assurer de la conformité avec les spécifications de conception. • S’assure que les nouveaux composants ou systèmes ou ceux mis à jour fonctionnent comme prévu. • Garantit la conformité aux standards internes et externes : ce qui inclut les normes de santé, de sécurité, d’utilisabilité, de performance, de fiabilité et de compatibilité. • Produit des documents et des rapports attestant des exigences de certification FOURNITURE DU SYSTÈME DÉVELOPPÉ EN VUES D'EXPLOITATION : • Participe à l’élaboration de didacticiels et documente le système livré • Réalise les premières formations aux référents et utilisateurs à la suite de la livraison du projet • Effectue, sur la base de bonnes pratiques générales, les interventions programmées nécessaires pour mettre en œuvre la solution, y compris l’installation, la mise à jour ou de mise hors service. • Configure le matériel, le logiciel ou le réseau afin de garantir l’interopérabilité des composants du système et corrige toutes anomalies ou incompatibilités liées. • Délivre formellement une solution entièrement opérationnelle à l’utilisateur et complète la documentation avec les informations pertinentes, y compris les caractéristiques des équipements, ainsi que les paramètres de configuration et les données relatives à la performance
Mission freelance
Data Analyste Confirmé SQL Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos
WorldWide People
Publiée le
Microsoft Power BI
SQL
12 mois
390-400 £GB
Mer, Centre-Val de Loire
Data Analyste Confirmé SQL Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos pour une mission sur MER. Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. Contexte : Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. Missions principales : Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. Compétences requises : - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). Connaissances métier : Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. La mission est sur Mer (proche d'Orleans) - Mission sur le long terme
Offre d'emploi
Consultant Business Intelligence (Expérience sur Alteryx Obligatoire)H/F
TOHTEM IT
Publiée le
35k-45k €
Toulouse, Occitanie
Contribuer à la performance décisionnelle d’une organisation en transformant les données en leviers d’action mesurables. Au sein de TOHTEM, vous intervenez au cœur des projets Business Intelligence pour optimiser la gestion et la valorisation des données des caisses d’épargne. Vous intégrez une équipe décisionnelle expérimentée où rigueur et sens de l’analyse guident chaque intervention. Votre objectif est clair : concevoir, maintenir et faire évoluer les flux de données qui alimentent les outils d’analyse et de reporting de nos clients. Vous travaillez dans un environnement structuré, en interaction avec des experts BI, des responsables métiers et des interlocuteurs techniques. Vos principales responsabilités couvrent les activités suivantes : - Concevoir, développer et maintenir les flux ETL sous Alteryx - Assurer la qualité et la cohérence des données traitées - Documenter les processus et garantir la traçabilité des traitements - Identifier et corriger les anomalies dans les flux de données - Collaborer avec les équipes métiers pour comprendre les besoins d’évolution - Participer à l’intégration et à la mise à jour des entrepôts de données - Contribuer à des travaux complémentaires sur Power BI ou Easymorph selon expérience Ce poste requiert rigueur, méthode et une approche orientée résultat. Vous évoluerez dans un contexte où la qualité des données conditionne la fiabilité des décisions stratégiques.
Mission freelance
Responsable DevOps Engineer (+ FinOps)
ESENCA
Publiée le
Amazon Elastic Compute Cloud (EC2)
AWS Cloud
AWS Glue
3 mois
Longpont-sur-Orge, Île-de-France
📍 Localisation : Essonne (91) – 3 jours sur site / 2 jours en télétravail 🕒 Démarrage : Dès que possible 🎯 Contexte de la mission Dans le cadre d’un programme stratégique de mise en œuvre d’une Nouvelle Plateforme Digitale, avec un nouveau site ecommerce, de nouveaux flux, un nouvel ETL… au sein d’un acteur du Retail, nous recherchons un ingénieur Devops expérimenté pour encadrer une équipe de 4 Devops. 🧩 Missions principales Rattaché à la DOSI (Direction et organisation des systèmes d’information), le consultant animera, coordonnera son équipe. Leader, le consultant devra être un faiseur exemplaire qui réalise, qui challenge, qui documente… Objectifs équipe : Intégration et qualification CI/CD Création, maintien, amélioration et documentation des pipelines de déploiement automatique CI/CD. Mis en place et maintien des tests automatisés sur site et application web responsive en collaboration avec l’équipe QA Étude, préparation et budgétisation de l’utilisation des infrastructures et services cloud AWS et Azure Automatisation des tâches via scripting Apport d’un support technique aux équipes transverses (développeurs, QA, production, autres équipes). Debug, résolution d’incidents et optimisation Cloud (AWS) Monitoring & Observabilté (création de dashboards, ouverture automatique de tickets…) Environnement technique : Backend : Java / SprintBoot sur AWS Frontend : Alokai headless (Vue.js / Nuxt) / SenseFuel / Fasterize / API GraphQL BDD : MySQL, MongoDB ETL : AWS Glue Outils : Confluence / Jira / GitLab / DataDog
Offre d'emploi
Data Engineer H/F
Lùkla
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Description du poste : Nous recherchons un Data Engineer pour rejoindre une équipe Data moderne et orientée traitement de données volumétriques. Vous participerez au design, à la mise en place et à l’optimisation des pipelines de données. Missions : Développement de pipelines ETL / ELT Modélisation et structuration de data warehouses / data lakes Optimisation des performances et qualité des données Participation à la mise en place de frameworks DataOps Collaboration étroite avec Data Analysts / Data Scientists
Mission freelance
Développeur Java/REST/NodeJS
STHREE SAS pour HUXLEY
Publiée le
API REST
Google Cloud Platform (GCP)
Java
12 mois
300-420 €
Île-de-France, France
Java - Expert - Impératif NodeJS - Expert - Impératif SQL - Expert - Impératif GCP - Expert - Impératif Anglais Professionnel (Impératif) À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. Description actuelle du projet Dans le programme FINE, plusieurs composants majeurs interviennent la chaîne d'intégration des données : - L'interpréteur comptable : Il est utilisé pour transformer, valider et enrichir les fichiers de données afin qu'ils soient envoyés dans la chaîne d’intégration - Un ETL : permet de transporter et convertir les fichiers de données ou d'appeler des services web pour acquérir des informations. Nous recherchons un développeur expérimenté qui participera aux évolutions que nous devons apporter sur ces 2 composants dans le cadre de la finalisation de notre Core Model Finance. La mission consistera à : - Développer et mettre au point des programmes de transformation et d'enrichissement de données en NodeJS typé typescript + SQL sur GCP - Développer et mettre au point des programmes de transformation et d'enrichissement de données en Java dans l’ETL - Réaliser les tests unitaires - Corriger les anomalies Une solide expertise en web service REST, NodeJS, Java est requise pour ce poste. La connaissance de GCP est également requise
Mission freelance
PRODUCT OWNER DATA SUPPLY
Signe +
Publiée le
Snowflake
12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Mission freelance
[SCH] Data Engineer – Confirmé - 1162
ISUPPLIER
Publiée le
10 mois
385-418 €
Niort, Nouvelle-Aquitaine
Contexte de la mission : Mon client recherche un Data Engineer confirmé pour intervenir sur des activités d’analyse, de spécification, de développement, de test et de maintenance au sein d’un environnement Data. Missions : -Analyser les besoins et spécifier les solutions Data -Développer les traitements et flux de données -Réaliser les tests -Assurer la maintenance des développements existants Environnement technique : -Outils de développement : PowerCenter (Informatica), SQL Developer, DbVisualizer -Langages : SQL, PL/SQL -SGBD : Oracle, Hive -Méthodologie : SAFE Profil recherché : Data Engineer confirmé (3 à 8 ans) disposant d’une expérience significative sur des environnements Data, avec une forte maîtrise des outils ETL, des bases de données et des langages SQL / PL-SQL.
Mission freelance
Architecte Sécurité
CAT-AMANIA
Publiée le
Cybersécurité
3 mois
400-670 €
Île-de-France, France
Contexte de la mission L'équipe Cybersécurité assure la protection et la sécurisation de l’ensemble du groupe : elle pilote la stratégie de gouvernance et les processus de gestion du risque, s’assure de la conformité de nos systèmes d’information, définit les moyens techniques nécessaires à la détection et à la réponse aux incidents, ainsi que les moyens de contrôle associés. Nous cherchons à renforcer notre équipe Security Advice Office d’un Cybersecurity Architect . Nous accompagnons au quotidien les équipes Digital dans l’intégration de la cybersécurité dans leurs projets, qu’il s’agisse de la sécurisation de la data, de l'IA, de l’infrastructure, des plateformes ou encore des applications du groupe. Pour réussir cette mission, l’équipe Advice : Fournit des conseils applicables et contextualisés aux équipes Digital ;1 Réalise la revue de l’intégration de la cybersécurité dans les architectures existantes ;2 Délivre des guidelines permettant de mettre en applicat3ion les bonnes pratiques Cyber ; Réalise des études d’exploration sur certains sujets novateurs et différenciateurs pour la Cybersécurité. Objectifs et livrables Le Cybersecurity Architect recherché aura pour mission : D’accompagner les équipes Digital en les aidant à intégrer la cybersécurité dès les phases de choix de solution et de design ; De créer des guidelines de sécurité permettant aux équipes de mettre en application les bonnes pratiques sur leur périmètre ; De prendre part à des revues d’architecture cybersécurité des infrastructures, plateformes et applications du groupe ; De partager ses connaissances en matière de cybersécurité auprès de son équipe et, plus largement, auprès des équipes Digital. Périmètre technique Cloud Public (AWS / GCP) ; Infrastructure As Code ; Instances, Containers, Kubernetes, Serverless ; API Management ; CI/CD, GitOps ; Protocoles d'authentification et d'autorisation (SAML, Oauth2.0, OIDC, …) ; Aiven, Data Platform (Datalake, ETL, …), Data flows management (Kafka, …) ; Solutions IoT (hardware, application mobile, Cloud Public) ; Network : Interconnexion, VPN, PAM, WAF, Proxy et Load Balancing. Profil recherché Formation supérieure en informatique et solide expérience en cybersécurité (infrastructure, plateforme, applications) ; Maîtrise du Cloud Public et d'au moins un langage (Python, Java, JavaScript) ; Excellente communication (écrite, orale, anglais obligatoire car équipe internationale), capable d'adapter son discours aux différents interlocuteurs (produit, business, tech) ; Esprit d'équipe , force de proposition, orienté solution/client, et rigueur dans la production de livrables documentaires qualitatifs ; Passionné par la tech , capable d'innover et d'évoluer dans un contexte international ; Approche orientée par les risques et tempérament de "problem solver". Des certifications sécurité sont appréciables (AWS, GCP, SANS, Offsec, etc.). Compétences demandées CompétencesNiveau de compétence Frameworks CybersécuritéConfirméDocumentationConfirmé CYBERSÉCURITÉExpertArchitecture CyberExpert Risques CyberConfirmé LanguesNiveau de langueAnglaisCourant
Offre d'emploi
Développeur Data Integration – Chaîne d’Intégration Comptable (NodeJS/TypeScript, Java, GCP)
ARKAMA CS
Publiée le
Java
Node.js
SQL
62 jours
Hauts-de-France, France
📢 Appel d’Offre – Développeur Data Integration / Chaîne d’Intégration Comptable (H/F) Programme Finance – Finalisation Core Model | Contexte international Bonjour à tous, Nous recherchons un développeur expérimenté pour participer aux évolutions de notre chaîne d’intégration comptable dans le cadre d’un programme Finance international, afin de finaliser notre Core Model Finance . Le consultant interviendra sur deux composants majeurs : L’interpréteur comptable (transformation, validation, enrichissement des données) Un ETL (transport/conversion des fichiers + appels services web) 📅 Informations clés Type de contrat : Assistance technique Démarrage souhaité : 05/01/2026 Fin estimée : 31/03/2026 Volume prévisionnel : 62 jours Présence sur site : 3 jours / semaine Déplacements : Non Astreintes : Non Langue : Anglais professionnel impératif Code profil : 3.2.2 – Concepteur/Développeur – Medium 🎯 Objectif de la mission Contribuer au développement et à la stabilisation des évolutions nécessaires sur la chaîne d’intégration des données comptables, afin de garantir la qualité , la cohérence et la fiabilité des flux dans un contexte international . 🧩 Responsabilités principales Développer et mettre au point des programmes de transformation et d’enrichissement de données en NodeJS typé TypeScript + SQL sur GCP (interpréteur comptable) Développer et mettre au point des programmes équivalents en Java dans l’ ETL Concevoir et réaliser les tests unitaires Corriger les anomalies et contribuer à la stabilisation des composants Participer à la rédaction / mise à jour des spécifications techniques Respecter les normes, procédures et standards de développement (qualité, sécurité, performance) 💡 Compétences techniques attendues (Impératif) NodeJS (TypeScript) – Expert Java – Expert SQL – Expert GCP – Expert Web Services REST – Expertise solide ⭐ Compétences appréciées Expérience sur des chaînes d’intégration de données / projets Finance Pratique des environnements ETL , flux fichiers, traitements batch & contrôles Autonomie, rigueur, sens du résultat Capacité à évoluer dans un contexte international (échanges en anglais) 🧠 Profil recherché Développeur / Concepteur-Développeur confirmé À l’aise sur des sujets data transformation , intégration, APIs REST Capacité d’analyse, qualité de code, esprit d’équipe Orienté delivery (développement + tests + correction) 📄 Livrables attendus Programmes de transformation/enrichissement de données (NodeJS/TS + SQL + Java) Spécifications techniques (flux, mapping, interfaces, règles techniques) Tests unitaires (jeux de tests, résultats, couverture) Suivi des anomalies / corrections (selon processus interne)
Mission freelance
Développeur Informatica (H/F)
INFOTEL CONSEIL
Publiée le
Informatica
Informatica PowerCenter
12 mois
400-550 €
Île-de-France, France
Nous recherchons un développeur Informatica : Dans le cadre d’un renfort, nous recherchons un profil technique expérimenté pour intervenir sur des flux de données et des applications à forte volumétrie. La mission s’inscrit dans un environnement structuré, au sein d’une équipe pluridisciplinaire. Missions principales : Conception et évolution de traitements de données Développement et optimisation de flux applicatifs Analyse et clarification des besoins fonctionnels Rédaction de livrables techniques Support technique et résolution d’incidents Environnement : Outils ETL et bases de données relationnelles SQL, scripting, intégration continue Travail collaboratif, reporting régulier Télétravail possible (2 à 3 Jours de TT) - En IDF Profil autonome, rigoureux, avec une forte capacité d’analyse et d’adaptation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
186 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois