L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 580 résultats.
Offre d'emploi
Architecte Data (H/F) - CDI
GROUPE ARTEMYS
Publiée le
76000, Rouen, Normandie
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Nous recrutons un Consultant Senior Data Architecture / Data Engineering H/F en Freelance pour intervenir auprès de l’un de nos clients basé au Le Havre. Dans le cadre de cette mission, vous interviendrez sur des sujets d’audit, de transformation et d’urbanisation des plateformes data existantes avec une forte dimension architecture et accompagnement des équipes. Votre mission (si vous l’acceptez) : Phase 1 – Audit & Architecture Réalisation d’un audit des environnements data et des chaînes de traitement existantes Analyse de l’architecture globale, des workflows, des flux de données et des usages Identification des points de friction, limites techniques et axes d’optimisation Évaluation des choix d’architecture et des pratiques de data engineering en place Formalisation de recommandations structurées et actionnables sur les architectures cibles, les workflows et les bonnes pratiques Phase 2 – Accompagnement & Transformation Accompagnement à la refonte des architectures data et des workflows de traitement Participation à la mise en œuvre des préconisations techniques et organisationnelles Contribution à l’évolution des standards de conception et d’exploitation des flux de données Accompagnement des équipes internes dans la montée en compétences et l’adoption des bonnes pratiques Clarification des usages et des responsabilités entre architectures ETL, échanges API et flux temps réel Le profil que nous recherchons : Minimum 8 ans d’expérience en Data Engineering / Architecture Data Excellente capacité d’analyse avec une vision transverse des architectures et des flux Expérience significative sur plusieurs environnements et solutions de traitement de données Solide expertise en conception, transformation et optimisation d’architectures data Bonne maîtrise des bases de données relationnelles et NoSQL (type MySQL, Cassandra) Bonne compréhension des mécanismes d’intégration via API et des enjeux d’urbanisation des flux La connaissance de NiFi constitue un plus Capacité à intervenir dans une posture de conseil avec vision stratégique, pédagogie et force de proposition Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 40 000 - 45 000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
🔎 Tech Lead Data (Snowflake / dbt) & Power BI
OMICRONE
Publiée le
Azure Data Factory
CI/CD
DBT
2 ans
40k-45k €
400-500 €
Île-de-France, France
🔎 Tech Lead Data (Snowflake / dbt) & Power BI Dans le cadre du renforcement d’une équipe Data & Analytics, nous recherchons un Tech Lead Data & BI pour piloter la delivery technique de produits data et solutions de visualisation, dans un environnement moderne et industrialisé. 🎯 Vos missions • Piloter la chaîne data de bout en bout : Snowflake → dbt → modèle sémantique → Power BI • Définir et faire appliquer les standards techniques (modélisation, qualité, performance, gouvernance) • Encadrer la revue de code , les pratiques CI/CD et l’industrialisation des pipelines • Concevoir et maintenir les modèles data et datamarts sous Snowflake • Développer et structurer les projets dbt (modèles, tests, documentation) • Mettre en place des pipelines robustes (orchestration, contrôles qualité, runbooks) • Définir les bonnes pratiques Power BI (modèle sémantique, performance, RLS, templates) • Participer au run : gestion des incidents, post-mortems, amélioration continue • Accompagner et faire monter en compétences les équipes (France & offshore) 🧩 Profil recherché • Expérience confirmée en tant que Tech Lead Data / BI • Excellente maîtrise de Snowflake et du data modeling • Expertise avancée sur dbt (modélisation, tests, documentation) • Solide expérience sur Power BI (modélisation, performance, gouvernance, RLS) • Bonne connaissance des environnements Azure Data Factory • Capacité à définir des standards et à structurer une équipe • Excellentes compétences en communication 🛠 Compétences clés • Snowflake (expert) • Data Modeling / BI Modeling (expert) • dbt (avancé) • Power BI (confirmé) • Azure Data Factory • CI/CD, data quality, gouvernance data
Offre d'emploi
Scrum Master Data Senior
Tritux France
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps
3 ans
54k-58k €
550-580 €
Paris, France
Objectifs de la mission : Uniformiser les pratiques Agile sur l’ensemble du périmètreStabiliser et sécuriser les cycles de sprint Améliorer la qualité du backlog et des User Stories · Structurer les processus de production, d’arbitrage et de communication Mettre en place un pilotage clair : capacité, consommés, KPIs, roadmap Assurer la synchronisation et la gestion des dépendances inter squads Périmètre d’intervention Animation des rituels : daily, refinements, poker plannings, sprint plannings, reviews, rétros Vision prévisionnelle de la capacité et du backlog sur les prochains sprints · Construction d’une roadmap consolidée Amélioration de la qualité des US : découpage, prérequis, critères d’acceptation Mise en place / harmonisation de la Definition of Ready et Definition of Done Alignement des pratiques entre les équipes · Production des release notes et mise en place des KPIs de delivery Standardisation des checklists de livraison / reprise de données (UAT, OAT, PRD) · Analyse de charge, détection d’anomalies, gestion proactive des risques · Mise en place d’un reporting clair et régulier vers la Data Factory.
Offre d'emploi
AI ENGINEER - DATA SCIENTIST
SMILE
Publiée le
Data science
Pilotage
Python
6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Mission freelance
Expert Infrastructure IBM MQ – Support N3 & Solutionning Data Platform
Deodis
Publiée le
IBM i
1 an
570 €
Île-de-France, France
Poste d’expert infrastructure senior chargé d’assurer le maintien en condition opérationnelle et le support de niveau 3 d’infrastructures critiques de transfert de données basées sur la technologie IBM MQ, au sein d’un environnement orienté Data Platform. La mission implique également une forte contribution au solutionning technique dans le cadre de projets métiers, avec la conception et l’optimisation d’architectures d’échange de flux complexes. Elle nécessite une expertise avancée en scripting, une bonne maîtrise des environnements Windows et Unix, ainsi qu’une capacité à intervenir dans un contexte international, avec un haut niveau d’autonomie et de communication en anglais.
Offre d'emploi
Senior Data Analyst
DEKIMO EXPERTS
Publiée le
Snowflake
6 mois
Paris, France
🚀 Senior Data Analyst – Fintech (Paris / Hybrid) Contexte Fintech européenne en forte croissance, recherche un Senior Data Analyst freelance pour renforcer la séniorité de son équipe Data et piloter des projets à fort impact business. La mission En tant que business partner data , vous intervenez au cœur des décisions stratégiques : Piloter des projets data transverses (Finance, Sales, Product, Marketing, Ops…) Traduire des problématiques métier en analyses actionnables Construire dashboards & reportings stratégiques Réaliser des analyses avancées (cohortes, attribution, forecasting) Contribuer à la structuration de la data (modélisation, qualité, self-service) Stack & environnement Snowflake · dbt · SQL · Tableau Profil recherché 5+ ans en data analytics (startup / scale-up idéalement) Excellente communication & posture de partenaire métier Forte autonomie et capacité à driver des projets complexes Expertise SQL + outils de data viz FR / EN courant
Mission freelance
Business Analyst DATA (H/F)
CELAD
Publiée le
Business Analyst
Recette
12 mois
400-450 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst DATA (H/F) pour intervenir chez un de nos clients. 💻💼 🎯 Voici un aperçu détaillé de vos missions : Dans le cadre de l’application SOCLE des Données Commerciales , vous intervenez sur l’ensemble des phases de conception, spécification et recette en lien avec les équipes DSI et métiers. À ce titre, vos principales missions seront : Participer à la conception fonctionnelle des besoins DATA Rédiger les spécifications fonctionnelles Mettre à disposition et structurer les jeux de données de test Contribuer à la recette DSI et métier (préparation, exécution, suivi) Valider les cas de tests et les résultats associés Analyser et qualifier les anomalies ou incohérences de données Assurer un rôle d’interface entre les équipes IT et métiers Participer à l’amélioration de la qualité et de la fiabilité des données commerciales
Offre d'emploi
Chargé de projets SI et data H/F
HAYS France
Publiée le
50k-65k €
75001, Paris, Île-de-France
Rattaché à la Direction Financière, le chargé SI & Data est le référent technique de l'entreprise sur l'ensemble du périmètre informatique. Véritable profil couteau-suisse, il intervient aussi bien sur la gestion de la donnée que sur l'architecture des logiciels métiers, l'infrastructure réseau du siège et la gestion du parc matériel. Il est l'interlocuteur(trice) de confiance des équipes internes pour tout sujet lié aux systèmes d'information. Data Collecter, structurer et fiabiliser les données issues des différents systèmes (ventes, opérations, RH, finance) Mettre en place et maintenir les outils de reporting et de visualisation de données (dashboards, tableaux de bord) Accompagner les équipes métiers dans l'exploitation et l'analyse de leurs données Logiciels et architecture SI Administrer et maintenir les logiciels métiers du siège (ERP, CRM, outils de caisse, plateformes SaaS) Gérer les intégrations entre les différentes applications et assurer la cohérence de l'architecture SI Piloter les projets de déploiement ou de migration logicielle : cahier des charges, suivi prestataires, recette Infrastructure réseau Administrer et superviser l'infrastructure réseau du siège (LAN, Wi-Fi, VPN, pare-feu) Assurer la disponibilité, la performance et la sécurité des connexions et des accès Gérer les accès utilisateurs, les droits et les politiques de sécurité informatique Parc matériel Gérer le parc informatique : ordinateurs, serveurs, terminaux de caisse, tablettes, périphériques Assurer les achats, la configuration, le déploiement et le renouvellement du matériel Mettre en place et suivre l'inventaire du parc et les contrats de maintenance associés
Offre d'emploi
Chargé d’Affaires Data Centers CVC
AGH CONSULTING
Publiée le
Finance
Planification
6 mois
Massy, Île-de-France
Contexte Dans le cadre du développement d’activités liées aux Data Centers , nous recherchons un(e) Chargé(e) d’Affaires CVC pour piloter des projets techniques en environnement critique. Vous interviendrez sur des installations à forte exigence de performance (refroidissement, climatisation, continuité de service), en lien direct avec les équipes techniques et les clients. Missions Assurer la préparation, le pilotage et le suivi technique des projets CVC Planifier les interventions en coordination avec le client Participer à la conception technique des solutions (dimensionnement, optimisation) Piloter la rentabilité des affaires (suivi budgétaire, marges) Contribuer au développement du chiffre d’affaires Coordonner et encadrer les équipes opérationnelles Assurer le reporting d’activité auprès de la direction / conduite de travaux Veiller au respect des normes de sécurité et de qualité sur les chantiers
Offre d'emploi
Architecte Data H/F
TOHTEM IT
Publiée le
40k-50k €
Toulouse, Occitanie
Le contexte Tu interviens sur la conception de plateformes data modernes dans un environnement industriel aéronautique. Tes missions Dans ce rôle, tu interviens sur plusieurs types de missions : Tu conçois des architectures de données robustes, scalables et performantes pour répondre aux besoins d’analyse. Tu définis les solutions d’extraction, de transformation et de chargement des données (ETL/ELT) depuis différentes sources vers les entrepôts de données, en lien avec les équipes data engineering. Tu collabores étroitement avec les équipes métiers afin de comprendre leurs besoins et de structurer la donnée au sein du système d’information. Tu veilles à la sécurité et à la conformité des données en mettant en place des dispositifs adaptés de contrôle d’accès et d’audit. Tu surveilles les performances des systèmes, identifies les points de blocage et proposes des optimisations. Tu restes en veille sur les évolutions des technologies data, BI et cloud afin de contribuer à l’amélioration continue. Tu participes à la montée en compétences des équipes data (data engineers, data analysts) sur les outils et bonnes pratiques. Tu conçois des plans de migration entre différentes technologies (par exemple d’outils on-premise vers des solutions cloud). Tu contribues activement aux communautés d’expertise en partageant tes idées et retours d’expérience.
Mission freelance
Consultant IA Technique - Copilot
Orcan Intelligence
Publiée le
Microsoft Copilot Studio
Agent IA
Azure
5 mois
400-500 €
Paris, France
Orcan Intelligence recherche pour l'un de ses clients un AI Consultant - Copilot & ChatGPT. Intégration & développement Concevoir et développer des connecteurs entre Copilot et les applications métiers Intégrer des solutions via APIs (REST), Microsoft Graph, Power Platform Participer aux choix d’architecture technique Industrialisation des solutions IA Développer et maintenir des agents IA (Copilot, ChatGPT) Transformer les besoins métiers en solutions techniques robustes Structurer et intégrer des logiques de prompting avancé Suivi & performance Mettre en place des outils de reporting d’usage et de consommation Optimiser les performances et les coûts des solutions déployées Suivre l’inventaire des agents et cas d’usage Gouvernance & qualité Garantir la sécurité, conformité et qualité des solutions Participer à la validation technique avant mise en production Support technique Assurer un support de niveau avancé Collaborer étroitement avec les équipes fonctionnelles (adoption, métiers)
Offre d'emploi
Business Analyst Data (Full Remote (H/F))
UMANTIC
Publiée le
45k-55k €
France
Business Analyst Data / GenAI - Snowflake & AI Cortex (H/F) Mission freelance longue durée - Full Remote (rattachement Lyon) Le contexte Au sein d'une équipe Agile, vous intervenez sur un projet stratégique de transformation digitale de la chaîne de valeur Commerciale. L'enjeu : déployer une fonctionnalité "Talk to your data" permettant aux collaborateurs métiers d'interroger les données en langage naturel, grâce à un AI Agent (LLM) qui génère automatiquement des requêtes SQL fiables. Le produit est aujourd'hui utilisé par 35 utilisateurs, avec un objectif d'extension à 700+ utilisateurs d'ici fin 2026. Vous intervenez sur le backend et la couche sémantique, garants de la qualité, de la cohérence et de la pertinence des requêtes générées par l'IA. Stack & environnement * Snowflake (incluant Snowflake AI Cortex) * SQL avancé / modélisation de données * Concepts GenAI / LLM * Méthodologie Agile (Scrum) Vos missions Compréhension fonctionnelle & cohérence produit * Assurer l'alignement entre les besoins métiers et les capacités du data product * Garantir la cohérence fonctionnelle et la qualité globale de la plateforme Coordination & gestion des exigences * Collaborer avec les équipes sources pour clarifier les besoins et garantir la disponibilité des données * Travailler étroitement avec le Product Owner pour affiner et prioriser les fonctionnalités User Stories & Backlog * Participer à la rédaction des user stories et à la définition des fonctionnalités * Contribuer à la planification des releases et à la priorisation des features * Garantir que les user stories sont prêtes pour le développement et alignées avec la roadmap * Valider ou rejeter les livrables selon les critères d'acceptation Quality Assurance * Contribuer à la création et à l'exécution des cas de test * Valider les modèles de données et leur adéquation aux besoins analytiques * Participer aux contrôles de qualité des données et aux tests fonctionnels
Offre d'emploi
Data Product manager
ANDEMA
Publiée le
Microsoft Power BI
6 mois
40k-63k €
450-500 €
Lille, Hauts-de-France
Raison d’être du poste : Le Data Product Manager assure l'interface stratégique et opérationnelle entre les Data Owners métier et l'équipe technique Data. Sa mission est de transformer la donnée issue des différents systèmes en produits analytiques performants pour piloter l'offre, l'impact scientifique du client et les processus d'accréditations internationales. Expert en modélisation Power BI, il garantit la fiabilité des indicateurs et la sécurité des accès, tout en challengeant les besoins métiers pour maximiser la valeur ajoutée des solutions déployées Finalités et Résultats Attendus : 1. Analyse, modélisation et structuration des données Analyser les modèles de données des différentes applications contributrices (sources de données ou consommatrices/cibles de données) Modéliser les données métiers (programmes, faculté, recherche et accréditations) dans un modèle commun ‘SKEMA’, développer des data products (PowerBI et autres) répondant aux besoins métier et maintenir le modèle sémantique de l'école. Définir et gérer la gouvernance des accès et la sécurité des données (Row Level Security) pour chaque data product. 2. Conception et développement des data products Ecrire les spécifications techniques pour les opérations de manipulation de données Documenter les logiques métier de transformation Comprendre, piloter les flux d’intégration et de transformation de données (Azure Data Factory, Synapse, PowerBI [demain Fabric / Databricks ou autres]) Développer les data products en lien avec les data owners et les équipes data Tester et valider la cohérence des flux de données entre les systèmes producteurs et les data products finaux. Suivre l’adoption des data products (usage, accès …) 3. Qualité et fiabilité des données Direction des Ressources Humaines Participer aux projets de migration et de mise en qualité des données entre systèmes applicatifs afin d’identifier les impacts sur le périmètre des data products concernés. Assurer la fiabilité des données, les contrôles de cohérence et participer au support technique associé des data products. 4. Structuration de la plateforme Data Avoir une compréhension d’une data plateforme et d’une modélisation médaillon Piloter la mise à disposition de donnée dans la data plateforme pour permettre la réalisation des data products. 5. Collaboration et accompagnement Savoir faire le pont entre les équipes métiers (vulgarisation des concepts) et les équipes techniques pour l’évolution des usages data Animer la communauté des data owner de l’univers « Offre d'enseignement & Impact scientifique » Environnement data : Modélisation de donnée • Power BI • Fabrics (est un plus) • Synapse / Azure (est un plus) • Databricks (est un plus) • Git, DevOps • SQL
Offre d'emploi
Développeur Senior Full-Stack Java/Angular (H/F)
1G-LINK CONSULTING
Publiée le
Angular
Java
Spring Batch
12 mois
Paris, France
Contexte : Intervention au sein d’une équipe produit Agile opérant à l’échelle (SAFe), avec une participation active à des cycles de livraison courts basés sur des incréments réguliers, permettant aux métiers de suivre l’avancement et d’ajuster la roadmap de manière encadrée. Collaboration étroite avec les équipes internes du client (maintenance et projet), dans le respect d’une répartition des tâches définie lors des Sprint Planning. Missions : Concevoir et implémenter des fonctionnalités front Angular et back Java/Spring Boot conformes aux users stories, critères d’acceptation et à la DoD(Definition of Done). Ecrire les tests unitaires : assurer les seuils de couverture conformes aux KPI. Garantir la qualité, la performance, la sécurité et la maintenabilité du code. Suivre un mode de gestion des branches adapté aux conventions de l’équipe : branches de fonctionnalités avec fusions fréquentes. Prendre part aux cérémonies : Daily Scrum, Sprint Planning, Sprint Review (démo), Rétrospective d’équipe, sessions de raffinage. Collaborer dans des trains SAFe : participation aux PI Planning, respect des objectifs PI. Compétences techniques: Angular 19+,Java 8, Spring Boot, Spring Batch, Spring Data -JPA, CSS Bootstrp, Javascript, Html IntelliJ, Eclipse, JUnit, PostgreSQL, Maven, Cloudbees, Jira/Azure, Git, SonarQube, Accessibilité (RGAA/ARIA) appréciée.
Mission freelance
Data Engineer
Orcan Intelligence
Publiée le
DBT
Docker
ETL (Extract-transform-load)
3 mois
400-500 €
Paris, France
Dans le cadre du développement de solutions data à l’échelle de l’entreprise, nous recherchons un Data Engineer Senior. Vous interviendrez sur la conception et la mise en œuvre de solutions de data warehouse, en manipulant de grands volumes de données structurées et non structurées. Vous collaborerez étroitement avec les architectes data et les équipes métier afin de traduire les besoins en solutions techniques robustes et performantes. Missions principales Traduire les besoins métier en spécifications techniques Développer des flux ETL (outils natifs type TPT, SQL et outils tiers comme DBT) Rédiger et optimiser des requêtes SQL complexes et scripts shell Concevoir et développer des pipelines de données (batch et streaming) Mettre en place des solutions d’ingestion de données à faible latence Définir et implémenter des processus d’intégration dans l’environnement IT Superviser les performances et recommander des optimisations Rédiger et maintenir la documentation technique Interagir avec les clients pour affiner les besoins Supporter les équipes projet et delivery
Mission freelance
Développeur DataStage
ARGANA CONSULTING CORP LLP
Publiée le
Big Data
ETL (Extract-transform-load)
IBM DataStage
12 mois
450 €
Joinville-le-Pont, Île-de-France
🔎 Contexte de mission Dans le cadre des projets de la Direction Informatique Groupe (périmètre Sécurité Financière), vous interviendrez sur la mise en œuvre des indicateurs AML au sein de nouveaux outils en cours de développement. La mission s’inscrit dans un environnement bancaire exigeant, avec des enjeux liés à la conformité et au traitement de données financières. 🎯 Missions principales et rôle En tant que Concepteur / Développeur DataStage , vous serez en charge de : Développer les contrats d’interface entre le SI, le DRE et les Datamarts Concevoir et faire évoluer les flux de données liés aux projets AML (LAB, TRACE, etc.) Créer et maintenir les composants d’intégration de données (CI) Développer les packages DataStage associés Participer aux phases de tests et de recette Accompagner les mises en production (MEP) 🚀 Objectifs Assurer la bonne intégration des flux de données dans l’écosystème SI Garantir la qualité, la fiabilité et la conformité des données AML Contribuer à l’évolution des outils de lutte contre le blanchiment 🛠️ Compétences requises Expérience de 3 à 5 ans en développement, idéalement en environnement bancaire ou marchés financiers Maîtrise des environnements Big Data et expertise en ETL DataStage Bonne connaissance de JIRA (obligatoire) Connaissance du périmètre fonctionnel comptabilité multinormes Expérience en méthodologie Agile Anglais professionnel requis
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Offre fictifs et offre non sérieuses
- Retour d'expérience démission-reconversion
- Vue CV
2580 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois