The job you are looking for has been deleted or has expired.
Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.
Your search returns 1,212 results.
Contractor job
Senior Data Scientist IA / LLM
Published on
LangChain
Large Language Model (LLM)
Python
12 months
520-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Senior Data Scientist IA / LLM" pour un client dans le secteur bancaire Description 🚀 Le Contexte : L'ère des Agents Autonomes Dans le cadre du développement de nos solutions de nouvelle génération, nous recherchons un Data Scientist / AI Engineer capable de transformer des modèles de langage (LLM) en agents autonomes et décisionnels. Vous ne vous contenterez pas de faire des appels API simples ; vous concevrez des architectures d'agents complexes capables de raisonner, d'utiliser des outils et de gérer des workflows cycliques au sein d'un environnement Web robuste (Django). 🎯 Vos Missions : Orchestration et Architecture 1. Conception d'Agents avec LangGraph & LangChain : Développer des systèmes d'agents multi-acteurs utilisant LangGraph pour gérer des états complexes et des boucles de rétroaction (cycles). Implémenter des chaînes de traitement modulaires avec LangChain (RAG, mémoires, agents de planification). Optimiser le Prompt Engineering et la structuration des données en sortie (JSON mode, parsing). 2. Intégration et Backend (Django) : Développer les briques Backend sous Django pour exposer les capacités de l'IA via des APIs (REST / WebSockets pour le streaming). Gérer la persistance des états des agents et des sessions utilisateurs dans la base de données Django. Assurer la sécurité et l'authentification des accès aux outils LLM. 3. RAG & Knowledge Management : Mettre en œuvre des architectures de Retrieval Augmented Generation (RAG) performantes. Connecter les agents à des bases de données vectorielles (Qdrant, Pinecone, ou Pgvector) et des sources de données métiers. 4. Évaluation et Fiabilité (LLM Ops) : Mettre en place des protocoles d'évaluation pour mesurer la pertinence des agents (Frameworks type RAGAS ou DeepEval). Monitorer les coûts et les latences des appels aux modèles (OpenAI, Mistral, modèles Open Source).
Contractor job
PMO IA avec une gestion de chefferie de projet ponctuel (H/F)
Published on
AI
Big Data
Google Cloud Platform (GCP)
3 months
400-480 €
Paris, France
Hybrid
Dans le cadre du renforcement du pôle de pilotage des projets DATA & IA, la mission consiste à coordonner et piloter des projets et expérimentations IA , tout en assurant un rôle de PMO pour le portefeuille de delivery IA . À ce titre, les responsabilités incluent : Pilotage de projets Pilotage de la prestation réalisée par un partenaire externe (éditeur) Coordination des activités internes : validation des livrables, préparation des environnements de tests, constitution des jeux de données Planification et suivi des différentes phases projet : étude, développement, intégration, tests et déploiement Organisation et coordination des travaux opérationnels avec les équipes SI et les Métiers Mise en place de la gouvernance projet et du reporting opérationnel Suivi, consolidation et communication sur l’avancement des projets Rôle PMO – Pilotage de portefeuille Animation des revues de portefeuille de delivery IA Organisation des ateliers d’arbitrage et d’analyse Mise en œuvre et maintien d’un reporting complet et régulièrement mis à jour
Job Vacancy
Business Analyst orienté Data/BI
Published on
Microsoft Excel
Power Query
Python
12 months
40k-45k €
400-450 €
Strasbourg, Grand Est
Hybrid
Contexte : • Compréhension des process métier et des besoins de reporting des interlocuteurs métiers (back office, chefs produit…) • Analyse des données existantes pour définir les modalités de production de ce reporting • Rédaction des spécifications à destination de l’équipe Data (composée de data engineers) pour la phase d’industrialisation : formalisation des données manipulées, des règles de gestion (filtres, relations, etc.), règles de gestion, définition métier des fonctions de collecte de données • Suivi et pilotage du projet jusqu’à la livraison au client Compétences requises : • Expérience confirmée en AMOA : un fort niveau d’autonomie est demandée, et une capacité à prendre en charge des projets complexes et d’envergure o Capacité à traduire des besoins métiers en analyses concrètes o Esprit critique et rigueur dans l’interprétation des données o Excellentes compétences en communication et vulgarisation de données complexes o Autonomie, proactivité et capacité à travailler en équipes • Techniques et analytiques : o Utilisation des outils d’analyse de données (SQL, Notebooks Python, Excel, Power Query…) o Utilisation des outils de Visualisation de données (Power BI)
Job Vacancy
Lead Technical Architect – Environnement Finance de Marché (H/F)
Published on
Big Data
Finance
Time series
3 years
46k-58k €
400-550 €
Ile-de-France, France
Hybrid
🎯 Contexte Un département stratégique dédié à la recherche quantitative en finance de marché recherche un Lead Technical Architect pour renforcer ses équipes. La mission s’inscrit au cœur d’un environnement global, à forte intensité data et compute, travaillant en étroite collaboration avec des équipes Quant , IT , Research et Ops . Vous interviendrez sur des plateformes critiques liées au pricing , au risk management , aux time-series data et à la performance des systèmes de calcul. 🛠 Vos responsabilités Au sein du groupe en charge des infrastructures compute et market data, vous aurez pour missions : Repenser et optimiser l’architecture des services Compute et Histo . Améliorer la scalabilité , la performance et la résilience de l’infrastructure grid. Fournir des recommandations structurantes sur la stack haute disponibilité. Rewriting / refactoring de composants techniques ne répondant pas aux exigences de performance. Participer à la définition des frameworks pour les services de market data haute demande. Travailler au quotidien avec les équipes quant, recherche et ingénierie.
Contractor job
Adjoint au Directeur de Programme (H/F) - Nantes
Published on
Agile Method
Migration
Project management
1 year
510-590 €
Nantes, Pays de la Loire
Dans le cadre d’un programme stratégique de migration et modernisation des systèmes d’information en environnement bancaire , nous recherchons un Adjoint au Directeur de Programme pour accompagner le pilotage global du programme. 🎯 Le rôle : En appui direct du Directeur de Programme, vous contribuez à la structuration, à la coordination et au pilotage opérationnel d’un programme de transformation d’envergure, avec un positionnement entre Directeur de Projet et Directeur de Programme . À ce titre, vous intervenez notamment sur : La contribution à la stratégie de portage applicatif et data La mise en place et le pilotage d’outils de gestion de backlog La coordination transverse des équipes projets, data et infrastructures La préparation et l’animation des instances de gouvernance (comités projets, comités de pilotage, instances de suivi) La participation au renforcement des équipes (internes et partenaires) La contribution à la structuration d’un dispositif partenaires pour accompagner les entités du groupe dans leurs projets de transformation
Job Vacancy
Data analyst
Published on
Microsoft Power BI
Microsoft SSIS
SQL
12 months
40k-44k €
370-400 €
Toulouse, Occitania
Hybrid
Nous mettons à disposition de différentes équipes des dashboards Power BI. Nous sommes autonomes sur toute la chaîne de liaison, incluant : -Récupération des besoins -Récupération de la donnée -Modélisation -Intégration de la donnée à l'entrepôt de données -Dashboarding -Livraison -Administration du service Power BI -Support et formation des utilisateurs aux dashboards Nous cherchons quelqu'un d'organisé, rigoureux, logique et doté d'un bon sens de communication (écoute et restitution) pour intégrer le pôle BI de 4 personnes. Votre travail consistera à : -Concevoir et développer les rapports attendus sur Power BI -Intégrer de nouvelles données dans notre entrepôt de données -Concevoir et développer des bases de données agrégées -Récupérer les nouveaux besoins -Intégrer ces données -Suivre les tâches dans Jira -Assurer le support sur les dashboards et répondre aux interrogations des utilisateurs Les rapports sont des dashboards à destination des équipes supports informatique : -Cycle de vie des incidents -Flux d'incidents entre les différentes équipes -Source de données : ITSM, Service Now
Job Vacancy
Data Engineer – Elastic Stack Expert
Published on
Apache Kafka
ELK
Integration
1 year
Ile-de-France, France
Hybrid
Nous recherchons pour notre client Grand-Compte un Ingénieur Data , Expert ELK pour: accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données L’objectif est de passer d’une logique très outillée/infrastructure à une approche orientée usages data & métiers . Refonte complète de l’offre logs existante (tous types de logs : applicatifs, systèmes, réseau, sécurité) Forte volumétrie et enjeux de standardisation, qualité et exploitabilité de la donnée Missions Concevoir et mettre en œuvre les chaînes de collecte et d’ingestion des logs Implémenter et industrialiser les cas d’usage observabilité pour les équipes opérationnelles Accompagner les équipes métiers et techniques dans l’exploitation des logs Développer des dashboards et visualisations avancées (Kibana, évolution possible vers Grafana) Intervenir sur l’ensemble du cycle data : collecte → transformation → stockage → restitution Participer à l’évolution de l’offre groupe et à la structuration des bonnes pratiques Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source)
Job Vacancy
Consultant data MDM F/H
Published on
45k-50k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
Hybrid
CONTEXTE Dans un monde où l'innovation est un levier de performance, la transformation numérique ne se limite plus à l'adoption de nouvelles technologies. Elle repose sur des stratégies audacieuses, un accompagnement humain adapté, et une capacité à anticiper les enjeux à venir. Chez Coexya Consulting, nous considérons que les femmes et les hommes sont au coeur de la réussite des projets de transformation. Pour renforcer notre équipe, nous recherchons une personne expérimentée pour un poste de consultant Data MDM F/H. CE QUE L'ON VOUS PROPOSE En lien avec le responsable opérationnel de la practice Data Strategy et notamment de l'offre MDM, vos missions sont les suivantes : - Contribuer au développement de l'offre Data MDM : participation à la structuration de notre démarche, production de contenus méthodologiques, diffusion de bonnes pratiques, veille. - Intervenir, en particulier sur les aspects fonctionnels et technologiques, sur les phases clés associées à la construction d'un projet MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation. - Mener les ateliers de cadrage puis la définition des modèles de données et des processus de gestion des données référentielles. - Concevoir et préconiser les solutions technologiques répondant aux besoins par un benchmark des solutions du marché. - Echanger avec les équipes techniques. - Identifier les opportunités de missions et de besoins chez vos clients. - Participer aux avant-ventes : rédaction d'offres, soutenances orales, valorisation de notre savoir-faire.
Contractor job
Data analyst
Published on
SQL
12 months
400-500 €
Paris, France
Hybrid
Cherry pick est à la recherche d'un Data analyst pour l'un de ses clients dans le secteur de l'énergie. 🎯 Objectifs de la mission Travailler en collaboration directe avec le Data Lead TGP , les BPO , les Data Domain Owners et les équipes achats afin de : Développer et maintenir le backlog des cas d’usage Data Quality . Paramétrer l’outil Tale of Data pour identifier les anomalies, rapprocher les données provenant de différents systèmes achats et produire les outputs attendus. Suivre et améliorer en continu le niveau de qualité des données à l’aide d’indicateurs fiables et automatisés. Accompagner les équipes dans la conduite et le pilotage des campagnes de nettoyage . Être force de proposition sur l’amélioration des processus, formats et traitements des données. 📌 Responsabilités & Livrables attendus 1. Gestion des cas d’usage Data Quality Identifier et co-construire les cas d’usage avec les BPO et Data Domain Owners. Maintenir et prioriser le backlog (nouveaux besoins, évolutions, corrections). 2. Paramétrage de l’outil Tale of Data Configurer les règles de contrôle qualité (contrôles automatiques, seuils, business rules). Réaliser les rapprochements de données entre les différents outils achats. Produire les livrables opérationnels : listes d’erreurs, fichiers de référentiels, exports de données, emails d’alertes automatiques. 3. Production de KPI Data Quality Définir et documenter les indicateurs de qualité par périmètre. Construire des dashboards permettant le suivi régulier de la qualité des données. 4. Support aux campagnes de nettoyage Préparation et communication des jeux de données à nettoyer. Suivi de l’avancement et relances auprès des équipes concernées. Consolidation des résultats et reporting. 5. Amélioration continue & Expertise Recommander des améliorations sur la structuration des données, les processus de traitement ou la gouvernance. Proposer des optimisations sur l’utilisation de l’outil Tale of Data.
Contractor job
DATA DESIGNER H/F/NB
Published on
Agile Scrum
Governance
Modelling
120 days
400-500 €
Maisons-Alfort, Ile-de-France
Hybrid
Un acteur majeur de l'écosystème français recherche son futur Data Designer pour rejoindre une équipe d'experts passionnés par l'innovation et la transformation digitale. Rejoignez le Shared Service Data Office et devenez l'architecte de demain ! Vous interviendrez comme System Architect au cœur des trains SAFe, collaborant avec des architectes technique et fonctionnel pour façonner l'avenir data de l'organisation. 🎨 Vos Créations : ✨ Architecte de l'impossible - Participez à la construction d'une architecture Datacentric révolutionnaire 🧠 Sculpteur de données - Enrichissez et modélisez le patrimoine informationnel de l'entreprise 🔮 Créateur d'ontologies - Définissez les langages de demain pour structurer la connaissance ⚡ Facilitateur agile - Accompagnez les équipes dans la création de solutions innovantes
Job Vacancy
Ingénieur CVC Data Center Senior
Published on
AutoCAD
Revit
6 months
Paris, France
Résumé du poste · Concevoir et piloter les études CVC (cold room, salles IT, locaux techniques) pour des data centers, en intégrant les exigences de disponibilité, d’efficacité énergétique (PUE) et de maintenabilité. · Assurer l’interface technique avec les équipes MOE/MOA, exploitants, entreprises CVC, et contribuer aux phases d’essais/commissioning. Missions principales · Réaliser/valider les études de dimensionnement (charges thermiques, bilans, sélection équipements : chillers, dry coolers, CRAH/CRAC, CTA, free-cooling, réseaux hydrauliques). · Définir les architectures de redondance (N, N+1, 2N selon lot) et les modes dégradés, en cohérence avec les standards client et contraintes d’exploitation. · Produire ou vérifier les pièces techniques : CCTP, notes de calcul, plans/schémas, listes équipements, interfaces (MEP). · Participer aux revues de conception (APS/APD/PRO), aux consultations et à l’analyse des offres entreprises. · Suivre l’exécution sur site : visas, points techniques, FAT/SAT, mise au point, recettes et levées de réserves. · Contribuer à l’amélioration continue (standardisation, REX, bibliothèques techniques, checklists). Livrables attendus · Notes de calcul et hypothèses (charges, dimensionnements, pertes de charge). · Schémas de principe, P&ID, listes équipements/instruments, synoptiques. · CCTP / DCE, analyse technique des offres. · Plans de tests/commissioning (en support), rapports de mise en service et REX.
Job Vacancy
Architecte Data & IA H/F
Published on
75k-90k €
Nantes, Pays de la Loire
Hybrid
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : g2fqzc6m6z
Job Vacancy
Coordinateur de Programme IA H/F
Published on
AI
Cloud
Copilot
1 year
Monaco
Hybrid
ASTERIA recherche, pour l’un de ses Clients basé sur Monaco, un Coordinateur de Programme IA H/F. VOTRE MISSION : Notre Client recherche un Coordinateur de Programme IA H/F. L’objectif est de renforcer la compétitivité, favoriser l’innovation et soutenir l’adoption de technologies clés, notamment l’Intelligence Artificielle (IA). La nécessité d’un Coordinateur H/F dédié s’inscrit dans un objectif de structuration et de pilotage stratégique et opérationnel des initiatives en intelligence artificielle, tout en intégrant l’ensemble des autres thématiques de la transformation numérique, afin d’accompagner efficacement et de mesurer l’impact global du Programme. Le Coordinateur de Programme IA H/F est chargé de mettre en œuvre la stratégie IA du Programme appelé EME, d’accompagner, d’animer l’écosystème IA local et d’assurer le suivi, l’évaluation et le reporting des actions menées. Il interviendra sous l’autorité du Responsable du pôle appelé CEN et en lien étroit avec les directions concernées, les partenaires, les experts externes et les entreprises bénéficiaires. Missions principales : Définition et mise en œuvre de la stratégie IA : Contribuer à la définition de la stratégie IA Décliner cette stratégie en un plan d’actions opérationnel incluant objectifs, indicateurs de performance et budget Piloter et coordonner les initiatives IA, en assurer le suivi, l’ajustement et la performance au regard des résultats obtenus Accompagnement : Assurer des permanences pour accompagner les entreprises et les salariés sur les usages de l’IA en entreprise (diagnostic, audit, conseil, choix des outils, déploiement, bonnes pratiques) Développer, structurer et déployer des actions de sensibilisation et de formation autour des thématiques IA Créer, maintenir et enrichir une base documentaire, des guides pratiques et des retours d’expérience facilitant l’adoption de l’IA par les entreprises Produire des supports de formation dédiés à l’acculturation du sujet IA auprès des agents concernés Animation de l’écosystème : Fédérer et coordonner les acteurs de l’écosystème IA monégasque (entreprises, institutions, experts, chercheurs, fournisseurs) Organiser des événements (conférences, ateliers, rencontres professionnelles) visant à promouvoir l’IA et à favoriser les échanges Identifier et mobiliser les partenaires potentiels (financeurs, fournisseurs de solutions, etc.) Suivi et évaluation : Mettre en place un système de suivi des indicateurs de performance du programme Évaluer l'impact des initiatives sur le développement et la compétitivité des entreprises Réaliser des études et des analyses pour identifier les bonnes pratiques et les axes d'amélioration Rendre compte régulièrement de l'avancement du programme au responsable du pôle CEN et aux instances de gouvernance Suivi des indicateurs de Performance : Nombre d'entreprises accompagnées dans leur transition vers l'IA Nombre d'événements organisés pour promouvoir l'IA Satisfaction des entreprises bénéficiaires des actions du programme Progression des indicateurs de compétitivité Visibilité et notoriété du programme EME Veille stratégique et technologique : Assurer une veille continue sur les évolutions technologiques de l’IA (modèles, outils, IA agentique, automatisation, cybersécurité, E-commerce, etc.), les usages en entreprise, les tendances du marché et les réglementations en vigueur Produire des notes de veille, alertes, synthèses et recommandations stratégiques Intégrer les résultats de la veille dans les orientations du programme et les actions de formation Le Coordinateur de Programme IA H/F sera également amené à concevoir, développer et déployer des outils pédagogiques destinés à être utilisés au sein de la fonction publique, dans le cadre du programme de formation interne, en lien avec les services concernés.
Contractor job
Business analyst data / BI- N
Published on
Business Analysis
SAS
SQL
18 months
100-350 €
Nantes, Pays de la Loire
Hybrid
CONTEXTE Expérience: 1 ans et plus Métiers Fonctions : Conseil métier, AMOA, Business Analyst Spécialités technologiques : BI, Reporting, API objectif : offrir une vue consolidée et fiable des données pour tous les métiers et accompagner le SELF BI. · Sortie de SAS vers Power BI pour le moment une prochaine étape se fera probablement vers des outils snowflake · Modernisation des outils MISSIONS 1. Analyse métier et besoins - Recueillir et formaliser les besoins des métiers - Traduire les demandes en spécifications fonctionnelles claires - Garantir la cohérence des données (identifiants et des champs) 2. Consolidation et qualité des données - Superviser la consolidation des données provenant de plusieurs sources (Nantes, Inde). - Contribuer à l’amélioration de la qualité des données et à la définition des standards. 3. Conception et restitution - Définir des vues métiers adaptées (extractions, dashboards). - Mettre en place des solutions de reporting via Power BI et outils analytiques. 4. Accompagnement de la transformation - Promouvoir le self Bi auprès des équipes métier : l’accès direct et autonome - Participer à la phase de transformation vers un modèle Data Next. - Sensibiliser les métiers à l’usage des outils et à la gouvernance des données. Expertise souhaitée Technique : - Bonne connaissance des datawarehouses, modèles de données, requêtes SQL, SAS. - Maîtrise des outils de BI (Power BI). Profil recherché · Expérience confirmée en Business Analysis orientée data. · Sensibilité technique + compréhension des enjeux utilisateurs. · Capacité à travailler dans un environnement international (Inde, France, Italie). Soft skills : · Communication claire avec les métiers et les équipes techniques. · Sens de la qualité et de la cohérence des données. · Proactivité : crée un lien fort avec les métiers afin d’accompagner la transformation vers le SELFBI
Job Vacancy
Data Engineer - SPARK/SCALA
Published on
Apache Airflow
Apache Spark
PySpark
12 months
40k-48k €
400-470 €
Montreuil, Ile-de-France
Hybrid
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Contractor job
Concepteur Développeur IBM DataStage
Published on
BI
Data governance
ETL (Extract-transform-load)
12 months
500-550 €
Ile-de-France, France
Hybrid
Contexte Dans le cadre d’un projet décisionnel au sein du secteur bancaire , le Concepteur Développeur IBM DataStage intervient sur l’alimentation des bases DRE et Datamart . Il participe à la conception, au développement et à la maintenance des flux ETL, et accompagne les équipes BI dans l’écriture et l’optimisation des scripts SQL. 📍 Lieu de mission : Joinville-le-Pont Intitulé du poste Concepteur Développeur ETL IBM DataStage Missions principales Concevoir, développer et maintenir les traitements ETL sous IBM DataStage Alimenter les bases de données décisionnelles ( DRE et Datamart ) Analyser les besoins métiers et techniques liés à l’alimentation des données Optimiser les flux de données (performances, volumétrie, qualité) Rédiger et maintenir la documentation technique Accompagner les développeurs BI dans : l’écriture et l’optimisation des scripts SQL la compréhension des modèles de données Participer aux phases de tests, recettes et mises en production Gérer les incidents et assurer le support sur les chaînes d’alimentation Environnement technique ETL : IBM DataStage Bases de données : Oracle / DB2 / SQL Server Langages : SQL avancé Décisionnel / BI : Datamart, DRE Systèmes : Unix / Linux Outils : ordonnanceur, outils de supervision, versioning Compétences requises Techniques Maîtrise confirmée de IBM DataStage Très bonnes compétences en SQL (requêtes complexes, optimisation) Connaissance des architectures décisionnelles Compréhension des flux ETL/ELT Sensibilité aux problématiques de performance et de volumétrie Fonctionnelles Compréhension des enjeux data et BI en environnement bancaire Capacité à traduire un besoin métier en solution technique
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- Taxes and rules invoicing an American company from UK
- Key Topics and Preparation Strategies for the Salesforce Data Architect Certification
- Advice on starting up as a freelance
- What are the main phases of Game Development?
- most effective way to design responsive web pages ?
- How do you choose a good app development agency
Jobs by city
Jobs by country
1212 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k