L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 875 résultats.
Mission freelance
Senior Finance IT Business Analyst & SAS Developer
STHREE SAS
Publiée le
6 mois
75001, Paris, Île-de-France
**Senior Finance IT Business Analyst & SAS Developer (SAS Finance Core - Asset Management)** 📍 Paris ou Bruxelles ou Luxembourg | 🏢 Hybride (le profil peut être basé sur une des ces 3 villes, le client ayant des sites sur place) ⏳ Mission longue (6 à 10 mois renouvelables) Nous recherchons un profil senior hybride Finance / IT pour intervenir sur des outils Finance cœur de l'organisation , dans un environnement Asset Management exigeant. 🎯 Contexte La mission s'inscrit dans un double cadre : Support Business As Usual (BAU) des équipes Finance Contribution à des projets structurants Finance (Target Operating Model, évolutions d'outils) Les systèmes Finance sont basés sur SAS Financial Management et SAS Cost & Profitability Management , utilisés pour les clôtures, calculs de coûts, rentabilité et reporting Finance . ⚠️ Clarification essentielle - merci de lire avant de postuler Dans cette mission, SAS est un système Finance cœur . Ce poste ne concerne PAS la Data Science, la BI, le reporting visuel (Power BI, Tableau, etc.) ni le développement SAS générique. Il ne s'agit pas non plus d'un rôle de Business Analyst purement fonctionnel. 🧩 Responsabilités Support opérationnel des équipes Finance sur les environnements SAS Finance Analyse des processus Finance / Comptabilité et recommandations d'optimisation Recueil des besoins métiers et rédaction de spécifications fonctionnelles et techniques Participation aux phases de design, tests, déploiement et conduite du changement Rôle de point de contact Finance IT au quotidien ✅ Profil recherché Expérience confirmée en Finance / Comptabilité dans l' Asset Management Maîtrise des processus : GL, AP/AR, clôtures, reporting, budget & forecast, coûts, procurement Solide expérience SAS Finance (macros, templates, outils FM / CPM) Expérience sur des projets IT Finance (ERP, comptabilité, reporting Finance) Compréhension des cycles projets ( Agile , Azure DevOps apprécié) Forte autonomie, séniorité, capacité à challenger le métier et l'IT 🌍 Langues Français et Anglais professionnels 🎯 Les profils Data Analyst, BI, Data Scientist ou BA non techniques ne correspondent pas à cette mission.
Mission freelance
Master Data SAP Junior (H/F)
Freelance.com
Publiée le
Master Data Management (MDM)
Microsoft Excel
SAP MM
3 mois
100-350 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Mission freelance | Démarrage ASAP | 3 à 6 mois renouvelable Localisation : Aix-en-Provence (hybride / télétravail possible) 1. Description du poste Dans le cadre d’un projet de recodification massive du référentiel articles dans SAP , nous recherchons un consultant freelance Master Data SAP Junior afin de renforcer l’équipe en charge de la mise à jour et de la qualité des données. La mission a pour objectif de participer à la mise à jour, à la fiabilisation et à la recodification du référentiel articles SAP , afin d’améliorer la qualité et la cohérence des données. Missions principales Création, modification et mise à jour des fiches articles dans SAP Application des règles de recodification définies par l’équipe Master Data Réalisation d’opérations massives de mise à jour de données Vérification de la qualité et de la cohérence des données Contrôle des informations issues des fichiers de migration ou d’inventaire Participation aux tests de cohérence et à la validation des données Documentation des anomalies et incohérences détectées Suivi des opérations dans les outils de pilotage Coordination avec les équipes : Supply Chain IT / SAP Référents Master Data Livrables attendus Mise à jour du référentiel articles selon les règles définies Contrôle qualité et fiabilisation des données
Mission freelance
Consultant décisionnel BI
Codezys
Publiée le
Git
Informatica
Java
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet vise à fournir aux utilisateurs des fonctionnalités de reporting et d’analyse de données, afin de consolider et restituer de manière fiable l’ensemble des données issues de CCMA. L’équipe dédiée est composée d’une dizaine de collaborateurs, incluant un chef de projet / Scrum Master, un Product Owner (Business Analyst), des développeurs BI, des experts DevOps, et un Lead Technique. Cette application existe depuis plus de six ans, dont les deux dernières années ont été consacrées à des travaux techniques de refonte. Nous souhaitons réaliser une reconfiguration de nos dashboards dans le but d’améliorer l’application. Il sera nécessaire de partir de l’état actuel, de le challenger en collaboration avec les représentants des utilisateurs, et de proposer des évolutions afin de mieux répondre à leurs besoins. Objectifs et livrables Le consultant spécialisé en décisionnel BI interviendra selon trois axes principaux : Analyser les besoins fonctionnels et techniques pour concevoir une architecture de données pertinente et performante. Modéliser et enrichir les datawarehouses et datamarts. Produire des rapports destinés aux métiers, tout en assurant leur accompagnement ou leur formation pour une exploitation optimale. Il pourra également mobiliser, si nécessaire, les référents techniques liés aux différentes composantes du système, notamment lorsque celles-ci s’éloignent d’un cadre BI classique (par exemple, clusters Big Data, bases NoSQL, absence d’ETL pour l’intégration des données, etc.). Ce professionnel doit faire preuve de qualités essentielles pour mener à bien ses missions : Autonomie, rigueur et capacité à proposer des solutions innovantes Capacité d’adaptation et esprit d’équipe Forte aptitude à l’analyse et à la synthèse Il se spécialise dans la datavisualisation, notamment la création, l’amélioration, et le finement des dashboards, tout en étant à l’écoute des métiers pour affiner leurs besoins. Une expérience d’au moins cinq années dans un rôle similaire est exigée. La maîtrise de Tableau serait un atout supplémentaire. Activité principale : Analyser les besoins fonctionnels et techniques Identifier les données de production pertinentes pour répondre à ces besoins Développer les processus d’intégration des données Modéliser et enrichir les datawarehouses et datamarts Produire des rapports ou tableaux de bord clairs, compréhensibles par les utilisateurs et répondant à leurs attentes Vérifier la qualité et la performance de ses livrables Participer aux activités et cérémonies agiles de l’équipe de développement Activité secondaire : Mettre à jour la documentation applicative
Offre d'emploi
Data Engineer - SPARK/SCALA/DATABRICKS
UCASE CONSULTING
Publiée le
Apache Spark
Azure
Databricks
1 an
40k-66k €
400-600 €
Île-de-France, France
📢 Data Engineer Scala Spark – Environnement Cloud (H/F) 🧩 Contexte Dans le cadre du renforcement d’une équipe Data, nous recherchons un(e) Data Engineer expérimenté(e) afin d’intervenir sur des sujets à forte volumétrie, autour de pipelines de données complexes et d’optimisation des traitements. Vous évoluerez dans un environnement technique exigeant, avec des enjeux de performance, scalabilité et qualité de la donnée. 🚀 Missions principales Développement de pipelines data en Scala / Spark (batch principalement) Optimisation des traitements et gestion de volumétries importantes Mise en place et amélioration des bonnes pratiques de développement Participation à l’architecture et aux choix techniques Collaboration avec les équipes métiers et techniques Contribution au mentoring et partage de connaissances 🧰 Stack technique Scala / Spark Maven Environnement Cloud (AWS ou Azure) Databricks (selon contexte) API HTTP Stack ELK (optionnel) ✅ Must have Solide expérience en Scala / Spark (batch) Maîtrise des optimisations Spark Expérience sur fortes volumétries de données Bonnes pratiques de développement (clean code, build, versioning) Expérience en environnement Cloud (AWS ou Azure) Minimum 5 ans d’expérience en Data Engineering ➕ Nice to have Expérience avec Databricks Développement d’ API HTTP Connaissance de la stack ELK Expérience en environnement multi-projets 🤝 Soft skills Esprit d’analyse et rigueur Autonomie et force de proposition Bon relationnel et esprit d’équipe Capacité à comprendre les enjeux métiers Sens des priorités et gestion des délais 🎓 Profil Formation Bac+3 à Bac+5 en informatique Anglais technique requis 8 ans d'expériences MINIMUM ! 📍 Modalités Télétravail partiel (jusqu’à 3 jours / semaine) Mission longue Démarrage : ASAP
Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS
VISIAN
Publiée le
Apache Airflow
API
AWS Cloud
3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Offre d'emploi
Data Engineer
VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop
1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Mission freelance
Data Platform Engineer (Hadoop CDP/HDP, Spark, Airflow, Kubernetes) - IDF
ISUPPLIER
Publiée le
Apache
Hortonworks Data Platform (HDP)
Kubernetes
1 an
450-650 €
Île-de-France, France
Objectifs de la mission Le bénéficiaire souhaite une prestation d’accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters, Prestations demandées Les missions sont: Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Mission freelance
Analyste AS400
Mindquest
Publiée le
AS400
RPG (Report Program Generator)
1 an
400 €
France
Ils recherchent un analyste plus que simple développeur, avec une casquette de chef de projet Il faudra faire de la gestion de plusieurs projets simultanément Encadrement de 3 à 4 développeurs, une expérience similaire est fortement appréciée. Discussion et coordination avec le project manager Réalisation des analyses fonctionnelles et techniques Développement sur RPG, ARCAD, RDI, FREE , API et webservices Adoption et utilisation des technologies IA
Offre d'emploi
Chef de Projet Data (H/F)
OBJECTWARE
Publiée le
Data analysis
3 ans
40k-70k €
400-550 €
Île-de-France, France
🎯 Missions🔹 Pilotage projet Cadrer les besoins métiers en lien avec les parties prenantes (Data, IT, Métiers) Définir la roadmap projet et piloter les plannings (budget, délais, risques) Animer les comités projets (COPIL, COMEX, ateliers métiers) Suivre l’avancement des projets et assurer le reporting 🔹 Coordination Data / IT / Métiers Faire le lien entre équipes techniques (Data Engineers, Architectes, BI) et métiers Garantir la bonne compréhension des besoins fonctionnels Superviser les phases de développement, recette et mise en production 🔹 Data & Gouvernance Participer à la mise en place de référentiels de données (Data Catalog, Data Quality…) Contribuer aux sujets de gouvernance (RGPD, qualité des données, lineage) Accompagner les métiers dans l’exploitation et la valorisation des données 🔹 Delivery & Qualité Piloter les phases de recette (UAT) Garantir la qualité des livrables et leur adéquation aux besoins Assurer la conduite du changement auprès des utilisateurs
Mission freelance
Data engineer
CAT-AMANIA
Publiée le
Informatica PowerCenter
SAP BI
SQL
6 mois
400-450 €
Toulouse, Occitanie
Nous recherchons un Data Engineer expérimenté / Tech Lead disposant de solides compétences en SQL, ETL et outils de reporting . Vous interviendrez sur un domaine en charge du chargement, de la transformation et de la fiabilisation des données . Vos missions principales : Participer aux projets en cours et à venir (corrections, évolutions, nouvelles fonctionnalités) Concevoir, développer et optimiser les flux ETL Développer et maintenir les requêtes SQL complexes Contribuer à l’amélioration continue de l’architecture data Assurer la qualité, la performance et la cohérence des données Collaborer étroitement avec une équipe de 8 personnes Le poste s’inscrit dans une logique long terme , avec de réelles perspectives si les compétences techniques et l’intégration à l’équipe sont au rendez-vous. Anglais obligatoire (contexte international).
Offre d'emploi
Développeur Java/Data confirmé
VISIAN
Publiée le
Java
Mongodb
1 an
40k-45k €
290-410 €
Paris, France
Descriptif du poste Un groupe bancaire la création d'un service de reporting transverse pour sa division Monétique. Ce service est un asset important de la stratégie de la Monétique du groupe et doit permettre de fédérer et centraliser l'ensemble des reporting de type fichier, actuellement produits par différents systèmes et de les mettre à disposition sous différentes formes, via différents canaux. C'est dans ce contexte que les équipes IT recherchent un développeur Java/Data confirmé, qui saura participer au développement et à l'implémentation de ce service de Reporting, qui devra assurer le traitement de gros volumes de données pour générer des reporting de manière fiable et résiliente. La mission consistera à intégrer l'équipe agile en place pour participer à l'implémentation des reportings clients et des services associés avec le tech lead et ses coéquipiers, en collaboration avec les équipes du Socle Data de la monétique, mais aussi celles du portail client. Environnement technologique Évolution dans un environnement technologique récent : Java, API REST, PostgreSQL, ExaCC, Kafka, Cloud (Docker, Kubernetes), GitLab, etc.
Mission freelance
Data Engineer (H/F)
Trust IT
Publiée le
Bash
Cloudera
DevOps
1 an
450-510 €
Charenton-le-Pont, Île-de-France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons pour notre client, un Data Engineer (H/F) Contexte : Des tâches quotidiennes liées au maintien de la production en condition opérationnelle. Vos interlocuteurs privilégiés seront les équipes de production applicative, les équipes infrastructures, les plateformes internationales, mais également les équipes métiers pour lesquelles vous apporterez votre support et votre expertise technique. Missions : Conception et mise en œuvre de l'ingestion et du stockage de données : Identifier et formaliser les besoins des métiers en matière de collecte et de stockage de données. Développer des solutions d'acquisition de données via API. Concevoir et implémenter des architectures de stockage de données robustes (Ex: Ozone, Hadoop, Druid, Clickhouse…). Valider la qualité des développements par des tests unitaires et d'intégration. Automatiser les traitements de données via la mise en place et la maintenance de batch. Valorisation et sécurisation des données : Industrialiser les processus de nettoyage et de transformation des données. Gérer et documenter des bases de données hétérogènes, en intégrant diverses sources de données. Veiller à la conformité RGPD dans la gestion du cycle de vie des données. Superviser l'exploitation et assurer la maintenance corrective et évolutive des systèmes de données. Intégration et suivi des modèles prédictifs : Industrialiser le déploiement de modèles statistiques et de machine learning. Mettre en place des dispositifs de validation et de monitoring des modèles. Assurer le suivi opérationnel et la maintenance des modèles intégrés aux applications. Contribution au pilotage projet : Définir les spécifications techniques précises en appui de l'analyse des besoins. Environnement technique : Les composants basés sur le logiciel de l’éditeur Cloudera CDP 7.1 :Hbase, Hive, Kafka, Solr, Knox, Spark,Ranger, Zookeeper, Kerberos LDAP... •Être force de proposition sur les évolutions techniques du périmètre Data avec la nouvelle offre containérisée : Cloudera Data Services (Infra Openshift K8s) •Contribuer à l'élaboration et à l'exécution des stratégies de migration des clusters Hadoop Cloudera. •Aisance avec l’écosystème Apache (Outils OpenSource),Build (Java, Maven, Gradle...), Automatisation avec Ansible •Connaissance Trino/Starburst, AirFlow, Flink •Participer à la résolution de problèmes complexes sur les plateformes Data (Capacité d’analysedes incidents applicatif de type Hive, Yarn, Spark...) •Apporter un support quotidien aux équipes applicatives et métiers dans leurs études de cas d’usage, leurs problématiques de développement ou de montée en charge. •Le poste est soumis à astreintes et interventions hors périodes ouvrées par rotation .Couverture horaire de l’équipe : 8h/19h
Mission freelance
[FBO] Product Owner Data sur des données RH - Saint Denis - 1419
ISUPPLIER
Publiée le
9 mois
300-430 €
Saint-Denis, Île-de-France
Contexte de la mission Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP •
Mission freelance
Développeur AS 400 (F/H)
ODHCOM - FREELANCEREPUBLIK
Publiée le
AS/400
RPG (Report Program Generator)
12 mois
400-480 €
Nice, Provence-Alpes-Côte d'Azur
Notre client cherche à renforcer ses équipes de développement IBM I. Intégré à l'équipe du client, vous assurerez la maintenance évolutive et corrective des applications en place et participerez aux nouveaux projets de développement. Lors de la phase d’études, vous participerez à la conception technique répondant au cahier des charges. Une fois le projet validé, vous créerez, en collaboration avec le chef de projet Technique, les spécifications technico-fonctionnelles détaillées, puis vous développerez et effectuerez les tests unitaires. Vous participerez également aux maintenances correctives et évolutives nécessaires. Principales missions : • Analyse des besoins et participation aux phases d’étude • Proposition de solutions techniques pertinentes • Rédaction des spécifications technico‑fonctionnelles • Développements RPG et maintenances applicatives • Réalisation des tests unitaires • Contribution à l’amélioration continue des applications
Mission freelance
Consultant Senior – Data Migration SAP / Talend (H/F)
KN CONSULTING
Publiée le
Legacy System Migration Workbench (LSMW)
SAP MM
SAP PP
6 mois
400-700 €
Corbeil, Grand Est
Contexte mission Dans un environnement industriel critique, nous recherchons un consultant senior pour intervenir sur une migration de données complexe en difficulté . Le projet nécessite une forte capacité de structuration, de remise à plat et de sécurisation des flux de données. Missions Mise en œuvre de flux de migration via Talend (ETL) Mapping, transformation et réconciliation de données Contrôle des écarts et data quality Mise en place de protocoles de migration Contribution à une approche structurée de type migration factory
Offre d'emploi
Data Analyst
CAT-AMANIA
Publiée le
Business Object
Qlik Sense
40k-61k €
Maisons-Alfort, Île-de-France
Element de contexte et organisation : Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme, piloté par le Chief Data Officer (CDO) et sous sponsoring de la Direction Générale, comporte plusieurs objectifs, dont celui de la mise en place de la plateforme Data & IA, qui a vocation à devenir le cœur du SI. En parallèle, le chantier de transformation Cloud en cours induit d’importantes adhérences avec les travaux d’industrialisation de la plateforme Data & IA. L'organisation projet est réalisée avec SAFE. Objectif poursuivi pour cette mission : La mission porte sur la réalisation du socle Financement et contentieux dont il s'agira d'assurer un rôle de Data Analyst avec pour objectif de: - spécifier les besoins en terme de données Financement et Contentieux permettant de servir les usages bancaires des filières : -- Crédit Bail équipement, -- Crédit Immobilier, énergie & environnement, -- Court terme, -- Immatériel - modéliser les entités permettant de représenter les données des métiers du Financement et du Contentieux - spécifier les Data Product nécessaire pour couvrir : -- les besoins des filières (Reporting opérationnels, Agents opérationnels, suivi d'activité, reporting conventionnels,...) -- les besoins de l'équipe chargée d'exploiter le socle Financement et Contentieux (Reporting transverses, études de prospection, cross-selling, ...) - définir et contrôler la Qualité des données véhiculées au sein du socle - réaliser les recettes des données collectées Compétences métier souhaitables : Mission(s) réussie(s) dans le domaine Bancaire dans le cadre de reportings de Financement. Bonne connaissance des métiers bancaires (Crédit, crédit bail, court terme, ...) Très bonne connaissance des données bancaires du financement Forte appétence pour la donnée La connaissance de l'écosystème (notamment le Legacy) serait un plus Liste des technologies : Le comptoir de données est réalisé sur le Cloud AWS. Outil de restitution de la donnée : Business Objects, QlikSense Bon niveau en SQL
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3875 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois