L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 075 résultats.
Mission freelance
Expert WebMethods – Kafka / Streaming (H/F)
Publiée le
Apache Kafka
JIRA
JSON
1 an
400-580 €
Île-de-France, France
Télétravail partiel
La mission s’inscrit dans un programme de modernisation des échanges de données temps réel au sein d’une plateforme iPaaS / Digital PaaS destinée à des applications à forts volumes et à forte criticité métier dans le secteur de l’énergie . L’objectif est d’apporter une expertise senior webMethods couplée à une maîtrise des architectures événementielles et streaming , notamment autour de Kafka . Le consultant participera à la conception, à l’intégration et à l’optimisation de flux temps réel, depuis les phases amont jusqu’au maintien en condition opérationnelle . Il jouera un rôle clé dans la performance, la scalabilité et la fiabilité des solutions, tout en contribuant aux POC, à la documentation et au support de niveau 3.
Mission freelance
DATA PRODUCT OWNER INTERMODAL H/F
Publiée le
BI
Data governance
Data management
3 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un/une Data Product Owner – Intermodal H/F . Le rôle consiste à définir, construire et faire évoluer le data product Intermodal, destiné à devenir le datamart de référence pour l’ensemble des données opérationnelles et commerciales issues des systèmes clés (TOPS, Mercosul, nouveau TMS, LARA, etc.). Le Data Product Owner agit comme point focal Business pour toutes les problématiques liées à la donnée Intermodal, couvrant à la fois les données transactionnelles et les données de référence, et garantissant une vision unifiée, fiable et exploitable pour le pilotage de la performance et la prise de décision. Objectif et livrable: Définition et pilotage de la vision produit data et de la roadmap du datamart Intermodal. Backlog data priorisé (domaines de données, règles de transformation, qualité, usages BI). Documentation complète des flux de données , interfaces et dépendances inter-systèmes. Mise en place et maintien d’un data catalog et des définitions métier associées. Définition et suivi des règles de qualité de données et des KPI associés. Livraison incrémentale de tables, vues, métriques et indicateurs validés. Préparation et sécurisation des rollouts data (notamment nouveau TMS). Compétences attendues: Data Product Management : vision produit, roadmap, backlog, priorisation multi-stakeholders. Data Warehousing / Datamart : concepts dimensionnels (facts/dimensions), ETL/ELT, historisation, data lineage. Data Governance & Data Quality : catalogage, définitions, ownership, règles de qualité, monitoring. Analyse métier & BI : traduction des besoins business en exigences data, KPI, règles de calcul, niveaux d’agrégation. Compréhension des modèles de données et échanges avec équipes data/IT (SQL de base apprécié). Outils BI : Power BI, Tableau, Qlik ou équivalent. Connaissance des environnements transport / logistique / intermodal fortement appréciée.
Mission freelance
CONSULTANT AMOA COLLECTE SOLVENCY 2- DELIVERY PRUDENTIEL
Publiée le
Big Data
SAS
SQL
18 mois
100-500 €
Chartres, Centre-Val de Loire
Télétravail partiel
CONTEXTE : Dans le cadre du projet Solvency 2, dans l'équipe DELIVERY PRUDENTIEL, un besoin de renfort est nécessaire pour pouvoir répondre aux exigences réglementaires européennes. MISSIONS : assurer la collecte de données nécessaires au Projet Solva2 vis à vis des différents fournisseurs (SI de gestion / SI DATA) - Rédaction de spécifications générales afin d'implémenter les données demandées dans le cadre de la règlementation "Solvency 2" - Cadrage des validations - Exécution de cas de test pour valider les évolutions - Développer une proximité avec les métiers fournisseurs et consommateurs pour optimiser les travaux Solvabilité 2 Technologies requises : - Maîtrise du langage de requêtage SQL (Entrepôt de données avec base de données relationnelle Oracle) - Si possible une connaissance du logiciel SAS Guide
Offre premium
Mission freelance
Référent Data
Publiée le
Architecture
Data governance
3 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
1. Contexte Le Système d’Information regroupe près de 70 applications couvrant la recherche d’itinéraires, l’information voyageurs, la vente (digitale & physique), la billettique, les contrôles, le reporting et les interconnexions avec les partenaires de transport. Ce système est exploité dans un environnement complexe multi-acteurs avec des obligations contractuelles fortes vis-à-vis des instances publics. La gouvernance des données devient un enjeu clé pour garantir cohérence, sécurité, qualité de service et conformité réglementaire. 2. Rôle du Référent Data Ce poste opérationnel vise à structurer et piloter la stratégie Data , en mode RUN, en complément des développements BUILD. Il s’agit de définir les règles d’utilisation des données, d’assurer leur conformité, leur disponibilité, leur cohérence fonctionnelle, et de produire l’ensemble des reportings exigés. 3. Missions principales A. Gouvernance & Stratégie Data Définir une démarche Data Driven pour le RUN. Cadrer les besoins Data : brutes, personnelles, reporting, listings opérationnels. Être l’interlocuteur privilégié de la Région pour l’expression et la priorisation des besoins. Proposer les évolutions contractuelles nécessaires. Définir les guidelines Data : consommation, protection, nommage, droits d’accès. Évaluer l’évolution de l’architecture Data (MDM, outils, flux, organisation). B. Analyse et cadrage Réaliser le cadrage global : périmètre, responsabilités, planning, livrables. Lister et qualifier les cas d’usage Data. Construire la cartographie des données : thèmes, typologies métiers, systèmes, structures détaillées. Définir les processus de gestion de la donnée : cycle de vie, responsabilités, sécurité. Recenser les exigences légales et contractuelles (RGPD, archivage, purge, sécurité). C. Pilotage & Production Produire les documents de gouvernance Data : dictionnaires, cartographies, politiques. Établir les reportings contractuels et non contractuels, dont : Financier : prévisionnel, réalisé, écarts, dépenses par phase. Recettes : ventes par canal, recettes par gamme, reversements, régularisations. Maintenance : interventions, disponibilité, stock pièces, préventif/curatif. SI : disponibilité plateformes, temps de réponse, SLA, MTBF, intégration des données. Usagers : tickets CRC, satisfaction, fréquentation, usage titres. Distribution : CA & commissions par canal (Région et partenaires). D. Coordination Faire le lien entre : métiers, DSI, architectes SIBR, sous-traitants, et instances publics. Conduire et animer les ateliers Data. Garantir la cohérence et la fiabilité des flux data inter-outils et inter-équipes. E. Études de faisabilité pour nouveaux besoins Aider la Région à exprimer un besoin (et non une solution). Étudier impacts contractuels, sécurité, architecture, outillage et coûts. Proposer des arbitrages et une priorisation. 4. Compétences requises Techniques Gouvernance data (MDM, métadonnées, data lineage, qualité, sécurité). Connaissance des architectures data modernes (Cloud, API, flux). Capacité à structurer un dictionnaire de données et une cartographie. Compréhension des enjeux réglementaires (RGPD). Expérience des environnements complexes multi-SI. Fonctionnelles & personnelles Forte capacité de synthèse, communication et pédagogie. Orientation opérationnelle (« doer »). Capacité à anticiper les risques et sécuriser les engagements. Aisance dans les échanges institutionnels et le pilotage multi-parties. 5. Livrables attendus Note de cadrage Data Cartographie des sources et flux Dictionnaire des données Politique de cycle de vie, archivage et sécurité Plan de contrôle qualité Reporting financier, opérationnel, SI, marketing, maintenance, distribution Tableaux de bord contractuels Études de faisabilité détaillées pour les nouveaux besoins 6. Profil recherché +5 ans d’expérience en gouvernance Data ou architecture de données. Bac+5 en informatique ou équivalent. Expérience dans un contexte de création ou transformation d’un SI. Profil pragmatique, opérationnel et autonome. 7. Conditions de mission Lieu : Paris ou Marseille Déplacements ponctuels sur sites Durée : 6 à 12 mois minimum Temps plein
Mission freelance
Data Engineer Hadoop – Secteur Assurance
Publiée le
Big Data
Hadoop
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Offre d'emploi
Data Product Manager
Publiée le
Data management
1 an
40k-45k €
270-540 €
Paris, France
Télétravail partiel
Mission Overview La mission au sein du Data office a pour objectif d'accompagner la transformation autour de la démarche des Data products et des Vues organisées métiers pour exposer et consommer la data. Cette mission est là pour accélérer le déploiement des rôles autour de la Data du producteur au consommateur. Construction d'un Kit/book de déploiement des data products auprès des producteurs et consommateurs (méthodologie, documentation …) Animation de meetings de vulgarisation (Support & CR) Préparation et organisation d'un Meet Up d'acculturation (jalon mai 2026)
Mission freelance
Tech lead Data
Publiée le
API
Computer vision
IA Générative
12 mois
Saint-Denis, Île-de-France
Télétravail partiel
Client : Organisation de transport ferroviaire Poste : Responsable technique en Data Nombre de postes : 1 Expérience : > 7 ans Localisation : Commune de la banlieue parisienne Deadline réponse : 05/12/2025 Démarrage : 05/01/2026, mission d'un an Type de contrat : Salarié ou Freelance L’Ingénierie des équipements de l’organisation de transport a identifié de nombreuses zones d’usage des technologies d’intelligence artificielle pour son domaine d’activité. On peut notamment citer : La maintenance prédictive (séries temporelle et événementielles), L’aide à l’organisation de la maintenance (tri, priorisation et regroupement d’opérations, en gérant diverses contraintes d’exploitation), La vision artificielle pour le contrôle qualité ciblé, l’exploitation des véhicules… Mais aussi la gestion et l’utilisation de l’information, qui touchent l’aide aux techniciens (historique des pannes, préconisations de maintenance…) et encore plus les processus d’ingénierie : extraction d’information, comparaison, résumé, aide à la génération et à la transformation de documents. Missions : Au sein du département développement, le prestataire devra apporter une expertise en intelligence artificielle (IA) et en intégration de l’IA (IAG) pour répondre aux besoins de l’Ingénierie des équipements et de ses partenaires : Évaluation des solutions innovantes pour répondre à un cas d’usage précis : solutions open source ou propriétaires / disponibilité d’un ensemble de briques technologiques permettant de réaliser la fonction / développement spécifique nécessaire. Prototypage d’applications et briques applicatives simples, notamment pour l’accélération des processus documentaires (plus qu’un MVP, un prototype fonctionnel et au-delà). Aide à l’orientation stratégique pour le développement des capacités techniques en IA de l’Ingénierie. Il collaborera avec le responsable de la feuille de route IA, la communauté interne en intelligence artificielle, ainsi que divers chefs de projets.
Mission freelance
POT8758 - Un Tech Lead Kafka/Angular sur Paris Gare de Lyon
Publiée le
Angular
6 mois
110-320 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Tech Lead Kafka / Angular sur Paris Gare de Lyon. Projet : Maintenir une solution permettant de prioriser la liste des clients à contacter dans le cadre de la gestion de la relation client. Concevoir et développer des solutions pour les équipes et les Conseillers. Assurer l’assistance fonctionnelle auprès des utilisateurs. Principaux livrables : Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives Préparer la mise en production avec les équipes expertes Gérer et maintenir la documentation fonctionnelle et technique Assurer l’assistance à l’utilisation des applications Assurer le diagnostic et la résolution des dysfonctionnements Compétences requises : Kafka (kafka streams) Java 21 Kubernetes API REST Autres Compétences : Conception technique Conception archi Volontaire Bon relationnel
Mission freelance
Consultant Technique API & Event (REST / Kafka)
Publiée le
API
Apigee
Run
18 mois
100-350 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 2 ans et plus Métiers Fonctions : Etudes & Développement, Consultant technique Spécialités technologiques : API Contexte Dans le cadre des projets 2026 et du RUN de la plateforme API, notre client renforce son Centre d’Excellence API & Events (6 personnes : production & gouvernance). Objectifs de la mission : - Contribuer au BUILD et au RUN des APIs et Events - Accompagner la structuration et la montée en maturité du centre d’expertise APIs Répartition : - 50 % BUILD / 50 % RUN MISSIONS - Rédaction/écriture d’API (Swagger / OpenAPI) - Accompagnement des équipes techniques et métiers sur le design d’APIs - Conception technique des Events et APIs asynchrones (AsyncAPI) - Contribution à la gouvernance de la plateforme Kafka - Participation à la modélisation des objets métiers du SI : JSON / NoSQL (documents, dénormalisation) & SQL relationnel selon les cas d’usage - Documentation des APIs - Support aux équipes consommatrices Un Architecte d’Entreprise accompagne la mission pour les aspects métiers si nécessaire. Expertise souhaitée Profil recherché : - 2 à 3 ans d’expérience minimum - Forte orientation API & Event-driven Compétences clés : - Excellente maîtrise de Swagger / OpenAPI - Excellente maîtrise de Kafka : Expert – impératif - Une connaissance de APIGEE est un +
Mission freelance
Consultant RGPD (H/F)
Publiée le
Data management
RGPD
6 mois
400-500 €
Paris, France
Télétravail partiel
Contexte projet / client : Mission de renfort dans le cadre d’un remplacement au sein d’une organisation gérant des projets de conformité et de protection des données, avec un environnement réglementaire exigeant. Missions principales Assurer le suivi et la mise en conformité des processus liés à la gestion et à la protection des données. Participer aux analyses d’impact, évaluations de risques et contrôles internes associés. Contribuer à la rédaction et à la mise à jour de la documentation réglementaire. Collaborer avec les équipes internes pour garantir l’application des bonnes pratiques. Accompagner la continuité des activités pendant la phase de remplacement.
Mission freelance
Program Manager
Publiée le
Big Data
Cloud
Data management
1 an
Lille, Hauts-de-France
Télétravail partiel
Compétences techniques marketing - Expert - Impératif Product management - Expert - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Responsabilités Principales 1. Stratégie de Contenu et d'Audience Identification et Cartographie des Personas : En collaboration avec le Product et l’UX, aider à définir et documenter les différents clients/utilisateurs de la plateforme (Développeurs, Product Owners, Data Engineer, Leaders PTF et BU, etc.) et leurs besoins spécifiques en information (y compris en situation de crise). Audit et Structuration du Contenu Existant : Analyser les supports actuels et recommander une architecture de contenu logique et unifiée pour améliorer l'accessibilité et la clarté. Définition des Messages Clés : Traduire les fonctionnalités et les avantages de la plateforme en messages clairs, orientés bénéfices pour chaque persona. 2. Création et Gestion du Contenu Produit Production de Contenu Ciblé : Élaborer des supports structurés et didactiques pour l'adoption et la compréhension des produits et services de la plateforme. Cela inclut, sans s'y limiter : Fiches Produit/Service détaillées (pour les équipes Product Management). Guides d'Utilisation et tutoriels (pour les utilisateurs). Notes de version ( Release Notes ) et FAQ claires. Contenu pour l'onboarding des nouveaux services. Optimisation des Canaux de Contenu : Gérer et optimiser les plateformes et outils de partage de contenu pour s'assurer que le contenu arrive aux bonnes personnes au bon moment. Mesure de l'Impact : Suivre les indicateurs clés (fréquence de consultation, feedback utilisateur, taux d'adoption) pour évaluer l'efficacité des contenus et itérer. 3. Contribution à l'Amélioration de l'Expérience Utilisateur Boucle de Feedback : Mettre en place des mécanismes pour recueillir le feedback des personas sur le contenu et les services afin d'alimenter les équipes Product Management. Aide à la l’animation du collectif de nos utilisateurs. Appui aux Événements d'Engagement : Aider à structurer les sessions d'information (ateliers, showcases, démos) en s'assurant que le contenu présenté est pertinent et adapté à l'audience. 4. Alignement Coordination avec la Communication Groupe : S'assurer que le contenu produit est en accord avec la charte éditoriale et graphique du groupe (utilisation des logos, des templates, etc.) tout en restant focalisé sur le contenu technique et l'adoption produit de la plateforme. Compétences Requises : Compréhension Technique et Pédagogie : Capacité avérée à décortiquer des sujets complexes (Data, Cloud, API, développement) et à les simplifier. Capacité d'Analyse et de Synthétisation : Aisance pour identifier les besoins d'information d'une audience (persona) et structurer un contenu en conséquence. Maîtrise de la Rédaction et des Outils de Contenu : Excellent niveau rédactionnel (précision, concision). Connaissance des outils de documentation et de gestion de contenu.
Offre d'emploi
Expert Infrastructure Middleware – Transfert de Fichiers (Axway) – N4 (H/F)
Publiée le
Administration Windows
API
CFT (Cross File Transfer)
1 an
Paris, France
Contexte Dans le cadre du maintien en conditions opérationnelles et de l’exploitation de solutions de transfert sécurisé de fichiers , une équipe Infrastructure renforce son expertise Middleware. La mission s’inscrit dans un environnement Production / Exploitation , avec astreintes , et nécessite une forte capacité à gérer des contextes à enjeux élevés. Objectif global Administrer et assurer le MCO des solutions de transfert de fichiers , en garantissant la disponibilité, la sécurité et la fiabilité des plateformes. Missions principales Administrer et maintenir les solutions de transfert de fichiers : CFT, XFB Gateway, SecureTransport . Assurer le MCO des produits Axway (CFT Transfer, Gateway, SecureTransport, Sentinel). Intervenir en environnement de production : supervision, monitoring, gestion des incidents et des demandes. Planifier et piloter les changements (gestion des risques, communication, coordination). Rédiger la documentation technique, dossiers d’exploitation et procédures d’installation. Participer à la résolution d’incidents complexes à forte valeur ajoutée technique. Collaborer avec les équipes systèmes, réseaux et sécurité pour garantir la cohérence des infrastructures. Environnement & organisation Localisation : Paris Télétravail : 2 à 3 jours par semaine. Organisation : adaptée au profil du consultant (autonomie, motivation, capacité à absorber une charge importante, notamment durant les 6 premiers mois). Contexte : Exploitation, Production, Astreintes. Livrables attendus Dossiers d’exploitation et documentation technique. Procédures d’installation et de paramétrage. Contribution à la qualification et à la sécurisation des infrastructures Middleware.
Offre d'emploi
Expert Cybersécurité Cloud & Gen-IA (Azure / Microsoft)-(H/F)
Publiée le
Azure
DevSecOps
GenAI
1 an
Fontenay-sous-Bois, Île-de-France
Contexte Dans le cadre du déploiement de projets d’ Intelligence Artificielle Générative (Gen-IA) au sein d’un grand groupe bancaire international , la mission vise à renforcer la sécurité des implémentations IA sur les environnements Cloud Microsoft (Azure, Microsoft 365, Copilot). L’enjeu principal est d’accompagner les centres de compétences et les équipes métiers dans la sécurisation des usages Gen-IA, tout en maîtrisant les risques spécifiques liés aux LLM (Large Language Models) dans un contexte agile, cloud et international . Objectif de la mission Assurer la sécurisation de bout en bout des projets Gen-IA déployés sur les environnements Microsoft, en combinant cybersécurité cloud, DevSecOps et expertise IA , et en produisant une documentation sécurité complète et exploitable . Missions principales Accompagner les équipes projets et métiers dans la sécurisation des implémentations Gen-IA . Analyser et maîtriser les risques spécifiques aux LLM : Prompt injection Data leakage Model poisoning Concevoir et formaliser les architectures sécurisées IA sur Azure / Microsoft . Définir et produire les livrables sécurité : Dossiers de sécurité Analyses de risques Blueprints sécurité Mettre en œuvre des pratiques DevSecOps adaptées aux projets IA (pipelines CI/CD sécurisés). Intégrer les dispositifs de sécurité Cloud avec les outils SOC / SIEM . Garantir la conformité aux réglementations et normes cybersécurité internationales (RGPD, IA, cloud). Participer à la diffusion des bonnes pratiques de sécurité IA au sein des équipes. Compétences clés (impératives) Sécurité opérationnelle Cloud Azure Expertise DevSecOps Expérience sur architectures Gen-IA Maîtrise des risques propres aux LLM Environnements Microsoft 365 / Copilot Compétences importantes Sécurisation des pipelines CI/CD Documentation cybersécurité (dossiers, blueprints, analyses de risques) Intégration SIEM / SOC sur Cloud Réglementations internationales (RGPD, IA, Cloud) Bonnes pratiques de sécurité IA et Cloud Microsoft Normes de cybersécurité Cloud Capacité à gérer l’ambiguïté et l’incertitude Forte capacité rédactionnelle et analytique Approche agile orientée gestion des risques Compétences rares / expert Sécurité avancée Azure + Gen-IA DevSecOps appliqué aux projets IA Cloud Expertise approfondie sur les risques LLM Architecture sécurisée Azure / Microsoft pour l’IA Sécurisation avancée de Copilot / Microsoft 365
Offre d'emploi
Data Analyst (H/F)
Publiée le
Data analysis
Data science
30k-65k €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Votre mission En tant que Data Analyst (H/F) , vous jouerez un rôle clé dans la valorisation des données au service du métier. Vous serez responsable de l’analyse de grands volumes de données, de la production d’analyses et de reportings à forte valeur ajoutée, et de l’accompagnement des équipes métier dans l’optimisation de l’utilisation de leurs données, en lien avec les objectifs stratégiques de l’organisation. Vos responsabilités seront : Analyser de grands volumes de données afin de comprendre les enjeux métier et les besoins exprimés par les parties prenantes Traduire les besoins business en analyses de données pertinentes et exploitables Contribuer à la sélection, à l’implémentation et à l’amélioration des outils d’analyse et de reporting Produire des analyses stratégiques, des tableaux de bord et des reportings à destination du business Identifier des tendances, des anomalies et des opportunités à partir des données Présenter et vulgariser les résultats d’analyse auprès des parties prenantes métier Collaborer avec les équipes IT, data et métier afin d’assurer la qualité, la cohérence et la fiabilité des données Aider les équipes métier à mieux exploiter et optimiser l’usage de leurs données S’adapter à l’environnement spécifique et aux enjeux de nos clients
Mission freelance
Consultant DATA Gouvernance Senior
Publiée le
Data governance
1 an
Paris, France
Télétravail partiel
Intervention au sein d'un programme de transformation du SI Finance Corporate visant à fiabiliser, harmoniser et piloter les données financières (reporting, performance, réglementaire). Missions principales ➡️ Définir et déployer le cadre de gouvernance des données Finance (référentiels, règles de gestion, qualité des données). ➡️ Cartographier les flux de données financières et leurs usages (comptabilité, contrôle de gestion, reporting, réglementaire). ➡️ Mettre en place et animer les rôles Data Owner / Data Steward Finance. ➡️ Définir et suivre les indicateurs de qualité de données (complétude, cohérence, fiabilité). ➡️ Contribuer à la conduite du changement et à l'appropriation des bonnes pratiques data par les équipes Finance et IT. ➡️ Assurer l'alignement entre les besoins métiers Finance et les solutions SI (ERP, EPM, BI, Data Platform).
Offre d'emploi
Consultant Dataviz & Reporting – Power BI / Alteryx / SQL (H/F)
Publiée le
Microsoft Excel
PowerBI
SQL
1 an
31k-36k €
280-350 €
Paris, France
Contexte Dans le cadre d’un projet de migration de bases de données d’envergure au sein d’un grand groupe bancaire, la DSI Corporate renforce son équipe Dataviz & Reporting , rattachée à une direction Fast Delivery Solutions intervenant auprès de nombreux métiers. Cette mission s’inscrit dans un contexte de transformation du système d’information et de mise à jour d’un patrimoine existant de reportings. Objectif de la mission Assurer la migration des sources de données et l’évolution des reportings existants impactés par le changement de bases de données, tout en garantissant la qualité, la fiabilité et la continuité des restitutions à destination des métiers. Missions principales Migrer le sourcing de plusieurs reportings appartenant au patrimoine de l’équipe Dataviz & Reporting. Faire évoluer les applications Power BI impactées par la migration des bases de données. Exploiter différentes sources de données issues de systèmes décisionnels bancaires. Préparer, transformer et fiabiliser les données à l’aide des outils de data préparation. Produire des restitutions sous forme de fichiers Excel et de reportings Power BI . Travailler en interaction directe avec les métiers pour comprendre, challenger et formaliser les besoins. Environnement technique et fonctionnel Connaissance du SI des Caisses d’Épargne (pré-requis). ODS et/ou Décisionnel ( VECEP ). Outils de data préparation : WPS / Altair , SQL , Alteryx . Outils de restitution : Power BI , Excel . Compétences attendues Rigueur et fiabilité dans l’analyse et la manipulation des données. Capacité à challenger les besoins métiers. Bon relationnel et esprit d’équipe. Autonomie et sens de l’organisation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Quel logiciel de compta en ligne avez vous choisi et pourquoi ? Avec quel compte pro en ligne ?
- Passage sasu à eurl: transition mutuelle/prévoyance
- Meilleure banque pour compte pro
2075 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois