L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 001 résultats.
Offre d'emploi
Data Analyst Senior ( F/H) Nantes
Argain Consulting Innovation
Publiée le
Microstrategy
PowerBI
SQL
1 an
40k-45k €
500-550 €
Nantes, Pays de la Loire
🎯 Contexte Dans le cadre du renforcement des équipes Data d’un grand acteur du secteur bancaire, nous recherchons un(e) Data Analyst expérimenté(e) pour intervenir sur des problématiques de pilotage de la performance, marketing et parcours digitaux. 🚀 Mission Vous interviendrez en étroite collaboration avec les équipes métiers afin de : Recueillir et analyser les besoins métiers, les traduire en indicateurs de performance (KPI) Exploiter les données issues des systèmes décisionnels et marketing Produire et automatiser des reportings et tableaux de bord Concevoir des restitutions visuelles claires et orientées décision Accompagner les équipes dans l’interprétation des analyses Mettre à disposition et maintenir des KPI fiables et pertinents Participer à l’amélioration continue des pratiques Data 📈 Responsabilités clés Analyse et valorisation des données Définition et suivi des indicateurs business Contribution à la stratégie de pilotage et à la prise de décision 🛠️ Compétences techniques Outils de Data Visualisation : MicroStrategy (idéalement) ou Power BI / Tableau SQL avancé (expert) Manipulation de bases de données volumineuses (type Teradata ou équivalent) Bonne compréhension des environnements data et décisionnels 🤝 Compétences fonctionnelles & soft skills Très bonne communication et pédagogie Capacité à challenger les besoins métiers Esprit d’analyse et de synthèse Autonomie et rigueur Adaptabilité et sens de l’organisation ➕ Atouts Expérience dans le secteur bancaire ou financier Connaissance des problématiques marketing et digitales Connaissance d’outils de tracking (type Tag Management / Web Analytics) Mission longue durée, Nantes 3 jours de présence sur site par semaine obligatoire
Offre d'emploi
Architecte Data/Snowflake/Cloud/GenAI
OBJECTWARE
Publiée le
Cloud
GenAI
Snowflake
3 ans
40k-71k €
400-550 €
Île-de-France, France
CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Langages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Mission freelance
246239/100961/Product Owner DATA/IA Nantes
WorldWide People
Publiée le
Pilotage
6 mois
350-400 €
Nantes, Pays de la Loire
Product Owner Nous recherchons un profil Product Owner expérimenté. Product Owner en binôme/complémentarité avec un PO déjà en place sur la brique IA Gen (SG1) Activités principales attendues : Onboarding & adoption SG1, suivi satisfaction et améliorations orientées DX Cadrage & priorisation : formalisation des besoins, roadmap, arbitrages Quotas & gouvernance d’usage Déploiement/communication produit : guides, catalogue, notes de version, animation de la communauté Collaboration étroite avec le PO SG1 et les parties prenantes techniques/utilisateurs Objectifs et livrables Objectifs & enjeux de la mission : Product Owner en binôme/complémentarité avec un PO déjà en place sur la brique IA Gen (SG1) afin : Accroître la capacité de pilotage produit et accélérer l’adoption des services IA partagés au sein de la Plateforme DATA/IA Accompagner les équipes utilisatrices (prise en main, clarification des parcours d’usage, bonnes pratiques, support API) Définir/ajuster une gouvernance d’usage pragmatique, notamment les quotas par cas d’usage (volumétrie, criticité, performance) pour sécuriser la QoS et optimiser la consommation Préparer l’extension progressive de l’offre avec l’arrivée de nouveaux services partagés (OCR, Embedder, Speech2Text) : parcours, documentation, conditions d’accès, support, KPIs d’adoption. Compétences demandéesCompétences Niveau de compétence Pilotage Confirmé
Offre d'emploi
Ingénieur TEST MANAGER SAFE – Toulouse – H/F
Acpqualife
Publiée le
ISTQB
Java
Pilotage
3 ans
55k-62k €
450-500 €
Toulouse, Occitanie
Quel poste proposons-nous ? Dans le cadre de notre développement, nous recrutons un.e TEST MANAGER SAFE (H/F) pour renforcer nos équipes d’experts en Test et Qualification logiciel en région Toulousaine. Télétravail : 3 jours /semaine et 2 jours de présentiel – La mission nécessite d’être véhiculé – Notre QA manager travaillera dans un contexte Safe avec des PI décomposés en 5 sprints de 3 semaines. Vos principales missions seront notamment de : La conduite et le suivi de la Qualification et du Déploiement global du train Piloter les activités de qualification multi - équipes : environnement, acteurs, planning, charges…) Mettre en place la politique de test. Piloter la rédaction de la matrice des exigences. Définir, élaborer et mettre en œuvre de déploiement de la stratégie de test incluant la stratégie d’automatisation. Veiller à la cohérence entre la stratégie et sa mise en application. Mettre en place les bonnes pratiques Mettre en place les indicateurs et les métriques associées Participer à l’affinage des US / Features et à l’élaboration des critères d’acceptances. Piloter les activités de test (Xray - Jira – TestLink). Piloter les activités d’automatisation des tests (Selenium, Cucumber, SoapUI, …) Estimer les efforts de tests, analyser les résultats. Réaliser les revues de qualification du projet et valider les bilans QA et GO de MEP. Rédiger des reporting hebdomadaires et mensuels
Mission freelance
Ingénieur Système N3 - Linux & Perl
MEETSHAKE
Publiée le
Bash
Kubernetes
Linux
1 an
100-550 €
Paris, France
Dans un environnement de production critique lié à la gestion d'équipements réseaux (accès et routage), vous intervenez en tant que Référent Système N3 . Votre mission est de piloter l'évolution et la sécurisation des infrastructures de supervision. Vos missions principales s'articulent autour du Build et du Run : Pilotage de Mini-Projets (Build) : Concevoir et réaliser les stratégies de migration pour traiter l'obsolescence système (authentification, logs, bastions d'accès). Ingénierie de Migration : Mettre en œuvre des solutions techniques pour garantir la continuité de service lors des bascules (double run, switch d'IP, migration de comptes). Maintien en Condition Opérationnelle (Run) : Assurer le support de niveau 3 et l'évolution des services critiques ( Rsyslog, Tacacs, OpenSSH ). Automatisation & Scripting : Maintenir et adapter l'outillage existant (principalement en Perl et Bash ).
Offre d'emploi
Chef de projet data groupe H/F
HAYS France
Publiée le
Tarare, Auvergne-Rhône-Alpes
Votre périmètre couvrira l'ensemble des directions métiers (Commerce, Finance, Supply Chain, Achats, RH, R&D…) ainsi que des filiales françaises et internationales. Vos responsabilités incluront : Piloter des projets data de bout en bout : cadrage, recueil des besoins, suivi, déploiement et mise en utilisation. Contribuer aux volets data des grands projets de transformation du groupe (ERP, CRM, WMS, outils métiers…). Assurer la coordination entre les équipes métiers, IT et data. Participer à la mise en place et à l'amélioration continue de la gouvernance de données (qualité, référentiels, catalogage). Participer à la définition, au suivi et à l'analyse des KPIs liés à la performance data. Challenger les besoins métiers et accompagner l'évolution des usages data. Les environnements techniques couvrent tout le cycle de vie de la donnée : Data Lake, Data Warehouse, Data Hub, MDM, PIM/DAM, Data Catalog, Data Quality, Data Visualisation, Data Export.
Offre d'emploi
EXPERT SPARK DATA ENGINEER H/F
CELAD
Publiée le
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Offre d'emploi
Architecte Data / CMDB Snow (ServiceNow)
OBJECTWARE
Publiée le
Master Data Management (MDM)
ServiceNow
3 ans
45k-95k €
540-700 €
Île-de-France, France
Prestations demandées Les Missions principales sont : -Conception et optimisation du data model des référentiels IT techniques (CIs et métadonnées) -Définition des règles d’identification et de réconciliation (IRE) au sein de ServiceNow -Spécification des sources de vérité et cartographier les flux d’alimentation des référentiels -Déploiement des stratégies de data quality : déduplication, fiabilité, couverture, obsolescence -Application des principes de Master Data Management au contexte de la CMDB -Mise en place une gouvernance claire, documentée et partageable -Collaboration étroite avec les équipes ITSM, Discovery, MDM, sécurité et infrastructure -Accompagnement des équipes en charge des découvertes et des inventaires techniques -Production de la documentation d’architecture, standards, bonnes pratiques et processus -Développement des produits de données permettant de répondre aux besoins de reporting et d'audit
Offre d'emploi
Ingénieur en sécurité Opérationnelle – Expert RUN SPLUNK – N3
KEONI CONSULTING
Publiée le
Clustering
Run
Splunk
18 mois
20k-60k €
100-500 €
Toulouse, Occitanie
CONTEXTE Objectif global : Participer activité RUN Splunk Contrainte forte du projet : RUN splunk Nous recherchons un très bon expert Splunk afin de renforcer l'équipe RUN . Il devra impérativement avoir un niveau Splunk Admin ++. MISSIONS: - Traiter les incidents de plateforme et assurer une bonne disponibilité de la plateforme - Documenter les process et les incidents récurents - Améliorer la supervision Il doit posséder une compréhension approfondie des Universal Forwarders, des Heavy Forwarders, et de la configuration des inputs (ex: TCP, UDP, files, scripts) pour garantir une ingestion de données fiable et performante. Il doit maîtriser l'optimisation des index, la configuration des indexes.conf et transforms.conf, ainsi que des knowledge objects pour assurer des recherches rapides et des alertes efficaces. Enfin, une connaissance solide des best practices en matière de sécurité Splunk (RBAC) et des mécanismes de répartition de charge (clustering, load balancing) est primordiale pour le maintien et la scalabilité de l'infrastructure. Compétences techniques splunk admin - Confirmé - Impératif Splunk ITISI - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Définition du profil Mise en application de la Politique de Sécurité Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique
Offre d'emploi
Ingénieur d'exploitation / Ingénieur de production
FC Consulting
Publiée le
AIX (Advanced Interactive eXecutive)
Centreon
ITIL
12 mois
40k-50k €
380-400 €
Paris, France
Vous opèrerez pour le compte du département d’exploitation (DEX), qui a pour activité de piloter l’offre de service de l’exploitation en coordonnant et contribuant aux opérations de ce métier assurées par des Centres de Service. Dans le cadre du contrat de service et de l’industrialisation de la production, intégrer, en apportant votre expertise, la dimension exploitation en amont des projets - Assurer l’intégration des solutions applicatives sur les environnements de Hors-Production et de Production. - Préparer et coordonner les déploiements sur le Portefeuille d’applications dont vous avez la charge - Contribuer au déroulement des PTO (Plan de Tests Opérationnel) dans le cadre des recettes de Hors-production - S'assurer du respect des normes et méthodes - Valider les prérequis à la mise en production et le respect des critères d'exploitabilité. - Opérer la documentation nécessaire aux déploiements (Manuel d’installation, Roadmap, Plan de MEP(P)) - Elaborer les consignes et autres documentations d’exploitation destinées aux équipes de MCO (RUN et Support). - Garantir le respect des délais des livrables aux différentes entités - Garantir le respect des processus en vigueur (ex : Gestion des Changements et CAB). - Apporter un soutien technique, une expertise auprès des équipes d’Exploitation durant la période de Vérification de Service Régulier (VSR). - Planifier ses activités dans le cadre du planning des projets auxquels il participe, en lien avec la Division Pilotage du Département DEX. - Repérer les dysfonctionnements et / ou identifier les axes de progrès possibles - Rendre compte de son activité auprès du Management et des Coordinateurs Techniques de l’entité. - Alerter sa hiérarchie ou les services concernés sur des risques potentiels, des dysfonctionnements ou tout autre évènement nécessitant un arbitrage ou une décision - Apporter son expertise "Exploitation" en amont des projets. - S'assurer du respect des normes et méthodes d’Exploitation. - Être responsable d'applications. - Préparer et coordonner le déploiement applicatif (en hors-production et production) - Elaborer les consignes / roadmap / Plan de MEP - Garantir le respect des délais des livrables aux projets - Garantir le niveau de service d'une production informatique vers ses utilisateurs - Former les équipes d'exploitation aux nouvelles versions applicatives et les assister en cas de problématiques rencontrés. - Piloter les mises en PROD (HO et HNO) et coordonner les intervenants (intégrateurs, et acteurs externes).
Offre d'emploi
Data Engineer | Databricks
Hexateam
Publiée le
AWS Cloud
Databricks
Python
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Mission freelance
101448/Architecte Data IA Apache Kafka,Cloud Architecture Nantes
WorldWide People
Publiée le
Apache Kafka
12 mois
400-620 €
Nantes, Pays de la Loire
Architecte Data IA Apache Kafka,Cloud Architecture Nantes . Architecture au sein d'une nouvelle plateforme Data IA chez notre client. La mission consiste : - de par son expertise à accompagner le client dans cette transition technologique - à conseiller sur la nouvelle nouvelle architecture cloud-native et orienté self-service en intégrant des solutions modernes telles que Kafka, Iceberg, Trino et S3. - à accompagner l'équipe en charge du socle service data pour challenger les choix d'architecture autour des solutions d'observabilité offertes par OpenMetadata, SODA et/ou Great Expectations par exemple. - à participer à la conception d'architectures robustes et évolutives, tout en garantissant la conformité RGPD et la sécurité des données. - à travailler en étroite collaboration avec les Product Owners, Tech Lead, Data Stewards et DevOps pour assurer l'intégration harmonieuse des nouveaux produits. Qualifications demandées : Apache Kafka,Cloud Architecture.
Offre d'emploi
Ingénieur DevOps/Cloud
NAVIGACOM
Publiée le
AWS Cloud
Azure
55k-75k €
Puteaux, Île-de-France
Dans le cadre de notre développement, nous recherchons un Ingénieur DevOps/Cloud pour intervenir sur des environnements complexes et internationaux. Vous intervenez sur l’ensemble de la chaîne de valeur, du build à la production : Concevoir, déployer et maintenir des infrastructures cloud (AWS et/ou Azure) Mettre en place et optimiser des pipelines CI/CD pour automatiser les déploiements Industrialiser les environnements via des approches Infrastructure as Code (IaC) Participer à la containerisation des applications (Docker) et à leur orchestration (Kubernetes) Assurer la supervision, la performance et la disponibilité des systèmes Mettre en place des solutions de monitoring, logging et alerting Travailler sur la sécurisation des environnements cloud (IAM, secrets, bonnes pratiques) Participer à l’amélioration continue des processus DevOps Collaborer avec les équipes de développement pour optimiser les architectures applicatives Intervenir en support sur des incidents critiques en production Documenter les architectures, les pipelines et les procédures
Offre d'emploi
INGENIEUR(E) CONFIRME(E) - CRÉATION PORTAIL IAI
GROUPE ALLIANCE
Publiée le
Docker
Kubernetes
LangChain
65k-70k €
Paris, France
ACCROCHE SI TU TROUVES QUE JARVIS MANQUE DE PERSONNALISATION, CETTE ANNONCE EST FAITE POUR TOI ... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe passionnée par l’intelligence artificielle Concevoir des solutions innovantes et intelligentes Repousser les limites de l'automatisation et du machine learning Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur Protection Soci, tu participeras à la maintenance adaptative et corrective de la partie Front du portail IA :en mettant à jour ou en améliorant le catalogue d’assistant IA existant en fonction des besoins utilisateursen proposant des pistes d'améliorations à apporter aux IHM pour améliorer l'expérience utilisateurTu participeras à la maintenance corrective de la partie Back du portail IA permettant :la création et l'exposition de nouveaux assistants IA par les utilisateurs avec contrôles d'accèsla maintenance et l'évolution des mécanismes de supervision et de suivi de consommation d'IA par les utilisateursla maintenance et l'évolution des mécanismes d'exposition des assistants IA en API pour utilisation par les applicatifs métiersTu participeras à la réalisation d’assistants IA préconfigurés en fonction des types de besoins remontés par les ambassadeurs IA et les utilisateurs non techniquesen réalisant des assistants IA à partir d'expressions de besoins fournisen apportant des améliorations à l'ingestion de documents ou de bases de connaissances afin d'améliorer la qualité des réponses en sortie des assistants ou agents IAen proposant des améliorations des prompts utilisateurs pour améliorer la précision du résultat ou diminuer les coûtsTu contribueras à l'assistance technique et la résolution d'incidents en cas de remontée de dysfonctionnements de la plateforme (support niveau 1 & 2 selon profil)en analysant la cause du dysfonctionnement à partir des logs applicatives (avec escalade vers les autres membres de l'équipe au besoin) en proposant des mises à jour du parcours d’accueil et d'accompagnement des utilisateurs afin de limiter les causes de remontées des utilisateurs. Données, tu analyseras Modèles d’IA, tu entraîneras Algorithmes performants, tu développeras Les biais et les dérives, tu limiteras Les meilleures pratiques en IA, tu appliqueras Les performances, tu optimiseras Ton expertise, tu partageras Aux évolutions technologiques, tu contribueras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 7ans minimum Expert(e) en Microsoft Azure IA, Copilot Habile avec les outils SFEIR RAISE (RAG/GenAI), Visual Studio Code avec Github COPILOT, MS OFFICE Copilot, Python, Langchain, Docker + Kubernetes, LiteLLM + LLM AI Foundry, React, Typescript, TanStack, Microsoft AZURE AI Foundry, LangGraph, RAGAS, LangFuse, FastAPI + Celery/Redis, Serveurs MCP, Pipelines CI/CD (GitHub/Azure DevOps), Docker + Terraform, Microsoft AZURE API Management, Microsoft AZURE AI Foundry AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Mission freelance
INGENIEUR SYSTEMES MICROSOFT - AD - ENTRA ID
PROPULSE IT
Publiée le
microsoft
24 mois
275-550 €
France
Dans le cadre d'un renfort d'équipe, nous recherchons un(e) consultant systèmes Microsoft expérimenté et ayant des compétences On premise et Cloud. Le consultant devra avoir plus de 7 années d'expérience sur les solutions Microsoft Active Directory / Azure AD/ Entra ID Sa mission consistera à participer aux différents projets ainsi qu'à assurer le run AD & Entra ID Run : · Participation à la résolution des incidents et demandes de niveau 3 · Participation à l'administration courante des solutions Entra ID et Active Directory. Build : · Participe activement aux projets de l'équipe en lien avec les différents acteurs et entités concernées Le lieu de la mission est situé à La Défense avec une présence sur site de 3 jours.
Offre d'emploi
Data Analyst
CAT-AMANIA
Publiée le
Business Object
Qlik Sense
40k-61k €
Maisons-Alfort, Île-de-France
Element de contexte et organisation : Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme, piloté par le Chief Data Officer (CDO) et sous sponsoring de la Direction Générale, comporte plusieurs objectifs, dont celui de la mise en place de la plateforme Data & IA, qui a vocation à devenir le cœur du SI. En parallèle, le chantier de transformation Cloud en cours induit d’importantes adhérences avec les travaux d’industrialisation de la plateforme Data & IA. L'organisation projet est réalisée avec SAFE. Objectif poursuivi pour cette mission : La mission porte sur la réalisation du socle Financement et contentieux dont il s'agira d'assurer un rôle de Data Analyst avec pour objectif de: - spécifier les besoins en terme de données Financement et Contentieux permettant de servir les usages bancaires des filières : -- Crédit Bail équipement, -- Crédit Immobilier, énergie & environnement, -- Court terme, -- Immatériel - modéliser les entités permettant de représenter les données des métiers du Financement et du Contentieux - spécifier les Data Product nécessaire pour couvrir : -- les besoins des filières (Reporting opérationnels, Agents opérationnels, suivi d'activité, reporting conventionnels,...) -- les besoins de l'équipe chargée d'exploiter le socle Financement et Contentieux (Reporting transverses, études de prospection, cross-selling, ...) - définir et contrôler la Qualité des données véhiculées au sein du socle - réaliser les recettes des données collectées Compétences métier souhaitables : Mission(s) réussie(s) dans le domaine Bancaire dans le cadre de reportings de Financement. Bonne connaissance des métiers bancaires (Crédit, crédit bail, court terme, ...) Très bonne connaissance des données bancaires du financement Forte appétence pour la donnée La connaissance de l'écosystème (notamment le Legacy) serait un plus Liste des technologies : Le comptoir de données est réalisé sur le Cloud AWS. Outil de restitution de la donnée : Business Objects, QlikSense Bon niveau en SQL
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3001 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois