L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 346 résultats.
Mission freelance
Expert SAP - Data Migration
Montreal Associates
Publiée le
SAP
6 mois
600-700 €
Paris, France
Bonjour, 🚫 𝐏𝐀𝐒 𝐃𝐄 𝐒𝐎𝐔𝐒-𝐓𝐑𝐀𝐈𝐓𝐀𝐍𝐂𝐄!🚫 Je recherche actuellement pour un de mes clients plusieurs profils : 🔔 𝐂𝐨𝐧𝐬𝐮𝐥𝐭𝐚𝐧𝐭 𝐞𝐧 𝐃𝐚𝐭𝐚 𝐌𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑑𝑜𝑛𝑛𝑒́𝑒𝑠 𝐵𝑜𝑛𝑛𝑒 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑𝑒 𝑙𝑎 𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛 𝑆𝐴𝑃, 𝑖𝑑𝑒́𝑎𝑙𝑒𝑚𝑒𝑛𝑡 𝑆4 𝑀𝑎𝑖𝑡𝑟𝑖𝑠𝑒 𝑑𝑒 𝑙𝑎 𝑚𝑒́𝑡ℎ𝑜𝑑𝑜𝑙𝑜𝑔𝑖𝑒 𝐷𝑇𝑀 𝐶𝑎𝑝𝑎𝑐𝑖𝑡𝑒́ 𝑎̀ 𝑡𝑟𝑎𝑑𝑢𝑖𝑟𝑒 𝑙𝑒𝑠 𝑠𝑝𝑒́𝑐𝑖𝑓𝑖𝑐𝑖𝑡𝑒́𝑠 𝑑𝑒𝑠 𝑜𝑏𝑗𝑒𝑡𝑠 𝑒𝑛 𝑢𝑛𝑒 𝑠𝑡𝑟𝑎𝑡𝑒́𝑔𝑖𝑒 𝑒𝑡 𝑢𝑛𝑒 𝑚𝑒́𝑡ℎ𝑜𝑙𝑜𝑔𝑖𝑒 𝑠𝑡𝑟𝑢𝑐𝑡𝑢𝑟𝑒́𝑒𝑠 𝐹𝑜𝑟𝑡 𝑖𝑛𝑡𝑒́𝑟𝑒̂𝑡 𝑝𝑜𝑢𝑟 𝑙𝑒 𝑝𝑎𝑟𝑡𝑎𝑔𝑒 𝑑𝑒𝑠 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒𝑠, 𝑙𝑎 𝑓𝑜𝑟𝑚𝑎𝑡𝑖𝑜𝑛 𝑒𝑡 𝑙𝑎 𝑚𝑖𝑠𝑒 𝑒𝑛 𝑜𝑒𝑢𝑣𝑟𝑒 𝑑𝑒 𝑙𝑎 𝑚𝑒́𝑡ℎ𝑜𝑑𝑜𝑙𝑜𝑔𝑖𝑒 𝐸𝑥𝑐𝑒𝑙𝑙𝑒𝑛𝑡𝑒 𝑎𝑝𝑡𝑖𝑡𝑢𝑑𝑒𝑠 𝑎̀ 𝑎𝑛𝑖𝑚𝑒𝑟 𝑢𝑛𝑒 𝑐𝑜𝑚𝑚𝑢𝑛𝑎𝑢𝑡𝑒́ 🎯 𝐌𝐢𝐬𝐬𝐢𝐨𝐧 𝐏𝐚𝐫𝐭𝐢𝐜𝐢𝐩𝐞𝐫 𝐚̀ 𝐥𝐚 𝐦𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐝𝐞 𝐝𝐨𝐧𝐧𝐞́𝐞𝐬 𝐝𝐞 𝐥𝐚 𝐩𝐫𝐞́𝐩𝐚𝐫𝐚𝐭𝐢𝐨𝐧 𝐚̀ 𝐥'𝐞𝐱𝐞́𝐜𝐮𝐭𝐢𝐨𝐧. -Permettre aux équipes locales de mener à bien la définition de l'approche de migration jusqu'à la validation des données métier. -Piloter le calendrier d'exécutions des objets. -Assurer l'analyse de premier niveau des anomalies - Apporter un soutien aux responsables d'applications en fournissant les informations nécessaires à la propagation des données. - Définir la stratégie de nettoyage des données, les indicateurs (KPI) et le suivi - Garantir la cohérence entre les régions et soutenir l'amélioration continue - Définir et maintenir les modèles de migration, les rapports et tableaux de bord de qualité des données, la base de connaissances. - Arbitrer les écarts par rapport à la méthodologie et gérer l'impact des demandes de dérogation sur leur périmètre. - Former et animer la communauté sur le périmètre des objets. 🔊 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐜𝐨𝐮𝐫𝐚𝐧𝐭 obligatoire 📍𝐈𝐃𝐅 - 3j semaine sur site 🕐 Début avril - 𝟔 𝐦𝐨𝐢𝐬 𝐫𝐞𝐧𝐨𝐮𝐯. 💶 𝐓𝐉𝐌 : 650/700€
Offre d'emploi
Data Integration Engineer (ETL Informatica) (F/H)
Argain Consulting Innovation
Publiée le
Informatica
Qlik
SQL
2 ans
40k-45k €
450-470 €
Rennes, Bretagne
Dans le cadre du renforcement de l’équipe décisionnelle, nous recherchons une prestation spécialisée en intégration de données afin de contribuer à l’alimentation et à l’évolution du Data Warehouse et des différents datamarts métiers. Principales missions Accompagnement des métiers dans l’expression des besoins liés aux flux de données et participation aux phases de recette. Analyse des sources, modélisation et conception des traitements d’intégration dans le respect des bonnes pratiques BI. Développement, optimisation et maintenance de flux ETL sous Informatica. Mise en qualité, transformation et préparation des données pour les usages décisionnels. Participation aux travaux d’industrialisation, documentation et amélioration continue de la chaîne de traitement. Contribution au support et au suivi des traitements batch (diagnostic et résolution d’incidents).
Offre d'emploi
Product Owner Data H/F
█ █ █ █ █ █ █
Publiée le
Scrum
Saint-Grégoire, Bretagne
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Scientist (Modélisation statistique, reinforcement learning)-(h/f)
emagine Consulting SARL
Publiée le
36 mois
500-650 €
95700, Roissy-en-France, Île-de-France
Le poste de Data Scientist se concentre sur la modélisation statistique et l'apprentissage par renforcement, visant à renforcer une équipe déjà existante avec un expert capable de concevoir des modèles prédictifs tout en étant capable de contribuer à des mises en production. Responsabilités : Développer et affiner des modèles statistiques pour améliorer la prise de décision. Appliquer des techniques d'apprentissage par renforcement dans des projets d'optimisation. Collaborer avec les équipes de production pour mettre en place des modèles efficaces. Utiliser des outils de data science pour générer des insights à partir des données. Communiquer clairement les résultats de la modélisation aux parties prenantes. Must Have : Expérience significative en modélisation statistique. Expérience avec des moteurs de recommandation. Apprentissage par renforcement (reinforcement learning) Maîtrise de l'anglais. ( entretien en anglais ) Nice to Have : Connaissances en systèmes basés sur le cloud, en particulier GCP. Compétences en industrialisation de modèles. Solides compétences en data science et machine learning. Thèse de doctorat (PhD) en domaine pertinent. Autres détails : Urgence : ASAP. Lieu de travail : Roissy , 95700 Télétravail : 3 jours par semaine, 2 jours sur site
Mission freelance
SAP Senior Developer BTP / Integration & Data Conversion
Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA
2 ans
Versailles, Île-de-France
Nous recherchons un Développeur SAP BTP / CPI senior - Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de d'intervenir techniquement sur les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: • Développer et maintenir des flux d'intégration autour de SAP BTP et de l'Integration Suite, en lien avec SAP, les systèmes legacy et les systèmes satellites. • Mettre en œuvre des interfaces techniques basées sur API, événements, fichiers ou middleware, selon les schémas définis par le projet. • Effectuer des activités de conversion de données • Contribuer aux tests techniques, aux tests d'intégration et à la correction des bugs • Documenter les développements réalisés et participer au transfert de connaissances aux équipes internes Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec cartographie, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes
Mission freelance
Chef de projet IT et Data
Clémence Consulting
Publiée le
Architecture
Data management
Gestion de projet
9 mois
600-650 €
Paris, France
Rattaché à la DSI, pour travailler sur plusieurs projets liés à la transformation digitale : création et enrichissement d’une brique data transverse, refonte de l’espace client, création d’une plateforme 360 client et d’autres sujets à venir ; nous recherchons un consultant Chef de projet IT avec expériences et appétences Data Les 3 premiers projets sont liés puisque la brique data transverse permet de collecter, consolider et exposer les données issues des applications existantes pour notamment alimenter la plateforme qui donne la vue 360 des interactions avec un client (pour différentes équipes internes avant / pendant et après la vente) et l’espace client qui permet de présenter des informations, remonter des demandes / réclamations. Avec les métiers, et les équipes DSI (les responsables d’applications et l’équipe Data), les contributions du chef de projet participeront aux objectifs de notre client de mettre en œuvre une architecture cohérente permettant : · Une vision client unifiée pour les différentes équipes internes qui sont en relation avec les clients à différents moments. · Une alimentation fiable et sécurisée du nouvel espace client. · Une exposition maîtrisée des données via APIs. Périmètre de la mission Projet 1 – Plateforme 360 client · Mise en place d’une nouvelle couche applicative de visualisation et d’orchestration (solution du marché ou développement spécifique). · Interfaçage avec l’écosystème applicatif existant (sans remplacement des outils métiers). · Déploiement du nouveau poste de travail du Centre de Relations Clients. Projet 2 – Refonte de l’Espace Client · Accompagner le remplacement de la solution en place composée d’un front et d’un back office spécifique, par une nouvelle solution alimentée par la future brique data. Brique Data transverse et commune aux projets 1 et 2 (enjeu majeur) · Cadrage de l’architecture Data. · Identification et intégration des sources applicatives. · Mise en place des flux (API, batch / temps réel …). · Modélisation des données consolidées. · Supervision de l’exposition sécurisée des données. · Pilotage de la qualité et de la gouvernance des données. · Coordination des équipes Data / Produits / infrastructure. · Responsabilités principales · Pilotage global des projets (planning, budget, risques, qualité). · Cadrage et pilotage de la mise en œuvre de l’architecture de la brique Data · Animation de la comitologie (COPIL, COPROJ …). · Coordination métiers / DSI / partenaires externes. · Rédaction de spécifications (epics et user stories). · Pilotage et contribution à la réalisation des phases de recette et mise en production. · Organisation de la transition au run (dont exploitation, monitoring des flux). · Garantie du respect des standards et procédures DSI.
Mission freelance
Architecte data
ESENCA
Publiée le
Architecture
Collibra
Gouvernance
1 an
Lille, Hauts-de-France
Objectif global Accompagner la conception et la mise en place de l’architecture Data. Contexte Projet à dimension internationale avec des contraintes fortes de conformité et d’alignement des données aux besoins métier. Description détaillée Le/la Data Architect intégrera la plateforme HRDP (Ressources Humaines) pour : Concevoir des modèles conceptuels de données par contexte métier Identifier les événements métier par contexte Définir et formaliser les Business Terms, Business Attributes et Business Events dans Collibra Définir les Indicateurs Clés de Performance (KPI) par contexte métier Définir les règles de qualité des Business Terms Analyser la conformité des API et des Data Sets avec l’architecture data Réaliser le data lineage Rédiger le dossier d’architecture data répondant aux besoins business exprimés dans le quarterly plan Participer à la data governance de la plateforme
Offre d'emploi
EXPERT SPARK DATA ENGINEER H/F
CELAD
Publiée le
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Mission freelance
Data Analyst confirmé Powerbi, SQL, Python Nantes/st
WorldWide People
Publiée le
Data analysis
12 mois
320-350 €
Nantes, Pays de la Loire
Data Analyst confirmé Powerbi, SQL, Python Nantes Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données. 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Powerbi, SQL, Python Prestation Data Analyst confirmé (Min 3 ans exp sur la fonction) Tâches : • apporte un appui analytique à la conduite d’exploration et à l’analyse complexe de données Métiers permettant de fournir des indicateurs concrets. • identifie les données les plus intéressantes et les rends exploitables (structuration, normalisation, documentation) • assure la qualité et la fiabilité de ces données. • dégage des logiques de génération d’indicateurs pour les Métiers. • dégage des tendances en utilisant ses compétences statistiques. • conçoit les tableaux de bord nécessaires à la restitution des différents indicateurs sous la forme de Data visualisation. Compétences Technique : • Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données.
Offre d'emploi
Expert Automation / RPA / Data (H/F)
OMICRONE
Publiée le
Automatisation
Data analysis
Python
2 ans
40k-45k €
400-500 €
Île-de-France, France
📢 Mission – Expert Automation / RPA / Data (H/F) Dans le cadre d’un projet d’automatisation à forte valeur ajoutée, nous recherchons un expert en automatisation et traitement de documents pour intervenir sur des sujets innovants mêlant RPA et Data. 🔹 Missions : Conception et développement de solutions d’automatisation Traitement et automatisation de documents (workflows) Optimisation des processus métiers via RPA Contribution à des cas d’usage mêlant data et automatisation 🔹 Stack / Compétences : UiPath, Python, Data Science, automatisation de processus, traitement documentaire 👤 Profil : Senior / Expert 🌍 Anglais professionnel requis ⚠️ Profils basés en France uniquement ❌ Sous-traitance non autorisée
Mission freelance
Business Analyst Data (Advanced)
Gentis Recruitment SAS
Publiée le
Big Data
Business Analyst
Data Lake
12 mois
Paris, France
Contexte de la mission Grand groupe international du secteur de l’énergie, fortement orienté data-driven, souhaite renforcer l’exploitation de ses données de marché afin de : Réduire les risques opérationnels Améliorer l’efficacité des équipes métiers Développer de nouvelles offres basées sur la donnée Le projet stratégique vise la mise en place d’une architecture Big Data de type médaillon (Bronze / Silver / Gold) dédiée aux market datas issues de différentes plateformes de marché. Objectifs du projet Le programme consiste à : Mettre en place les layers : Silver : données structurées et normalisées Gold : données calculées (orders, trades, orderbooks, best bid/ask, OHLC, VWAP, TWAP, etc.) Implémenter le data management : Data quality Data catalog Monitoring Exposer les données Gold via SDK et interfaces métiers Définir et appliquer les politiques d’accès Reprendre l’historique pour permettre le décommissionnement de solutions legacy Rôle du Business Analyst Le consultant interviendra au cœur d’un environnement mêlant équipes métiers (Trading Surveillance, Quant, Market Analysts) et équipes Data Engineering. Analyse & Cadrage Recueil et structuration des besoins métiers liés aux market datas Animation d’ateliers avec les stakeholders Analyse approfondie des données sources Identification des incohérences et cas spécifiques Spécifications fonctionnelles & Data Rédaction des spécifications Silver / Gold Définition des règles de transformation et d’enrichissement Data mapping Gestion de la complexité temporelle des données de marché Définition des modèles orientés usages métiers Data Management & Gouvernance Définition des règles de qualité et indicateurs Contribution au monitoring Participation au data catalog Garantie de traçabilité des règles métier Coordination & Delivery Collaboration étroite avec les Data Engineers Suivi des développements Élaboration de la stratégie de tests Conception et exécution des plans de tests Participation aux comités projet
Mission freelance
Senior Data Product Manager/ Data Mesh/ Cloud AWS & AZURE / Anglais (H/F)
Octopus Group
Publiée le
BI
Dataiku
Finance
6 mois
550-680 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, Senior Data Product Manager Contexte de la mission : Il s'agit d'un poste à la fois stratégique et hautement opérationnel, chargé de la mise en œuvre concrète et du déploiement de la plateforme de données en libre-service du Groupe, fondée sur les principes du Data Mesh. Le Senior Data Product Manager est responsable de la mise en œuvre pratique, de l'industrialisation et de l'adoption à l'échelle de l'entreprise de la plateforme dans l'ensemble des domaines d'activité. Ce poste requiert un profil orienté vers la construction et l'exécution, capable de définir la vision et de la traduire en une plateforme évolutive, de qualité production et utilisable à grande échelle. Mission Principale : Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform - GDP) en tant que produit interne, en garantissant sa mise en œuvre technique, son adoption par l'entreprise, l'excellence opérationnelle et l'amélioration continue. Gestion de produit (axée sur l'utilisation) et amélioration continue Responsabilités : Identifier les besoins des utilisateurs et les exigences de la plateforme Définir la vision du produit et la feuille de route Mesurer l'utilisation et la création de valeur Améliorer l'expérience des développeurs et des utilisateurs Résultats attendus : Vision du produit et proposition de valeur Indicateurs clés de performance (KPI) de la plateforme et mesures d'adoption Boucles de retour d'information des utilisateurs et liste des améliorations à apporter Feuille de route pour l'amélioration de la plateforme Fourniture de la plateforme (responsabilité principale) Responsabilités : Définir les capacités de la plateforme (produits de données, pipelines, gouvernance, observabilité, accès en libre-service) Définir et faire respecter les normes techniques et les modèles d'architecture Prendre des décisions techniques concrètes et valider les solutions Livrables attendus : Comptes rendus des décisions d'architecture (ADR) Modèles d'architecture de référence et gabarits réutilisables Feuille de route des capacités de la plateforme Normes techniques de la plateforme Architecture et infrastructure cloud Responsabilités : Coordonner la conception et l'exploitation de l'architecture cloud et hybride en collaboration avec l'architecte de données du groupe Coordonner avec l'équipe de mise à disposition des données du groupe la mise en œuvre sur Amazon Web Services et Microsoft Azure Diriger l'intégration des systèmes sur site Veiller au respect des exigences en matière de sécurité et de conformité Résultats attendus : Plan directeur de l'architecture cloud (avec l'aide de l'architecte de données du groupe) Cadre de sécurité et de gestion des accès Gestion de la livraison et de l'exécution Responsabilités : Gérer le cycle de vie de la livraison de la plateforme Définir le backlog et le processus de hiérarchisation des priorités Gérer les versions et le déploiement en production Suivre les performances et la fiabilité Gérer les risques et les problèmes techniques Livrables attendus : Feuille de route de la plateforme (court / moyen / long terme) Backlog produit et cadre de priorisation Plan de lancement et processus de gestion des versions Tableaux de bord de suivi des livraisons SLA de la plateforme / indicateurs de fiabilité Déploiement et adoption par les domaines métier Responsabilités : Déployer la plateforme dans l'ensemble des domaines métier Permettre aux équipes métier de créer des produits de données Mettre en œuvre le modèle opérationnel Data Mesh Accompagner l'intégration et l'adoption Résoudre les difficultés opérationnelles liées à l'adoption Résultats attendus : Cadre et processus d'intégration des domaines métier Directives relatives au cycle de vie des produits de données Guides de mise en œuvre pour les domaines métier Indicateurs d'adoption et d'utilisation Supports de formation et documentation d'intégration Documentation, normalisation et gouvernance Responsabilités : Documenter les capacités et les processus de la plateforme Veiller au respect de la gouvernance fédérée des données computationnelles du groupe Résultats attendus : Référentiel de documentation de la plateforme Normes techniques et directives de mise en œuvre Cadre de gouvernance et de conformité Guides des meilleures pratiques Communication opérationnelle et rapports à la direction Responsabilités : Communiquer sur l'avancement et l'impact de la plateforme Fournir des rapports destinés à la direction Assurer la coordination entre les parties prenantes Livrables attendus : Tableau de bord du projet destiné à la direction Tableaux de bord sur les performances de la plateforme Présentations au comité de pilotage Suivi des décisions, des risques et des problèmes Promotion interne et évangélisation Responsabilités : Promouvoir la valeur de la plateforme au sein de l'organisation Soutenir les initiatives d'adoption en interne Développer la communauté autour de la plateforme Livrables attendus : Supports de communication internes relatifs à la plateforme Stratégie d'adoption et plan de déploiement Démonstrations de la plateforme et recueil de cas d'utilisation
Mission freelance
Business Analyst Finance DATA / IA - Paris
Net technologie
Publiée le
Big Data
Elasticsearch
Méthode Agile
9 mois
Paris, France
Dans le cadre d’un programme réglementaire stratégique, nous recherchons un Senior Business Analyst pour contribuer à l’industrialisation d’une plateforme globale de Front Office destinée à renforcer la supervision des activités de trading et de sales. 🎯 Objectif : développer une plateforme de monitoring couvrant communications, ordres, transactions et données associées , intégrant des technologies d’analyse avancées (NLP / IA). 🚀 Missions Recueil et formalisation des exigences fonctionnelles et use cases Rédaction des spécifications fonctionnelles et techniques Coordination avec les Data Engineers et les équipes projet Participation aux sprints Agile et suivi des livraisons Conception de la stratégie data pour l’analyse multi-sources Organisation et pilotage des tests UAT Collaboration avec les équipes Business, Compliance et IT
Offre d'emploi
Analyste Data
CAT-AMANIA
Publiée le
Big Data
Microsoft Power BI
PySpark
2 ans
40k-48k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Analyste Data pour intégrer l’équipe Analyse de la Donnée. Rattaché à l’équipe, vous serez en charge de mettre en œuvre des cas d’usage métier via le croisement de données, développer et maintenir des produits DATA réutilisables, et restituer vos analyses à travers des dashboards et dataviz. Vous accompagnerez également les équipes métiers dans l’acculturation DATA tout en respectant les normes et bonnes pratiques de l’équipe. Maîtrise de Python, PySpark, SQL , expérience sur Big Data Hadoop (Cloudera) et compétences en Power BI sont requises, ainsi qu’une solide expertise en data science et analyse de données.
Mission freelance
DATA Analyst SAP BO
Atlas Connect
Publiée le
Business Object
IDT
Microsoft Power BI
12 mois
400-450 €
Île-de-France, France
Mission Le consultant BO interviendra sur : La modélisation et le développement d’univers SAP BO. La création et la maintenance de rapports Web Intelligence 4.3. La génération de rapports complexes multi-sources et multi-pages. Le support aux utilisateurs et aux métiers pour la formation et la montée en compétence sur BO. Livrables principaux : Univers BO Rapports BO Tableaux de bord et Data visualisations métiers Présentations d’indicateurs de performance Durée de mise en opération rapide : Capable d’être opérationnel sous 2 semaines. Compétences techniques requises SAP Business Objects 4.3 (Designer, IDT/UDT) – Confirmé – Impératif Modélisation d’univers – Confirmé – Impératif SQL – Confirmé – Souhaitable Web Intelligence 4.3 – Confirmé Connaissance CMC et Power BI – Plus Profil recherché Formation : Bac +5 Expérience : Minimum 5 ans sur SAP BO et modélisation d’univers Soft skills : Capacité à s’intégrer rapidement à une équipe BI et à devenir opérationnel rapidement. Positionnement : Auprès des Métiers, de la DSI ou dans un pôle Data transverse. Responsabilités : Identifier les données pertinentes à partir des exigences métiers Définir la logique de génération d’indicateurs Concevoir les tableaux de bord nécessaires à la restitution Assurer la production d’indicateurs et supports de décision
Offre d'emploi
Data Ops Engineer AWS / Databricks H/F
DAVRICOURT
Publiée le
Databricks
45k-50k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Ops Engineer AWS / Databricks pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Assurer la robustesse, la performance et la sécurité d'une plateforme data (data lake AWS) ; - Mettre en place et maintenir l'infrastructure via Terraform (Infrastructure as Code) ; - Superviser les environnements data (monitoring, performance, optimisation) ; - Accompagner les équipes sur l'usage des outils data (S3, Glue, Databricks) ; - Contribuer à la gouvernance des données (catalogue, accès, qualité des données) ; - Participer à l'amélioration continue et à l'industrialisation des pratiques Data Ops.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3346 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois