L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 380 résultats.
Offre d'emploi
Data Analyst
Publiée le
Google Cloud Platform (GCP)
PL/SQL
Python
1 an
Paris, France
Télétravail partiel
OBJECTIF Le projet est actuellement lancé avec une mise sous contrôle qualité des données critiques et des plans d’action de remédiation avec les systèmes informatiques de gestion. Le département nécessite l’expertise d’un Data Analyst afin d’améliorer l’analyse des données au sein de l’entreprise. Ce poste est essentiel pour interpréter et analyser la qualité des données clés du business et du métier, tout en collaborant étroitement avec les équipes métiers et IT. Le Data Analyst sera en charge de la mise en oeuvre des analyses pour élaborer les contrôles de qualité de données et les KPIs, d’assurer le maintien et les évolutions du Data Quality Dashboard, de participer aux plans d’action de remédiation, en collaboration avec l’équipe Data du département, et avec les responsables informatiques / métiers des applications.
Offre d'emploi
Administrateur fonctionnel de Salesforce Marketing Cloud H/F
Publiée le
Salesforce Sales Cloud
12 mois
50k-60k €
500-530 €
Île-de-France, France
ANALYSE DES BESOINS ET VEILLE TECHNOLOGIQUE Recueille l'information nécessaire et étudie les besoins d'équipements matériels et logiciels Préconise et conseille sur les choix des solutions informatiques en relation avec les architectes, les experts des autres domaines et les besoins du métier dans le respect des patterns techniques définis par l'entreprise Rédige le cahier des charges contenant les spécifications techniques des équipements Rédige les appels d'offre et analyse les propositions des constructeurs en termes de performance, fiabilité et compatibilité Assure une veille technologique pour garantir l'optimisation des ressources systèmes de l'entreprise MISE EN PLACE ET INTÉGRATION Conçoit ou adapte (paramètre) les logiciels sélectionnés Configure et dimensionne les solutions hardware retenues en fonction des performances requises par les logiciels Teste les systèmes mis en place et veille à la compatibilité des éléments entre eux Participe aux phases de validation technique lors des mises en production Veille à la sécurité et à la fiabilité des systèmes de l'entreprise EXPLOITATION Valide l'installation et l'intégration des nouveaux outils (systèmes, ou réseaux et télécoms) Traite les incidents ou anomalies avec diagnostic de l'incident, identification, formulation et suivi de sa résolution Participe aux actions correctives de maintenance en veillant à leur qualité Propose des améliorations pour optimiser les ressources existantes et leur organisation Rédige et met à jour la documentation des procédures et consignes d'exploitation. Effectue le transfert de compétences et l'assistance technique des procédures aux équipes d'exploitation et participe éventuellement à leur formation SÉCURITÉ Respecte et suit les règles de sécurité définie par l'entreprise Applique les plans de sauvegarde et de secours définis Assure la sécurité physique des données en termes de sauvegarde et d'archivage
Mission freelance
Product Lead Data / Directeur projet (Montpellier)
Publiée le
Data governance
Product management
12 mois
600 €
Montpellier, Occitanie
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Product Lead Data / Directeur projet" pour un client dans le secteur des services Description 🎯 Contexte de la mission La Direction Data renforce ses équipes dans le cadre de la montée en puissance du domaine Data, Analytics & AI . Afin de garantir la qualité, la cohérence et la performance des livrables Data à l’échelle du groupe, le client recherche un Product Lead / Directeur de projet expérimenté . Placé directement sous la responsabilité du Responsable de Domaine , le Product Lead jouera un rôle clé dans la gouvernance, la stratégie et le delivery des Data Products , tout en assurant la tenue des engagements métiers et techniques. ⚙️ Rôle et responsabilités En tant que Product Lead, vous serez le garant du delivery, de la performance technique et de la qualité des composants de la ligne de produit Data, Analytics & AI. Vos principales missions : Piloter la ligne de produit Data, Analytics & AI sur les volets fonctionnels, techniques et stratégiques. Collaborer étroitement avec les Delivery Owners , Directeurs de programme et le Responsable de ligne de produit pour garantir la cohérence globale et la qualité des solutions. Contribuer à la stratégie de la ligne produit : dimensionnement des équipes, choix technologiques, modèle de coûts, sourcing et plan de delivery. Superviser la production et la maintenance des produits Data (disponibilité, performance, fiabilité). Assurer le suivi opérationnel : calendrier des évolutions, publications, roadmap technique et fonctionnelle. Définir et appliquer la politique d’industrialisation et de maintenance de la ligne de produit (qualité, CI/CD, automatisation). Accompagner et soutenir les Feature Teams dans la montée en compétence et la réalisation des objectifs. Collaborer avec les équipes agiles pour suivre les charges, les alertes et le staffing. Maintenir la documentation technique et fonctionnelle (Wiki, SharePoint, Teams). Contribuer à la pérennité technologique du patrimoine Data en réduisant la dette technique et en garantissant la conformité DSI. Assurer la coordination avec la DEXO (gestion de crise, gestion de la proximité avec les partenaires).
Mission freelance
[SCH] Data Engineer Spark / Scala - 1047
Publiée le
10 mois
350-390 €
Paris, France
Télétravail partiel
Au sein de la DSI Finance, vous interviendrez en tant que Data Engineer Spark / Scala confirmé sur le projet d’intégration du Datalake Finance, adossé à la distribution Hadoop HortonWorks. Ce datalake centralise les données issues des systèmes comptables et de synthèse afin de répondre aux besoins de reporting Finances & Risques (COREP, RWA, IFRS9, etc.). Missions principales : -Participer au développement et à l’intégration de nouvelles sources de données au sein du Datalake Finance. -Assembler et distribuer les données aux consommateurs métiers tout en garantissant la pérennité et la performance des pipelines existants. -Contribuer à la conception technique, l’implémentation et les tests des flux sous Spark / Scala. -Veiller à la non-régression et à la qualité du code dans le cadre des évolutions du socle. -Travailler en méthodologie Agile (Scrum / Kanban) avec les équipes métiers, data et maintenance. -Participer à la documentation technique et aux revues de code. Profil recherché : -5 à 6 ans d’expérience en environnement Big Data / Datalake. -Solide maîtrise de Spark / Scala et des paradigmes de programmation fonctionnelle (ZIO, Monix, Cats appréciés). -Connaissance des écosystèmes Hadoop, Hive, Kafka, HBase, Kerberos. -Expérience dans un cadre Agile (Scrum / Kanban) et outils associés (Jira, Confluence). -Esprit analytique, autonomie, rigueur et bon relationnel.
Offre d'emploi
Senior Développeur CUBE / SSAS - SSIS - SSRS
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Microsoft SSIS
3 ans
Île-de-France, France
Télétravail partiel
La migration de SRManager d’un modèle SSAS multidimensionnel vers un modèle Tabulaire ; La migration de la plateforme vers Microsoft Azure ; L’enrichissement fonctionnel de l’outil, incluant de nouveaux indicateurs et métriques à destination des utilisateurs métiers ; La mise en place de fonctionnalités d’alerting basées sur des événements prédéfinis (dépassement de seuils, anomalies, problèmes de données, etc.) ; Le support opérationnel au quotidien de l’outil. Le consultant interviendra au sein de l’équipe SCIS (Sales, Communication & Investment Solutions), basée à Paris. Responsabilités principales 1. Modernisation de l’architecture SRManager Migrer le cube actuel SSAS multidimensionnel vers un modèle SSAS Tabulaire ; Optimiser les modèles de données et les performances ; Adapter et migrer les flux d’intégration de données existants sous SSIS ; Reconcevoir et migrer les rapports SSRS ; Déployer l’ensemble de la solution sur Azure (Azure Analysis Services ou Power BI Premium, Azure SQL Database, Azure Data Factory, etc.). 2. Évolutions fonctionnelles Développer et intégrer de nouveaux KPI et indicateurs demandés par les équipes Finance, Ventes et autres parties prenantes métiers ; Améliorer la logique métier existante et les règles de calcul ; Intégrer de nouvelles sources de données et faire évoluer le modèle de données si nécessaire. 3. Mise en place d’un système d’alerting Définir les événements métiers devant déclencher des alertes automatiques ; Développer un mécanisme d’alerting automatisé (emails, tableaux de bord, notifications) ; Assurer une intégration fluide au sein de l’écosystème SRManager existant.
Mission freelance
Data Scientist (h/f)
Publiée le
1 mois
400-450 €
95000, Cergy, Île-de-France
Télétravail partiel
Introduction & Résumé: Le rôle de Data Scientist est essentiel pour analyser la performance des outils de prévision au sein du département de Recherche Opérationnelle, contribuant ainsi à l'optimisation des revenus de l'entreprise. Le candidat idéal possède une connaissance approfondie de la modélisation mathématique et statistique, ainsi que des compétences en Machine Learning et en Python. Principales Responsabilités: Le Data Scientist Junior aura pour mission de: Analyser la performance d’un moteur de prédiction lié à l’overbooking. Contribuer à d'autres moteurs de prédiction et d'optimisation dans le projet FIT (Freight Intelligence Techniques). Exigences Clés: Connaissance approfondie de la modélisation mathématique et statistique. Compétences en Machine Learning. Maîtrise des bonnes pratiques Python. Expérience avec les outils : Spark, Python, Git, Bash, SQL. Compréhension des environnements Unix/Linux. Bon niveau d’Anglais écrit et oral. Expérience avec GCP (Google Cloud Platform). Doctorat en Mathématiques ou en Physique. (est un plus). Autres détails: Ce poste est basé à Paris et Amsterdam, au sein du département de Recherche Opérationnelle.
Offre d'emploi
Ingénieur DevOps H/F
Publiée le
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Fed IT, cabinet de recrutement spécialisé dans les fonctions informatiques, recrute pour son client, société de services de 1 000 personnes, un(e) Ingénieur Devops H/F pour renforcer ses effectifs. Rattaché(e) au directeur informatique et au sein d'une DSI d'une vingtaine de personnes, vous arrivez en création de poste et travaillez en binôme avec un autre devops. Ainsi, vous : -Intervenez dans un contexte d'homogénéisation du SI : création et rachat de nouvelles agences, -Accompagnez le projet de conception et maintien d'une architecture cloud solide et efficace, -Suivez les différentes migrations vers le cloud (AWS et Azure), -Mettez en œuvre un maximum d'automatisations, -Assurez la conteneurisation, -Créez les pipelines CI/CD et travaillez en étroite collaboration avec l'équipe externe de développeurs, -Êtes garant(e) de la haute disponibilité des différentes applications du groupe, -Mettez en place des solutions de monitoring et alertes performantes, Contexte : méthodologie Agile avec des sprint plannings et sprint reviews toutes les 3 semaines. Environnement Windows (80 %) et Linux. Rémunération : 45 à 55 K€ bruts/an (fixe selon expérience) + Tickets Restaurant + 18 RTT/an + 1 jour de télétravail/semaine.
Offre d'emploi
Data Analyste (13)
Publiée le
Confluence
Piano Analytics
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'un groupe audiovisuel français. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. Description du poste La Direction Data recherche une prestation en Data Analyse pour accompagner les équipes produits et éditoriales dans l'analyse de la performance de la plateforme de streaming vidéo du groupe. La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes internes, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet) Le maintien du bon fonctionnement des dashboards existants sur Power BI L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne) La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul Le partage de son expertise afin de déployer le marqueur interne sur d'autres produits L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes
Mission freelance
EXPERT TECHNIQUE CYBER SECURITE & DEVSECOPS GENAI
Publiée le
Azure DevOps
Copilot
Cybersécurité
1 an
400-680 €
Île-de-France, France
Télétravail partiel
Les expertises attendues pour réaliser cette prestation sont listées ci-après : • Sécurité opérationnelle sur Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML • Maîtrise des outils de DevSecOps : CI/CD sécurisés, IaC (Terraform, Bicep), Sentinel, Defender for Cloud, Purview • Expertise sur la sécurisation des tenants Azure, souscriptions, RBAC, MFA, Conditional Access, Privileged Identity Management • Expérience terrain sur le design et le déploiement de contrôles de sécurité dans des environnements AI hybrides • Connaissance des risques spécifiques liés aux LLM et aux services GenAI (prompt injection, data leakage, model poisoning) • Références : missions pour des groupes bancaires et industriels sur la sécurisation de plateformes GenAI Microsoft • Compétences complémentaires : scripting (PowerShell, Python), analyse de logs, automatisation de contrôles de sécurité
Mission freelance
Tech Lead - Backend - E-Commerce - Salesforce B2C Commerce Cloud H/F
Publiée le
Salesforce Commerce Cloud
12 mois
500 €
La Défense, Île-de-France
Télétravail partiel
Notre client dans le secteur Retail recherche un/une Tech Lead - Backend - E-Commerce - Salesforce B2C Commerce CloudH/F Description de la mission: Rattaché(e) au Backend Engineering Manager, vous serez en charge des sites e-commerce Europe (actuellement sur la solution Salesforce B2C Commerce Cloud). Vos principales missions : Vous serez intégré(e) au sein d’une équipe de 10 personnes composée d’un Product Manager, d’un SA (System Architect), d’une Scrum Master, deux Tech Lead et cinq développeurs Être le référent technique des applications/sites e-commerce / backend, expert de leur fonctionnement et de leur intégration au sein de l’écosystème technique. Être responsable de concevoir, évaluer, chiffrer et valider des solutions technico-fonctionnelles répondant aux besoins émis par Les équipes Produit. Être responsable du design technique des applications/fonctionnalités développées (i.e. contrats d'interfaces), et de leur évolution au sein de l’écosystème digital. Être force de proposition pour innover et simplifier les architectures en place et alerter des risques et difficultés rencontrées sur la mise en place de nouvelles fonctionnalités. Responsable de la roadmap technique des applications de son périmètre : définir, valoriser, promouvoir les sujets techniques à prioriser dans les sprints pour supporter les enhancements fonctionnels Comprendre les besoins exprimés par les PO et le traduire en solution technique. Éclairer les PO sur les avantages et risques éventuels des solutions envisagées, leurs alternatives, et les implications en termes de coûts et de planning Faire le lien entre les différents partenaires techniques impliqués sur les projets (éditeur, intégrateur, équipes techniques internes qui gravitent autour des sites e-commerce) Accompagner les équipes de dev dans les phases d’estimations/chiffrages / cadrage technique Accompagner les équipes fonctionnelles tout au long de l'implémentation et assurer auprès d’eux un suivi sur leur mise en œuvre. Assurer une veille technologique sur son application et promouvoir des solutions innovantes. Être le relais auprès des équipes de développements des bonnes pratiques, et garant de l’application de la politique sécurité ainsi de la performance et l’exploitabilité de ses systèmes (ex : API) Réaliser ou s’assurer que la documentation technique nécessaire à priori et à posteriori de la réalisation soit réalisée et correctement archivée Être garant de l’automatisation des processus techniques et de l’outillage permettant le passage à l’échelle : release haute fréquence, tests de qualité de codes auto, TU auto … Expertises techniques / globales : Vous êtes passionné de développement et justifiez d’une expérience significative en développement e-commerce. Vous connaissez les technos JAVA, JS, XML, JSON, SOAP, Restfull, SQL, HTML/CSS, Bitbucket, Jenkins, Jira/Confluence… Vous avez déjà travaillé sur Sales Force Commerce Cloud (Sitegenesis ou SFRA), Hybris ou autre plateforme e-commerce… Vous avez une bonne connaissance des API de Salesforce B2C COmmerce (OCAPI/SCAPI) et du fonctionnement des Hooks Vous avez déjà travailler sur la mise en place de Fluent OMS dans B2C Salesforce CommerceCloud Vous avez déjà développé/mise en place plusieurs JOBs. Vous maitrisez l’ensemble des Features que propose le Business Manager aussi bien côté Merchant Tools qu’Organization. Vous êtes sensibilisé aux méthodologies Agiles (Scrum/Kanban/SAFE), à la culture DEVOPS. Vous êtes en perpétuelle veille technologique. Vous êtes doté d’un excellent sens analytique et de synthèse. Une connaissance des KPI Webperf et des leviers à actionner dans le code pour les faire progresser serait un très gros plus. Capacité à comprendre & appréhender les besoins fonctionnels Écouter et comprendre les enjeux technico-fonctionnels des projets Orienter et conseiller en tenant compte des contraintes projet, sécurité, design Comprendre les enjeux et priorités business Adopter une approche proactive, force de proposition et orientée solutions Anticiper et s’adapter selon les priorités Savoir-être : Voit les problèmes et les obstacles comme des challenges Sait proposer / prioriser et s’adapter en toutes circonstances Sait s’intégrer à une équipe, se faire apprécier pour ses qualités/compétence et adopter une attitude positive avec ses clients et ses collègues Forte culture e-commerce et en technologies digitales Rigueur au quotidien, les travaux sont reconnus pour leur qualité Sens de l’écoute, du dialogue et de la communication Pédagogie et capacité à vulgariser pour être une interface avec les interlocuteurs métiers Sait faire preuve de créativité, d’innovation autant que possible Autonome, sérieux, investi et garant de ses livrables. Regard critique Compétences / Qualités indispensables : SFCC, salesforce, anglais, xml, JAVA, Agile Compétences / Qualités qui seraient un + : Experience retail Informations concernant le télétravail : 2 jours
Mission freelance
Product Owner Data Sénior Localisation : Paris– La Défense (TT possible : 2 jours / semaine)/ko
Publiée le
Méthode Agile
6 mois
400-470 £GB
Paris, France
Télétravail partiel
Product Owner Data Sénior Localisation : Paris – La Défense (Télétravail possible : 2 jours / semaine) Objectif de la mission Assurer le Product Ownership des socles Data pour le programme Data Performance, afin de : maximiser la valeur business, garantir l’adoption des produits par les métiers, sécuriser la performance des traitements et le passage en RUN. Le consultant sera également amené à collaborer avec le Product Manager transverse et à accompagner la transformation Data dans l’organisation. Missions principales 1. Product Ownership des socles Piloter le backlog des socles et prioriser les évolutions en fonction des besoins métiers. Rédiger user stories et spécifications fonctionnelles pour les fonctionnalités critiques. Assurer la cohérence fonctionnelle avec les objectifs métiers : CA, performance commerciale, nouveaux services marketing. Préparer le passage en RUN et accompagner l’adoption des produits par les métiers. Suivre les traitements existants, le legacy, les référentiels et les adhérences. 2. Collaboration avec le Product Manager transverse Participer à la structuration et pilotage industriel des socles Data . Contribuer à la roadmap Data à 3 ans , et à la mise en place du PI Planning . Déployer des KPIs orientés valeur business pour mesurer l’impact des socles et des cas d’usage. Préparer les supports de COPIL / CEB / COPROJ , incluant avancement, risques et indicateurs de valeur. 3. Accompagnement de la transformation Data Décliner les orientations de la transformation (audit plateforme Data) dans les pratiques des socles et zones business. Suivre les pilotes New SAPO et Distribution , sécuriser leur mise en œuvre et généraliser les bonnes pratiques. Contribuer à la conduite du changement : acculturation, formation, communication et montée en maturité des équipes métiers et SI. Livrables clés Backlog et priorisation des évolutions des socles User stories / spécifications fonctionnelles Roadmap Data à 3 ans KPI de valeur business et supports de pilotage pour COPIL / CEB Documentation sur la transformation Data et accompagnement au changement Profil recherché Expérience Product Owner Data dans des grands groupes ou environnements complexes Connaissance en transformation Data et Data Office Capacité à travailler avec les métiers et la DSI pour traduire les besoins en solutions Data opérationnelles Maîtrise des concepts modernes de data architecture , notamment Data Mesh et gestion de référentiels Expérience Agile / PI Planning / gestion de roadmap Data Orientation forte valeur business , capacité à mesurer et suivre l’impact des socles et produits Data Idéalement : connaissance environnement transport (données clients, données commerciales / financières)
Mission freelance
Expert Big Data – Spark / Airflow – Secteur Bancaire
Publiée le
Apache Airflow
Apache Spark
12 mois
400-460 €
Montreuil, Île-de-France
Dans le cadre de notre développement, nous recherchons un Expert Big Data pour accompagner un acteur majeur du secteur bancaire sur des projets stratégiques liés à la transformation et à l’optimisation de ses plateformes de données. Le consultant aura un rôle clé dans l’architecture et la mise en œuvre des pipelines Big Data, garantissant performance, scalabilité et conformité aux exigences métier et réglementaires. Objectifs de la mission : Conception et développement de pipelines Big Data Définir et mettre en place des architectures de traitement de données complexes. Développer et optimiser des workflows Spark et Airflow pour des traitements batch et temps réel. Assurer la qualité, la fiabilité et la performance des pipelines. Support stratégique et technique Conseiller les équipes sur les choix technologiques et les bonnes pratiques Big Data. Participer à la définition de la stratégie de données et à la roadmap technique. Collaborer étroitement avec les équipes métier et IT pour anticiper les besoins et prioriser les évolutions. Gouvernance et qualité des données Garantir la conformité des pipelines aux normes de sécurité et réglementaires du secteur bancaire. Mettre en place des mécanismes de supervision, de monitoring et d’alerte. Assurer la documentation technique et fonctionnelle des solutions déployées.
Mission freelance
Web / Data Analyst Piano Analytics H/F/NB
Publiée le
Analyse
Google Cloud Platform (GCP)
Microsoft Power BI
210 jours
400-580 €
Île-de-France, France
Télétravail partiel
Leader des médias français , notre client recherche un Data Analyst expérimenté pour accompagner la transformation digitale de ses offres numériques. Rejoignez la Direction Data et contribuez à faire de la donnée un levier stratégique de croissance. 🚀 Vos missions : Pilotage & Reporting Créer et automatiser des dashboards Power BI pour les équipes Growth (CRM, Acquisition, Social) Recueillir les besoins métier et rédiger les cahiers des charges techniques Superviser la qualité des données et optimiser les performances des rapports existants Analyse & Insights Analyser les données Piano Analytics, Nielsen/eStat Streaming Étudier les parcours utilisateurs et la consommation vidéo (Web/App/TV) Produire des analyses mensuelles et recommandations actionnables Collaborer avec l'équipe Études pour approfondir la connaissance utilisateur Formation & Accompagnement Former et coacher les équipes internes sur Piano Analytics et les outils d'analyse Sensibiliser à l'intégration de la data dans les processus de décision Vulgariser les concepts techniques pour des équipes non-techniques Stratégie Data Définir et harmoniser les KPIs transverses pour les équipes Growth, Produit et Métiers Spécifier les prérequis de tracking pour les analyses futures Contribuer au déploiement du marqueur interne sur de nouveaux produits
Mission freelance
Data Analyst / Expert PowerBI Senior (F/H)
Publiée le
1 an
400-550 €
Moissy-Cramayel, Île-de-France
Télétravail partiel
Data Analyst / Expert PowerBI - Freelance - Moissy-Cramayel - 400-550€/jour Contexte : Nous recherchons un Data Analyst Power BI pour une mission d’environ trois mois et demi. L’objectif est de développer et d’améliorer plusieurs outils de pilotage et d’analyse de données dans un contexte industriel complexe. Missions : Concevoir et mettre à jour des tableaux de bord Power BI à partir de données issues de différents systèmes internes. Structurer, fiabiliser et analyser des volumes importants de données afin d’identifier des tendances, alertes et axes d’amélioration. Mettre en place des courbes d’évolution, simulations et indicateurs personnalisés. Reprendre et corriger des tableaux de bord existants afin d’assurer la cohérence entre données sources et résultats affichés. Préparer des livrables clairs et documentés pour faciliter l’exploitation et la maintenance des outils développés. Collaborer avec les équipes métiers pour comprendre les besoins, recueillir les retours et ajuster les outils en conséquence. Compétences requises : Maîtrise avancée de Power BI : modélisation de données, mesures, visuels, automatisation, gestion de filtres. Solide expérience en traitement et structuration de données multidimensionnelles. Capacité à analyser des données techniques, détecter des signaux faibles et produire des indicateurs pertinents. Aisance dans la mise en forme de rapports et la présentation de résultats. Rigueur, autonomie, sens du détail et capacité à travailler avec des interlocuteurs variés.
Mission freelance
chef de projet MOE C# - Cergy (1 jour TT)/s
Publiée le
C#
Cloud
MOE
12 mois
Cergy, Île-de-France
Télétravail partiel
chef de projet MOE C# pour travailler dans l’équipe Plan d’actionnariat Managers et Salariés sur des projets métier et techniques. Compétences requises : · Expérience d’au moins 5 ans en tant que chef de projet MOE idéalement avec une expérience de migration d’application dans le Cloud · Aptitudes en résolution de problèmes · Capacité à travailler en équipe et de manière autonome · La connaissance du métier de la finance est un plusLocalisation CERGY / Télétravail 1 jour par semaine Durée de la mission : 2 ans Tâches : · Cadrage du projet d’évolution avec la MOA · Conception fonctionnelle · Conception technique · Rédaction de la stratégie de tests de recette, du plan de test, des cas de test · Exécution des tests de recette · Support aux utilisateurs Pilotage des différents acteurs du projet (développeurs et contributeurs), suivi budgétaire, établissement du plan de charge, reporting régulier, remontée des alertes. Compétences requises : · Expérience d’au moins 5 ans en tant que chef de projet MOE idéalement avec une expérience de migration d’application dans le Cloud · Aptitudes en résolution de problèmes · Capacité à travailler en équipe et de manière autonome · La connaissance du métier de la finance est un plus
Mission freelance
Data Analyste Confirmé SQL Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos
Publiée le
Microsoft Power BI
SQL
12 mois
390-400 £GB
Mer, Centre-Val de Loire
Télétravail partiel
Data Analyste Confirmé SQL Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos pour une mission sur MER. Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. Contexte : Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. Missions principales : Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. Compétences requises : - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). Connaissances métier : Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. La mission est sur Mer (proche d'Orleans) - Mission sur le long terme
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3380 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois