Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 776 résultats.
Offre d'emploi
TECH LEAD IAM, DATA, CHIFFREMENT
KEONI CONSULTING
Publiée le
API
Cloud
Code Review
18 mois
20k-60k €
100-600 €
Paris, France
CONTEXTE: Nous recherchons un tech lead IAM, DATA, CHIFFREMENT Missions : En tant que Tech Lead de la tribe IAM – Data – Chiffrement « IDC » au sein de l’Engineering Platform, vous êtes le garant de la qualité, de la sécurité et de la conformité des solutions délivrées, en respectant les standards IT et les exigences règlementaires. Vous définissez et pilotez la conception technique des produits et solutions IAM, Data et Chiffrement, en proposant des solutions robustes et optimisées pour répondre aux besoins métiers tout en maximisant la valeur générée. Leader technique et coach, vous accompagnez la montée en compétences des équipes, favorisez l’adoption des bonnes pratiques et insufflez une culture d’excellence. Acteur clé de la transformation, vous contribuez à l’intégration des approches Agile, DevSecOps et à l’industrialisation des processus (automatisation, sécurité by design, test & learn) Volet Organisation & Management • Encadrer et animer l’équipe, incluant les collaborateurs internes et les prestataires, en assurant le mentorat et la montée en compétences. • Participer au recrutement et à la sélection des prestataires, garantir l’adéquation des profils avec les besoins techniques et organisationnels. • Définir la roadmap, prioriser les initiatives et garantir leur alignement avec les objectifs stratégiques de la Direction Technique. • Se positionner comme point d’entrée identifié vis-à-vis des directions (DSSI, Fabrication, Communication, RH…), centraliser les demandes, orienter les arbitrages techniques et synchroniser les priorités avec les équipes opérationnelles et projets.. • Piloter les rituels Agile (daily, sprint planning, sprint review, retrospective) dans les cadres Scrum/Kanban et intégrer des approches d’innovation (Design Thinking) lorsque pertinent. • Participer activement aux comités de pilotage et aux ateliers techniques • Assurer la coordination transverse avec les équipes projets, production et sécurité pour garantir la cohérence des livrables. • Identifier les risques, proposer des solutions et veiller à la qualité et la conformité des livrables • Promouvoir les bonnes pratiques techniques et organisationnelles (IAM, Data, Chiffrement, DevSecOps) et la culture d’amélioration continue Volet Technique • Maitrise des sujets liés aux systèmes d'information et aux technologies de l'information. • Connaissances des protocoles d’authentification et de fédération : SAMLv2, OpenID Connect, OAuth2, ainsi que les standards de sécurité avancés (WebAuthn, FIDO2,). • Intégrer et paramétrer les solutions dans les environnements Cloud et conteneurisés (Iaas, Paas, Conteneurisation & Orchestration, CI/CD & Automatisation, Cloud IAM & Sécurité). • Définir les standards et bonnes pratiques pour la mise en œuvre des mécanismes de chiffrement et de hash : Java Crypto, chiffrement symétrique et asymétrique, gestion des clés et certificats. • Orienter les développements applicatifs en Java / Spring Boot / JEE, en veillant à l’application des principes de Clean Code et à l’utilisation des standards d’API (SOAP, REST). • Superviser l’administration et l’optimisation des bases de données PostgreSQL en veillant à la performance et à la sécurité. • Garantir la résilience et la disponibilité des plateformes en intégrant des mécanismes de haute disponibilité et de reprise (PCA/PRA). • Orienter l’intégration des solutions IAM et de chiffrement dans des environnements Cloud IaaS/PaaS (AWS, Azure, GCP) et l’orchestration via Kubernetes, Docker, en collaboration avec les équipes DevOps. • Contrôler la conformité des pipelines CI/CD sécurisés (GitHub Actions, Jenkins) et des déploiements automatisés, sans réaliser directement les opérations. • Superviser la mise en place des outils d’observabilité (Grafana, Prometheus, Loki) pour garantir la disponibilité et la performance des services IAM et Cloud. • Promouvoir l’intégration des pratiques SRE (Site Reliability Engineering) et DevSecOps dans les cycles de développement et d’exploitation. • Valider la configuration et la maintenance des socles techniques en assurant la résilience et la sécurité des flux. • Promouvoir l’intégration des pratiques DevSecOps dans les cycles CI/CD et les développements applicatifs. • Veille technologique active sur les pratiques IAM, Cloud, DevSecOps et SRE afin d’anticiper les évolutions et proposer des solutions innovantes. RÉSULTATS ATTENDUS • Implémenter les besoins IAM des clients internes et contribuer aux livraisons des projets • Communiquer les difficultés rencontrées et être force de proposition pour des solutions et des améliorations continues • Accompagner la résolution des anomalies liées aux livraisons et proposer des actions correctives • Concevoir et documenter des scénarios de tests manuels et automatisés • Analyser, recommander et mettre en œuvre la montée en charge de la solution IAM • Garantir le MCO de la solution IAM via des outils automatisés • Participer à l’amélioration continue en fournissant des feedbacks constructifs • Rédiger et maintenir la documentation technique • Participer activement aux cérémonies Agile et aux réunions projets • Suivre et exécuter les actions projets qui lui sont confiées PROFIL & COMPETENCES. Techniques • Systèmes Linux, RedHat & Réseaux • Loadbalacing (VIP, SLB, HaProxy) • Gestion de la Base de données (PostgréSQL et cluster) • Maitrise des architectures réseaux distribuées et résilientes • Expertise dans les architectures de conteneurisation et les outils d’automatisation et de déploiement continu (Terraform, Ansible, Kubernetes, Docker, CI/CD, GitHub Actions, Jenkins). • Keycloak : administration, installation, tunning , configuration • Solides connaissances des protocoles de sécurité (SAMLv2, OpenIdConnect, OAuth2, WebAuthn, FIDO2), des schémas de sécurité et des enjeux associés. • Maîtrise des outils d’observabilité Grafana et Prometheus pour la supervision et le monitoring des environnements. • Maitrise JAVA / Springboot / JEE, SOAP, API et des principes « Clean Code » • Capacité à appliquer les pratiques Agile (Scrum, Kanban, Design Thinking, Agile@Scale) et à utiliser efficacement les outils de gestion (Jira, Confluence), tout en respectant les standards ITIL pour la qualité et la continuité des services • Accompagner les équipes dans la mise en œuvre des tests unitaires, d’intégration et de performance, et contrôler la conformité des résultats avec les standards de qualité et de sécurité. • Connaissance générale de l’architecture applicative Organisationnelles • Leadership et capacité à fédérer des équipes pluridisciplinaires. • Gestion de projet avec maîtrise des méthodologies Agile/Scrum et des rituels associés. • Communication claire et aptitude à vulgariser des sujets techniques pour des interlocuteurs non techniques. • Force de proposition et esprit d’amélioration continue pour optimiser les processus et les pratiques. • Capacité à travailler en transverse avec les équipes métiers, techniques et les autres directions. • Pilotage de roadmap et alignement stratégique avec les objectifs de la Direction Technique et des parties prenantes. • Coordination inter-directions pour fluidifier les échanges et synchroniser les priorités. • Surveiller les risques et coordonner les actions correctives pour garantir la continuité. • Animation des comités et rituels (Scrum/Kanban, ateliers techniques, comités de pilotage). • Promotion des bonnes pratiques (IAM, DevSecOps, sécurité, qualité) et de la culture d’amélioration continue. Souhaitées : • Expériences bancaires et/ou moyens de paiements • Connaissance de l’écosystème • Anglais professionnel
Mission freelance
Expert Senior Google Workspace & Data/IA – Freelance – Niort (79)
Wekey
Publiée le
Google Workspace
6 mois
600-700 €
Niort, Nouvelle-Aquitaine
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN, ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? 😁 Pour découvrir qui nous sommes et surtout votre future mission , c’est juste ici 👇 Vous êtes Expert Google Workspace / Data / IA , freelance, et à la recherche d’un projet à forte valeur ? Nous avons exactement la mission que vous cherchez, pour l’un de nos clients majeurs du secteur assurantiel, basé à Niort. 👀 CE QUI VOUS ATTEND Dans le cadre de sa grande transformation digitale, notre client recherche un Expert Senior hybride , capable d’assurer le lien entre : les enjeux métiers, la donnée, les usages collaboratifs, et l’IA générative (Gemini). Votre rôle sera stratégique et transversal. Rien que ça 😎 Vous interviendrez sur l’ensemble de l’écosystème Google Workspace et son extension Data & IA. 🎯 VOS MISSIONS Volet Data & Analytics – Looker & BigQuery Conception et maintenance de modèles LookML avancés . Création de dashboards stratégiques : adoption, performance, RSE. Requêtage SQL BigQuery (optimisation des coûts, structuration des datasets). Définition d’indicateurs RSE : infobésité, hyperconnexion, sobriété numérique. Volet IA Générative – Gemini & Innovation Participation active au Centre d’Expertise IA du client. Référent technique et fonctionnel sur Gemini . Animation de la communauté IA : webinars, guides, cas d’usage. Déploiement de solutions IA : assistants virtuels, synthèses, automatisations rédactionnelles. Volet Google Workspace – Administration & Fonctionnel Administration avancée : sécurité, DLP, Context-Aware Access, supervision. Automatisation des processus via AppSheet et Apps Script . Accompagnement de la migration Office → GWS (Excel/VBA → Sheets/Apps Script/BigQuery). Support AMOA/PO : roadmap produit, user stories, conduite du changement.
Mission freelance
Business Analyst Data (F/H)
CELAD
Publiée le
1 an
410-460 €
Nantes, Pays de la Loire
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Freelance / Portage - 3 jours de télétravail / semaine - Nantes - Expérience de 4 ans minimum Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst intervenir sur un projet d’un de nos clients, dans le secteur bancaire. Contexte : Dans le cadre d’un projet de migration, vous interviendrez sur des activités telles que la rédaction de spécifications, l’analyse des impacts liés à la migration du système ainsi que la participation aux processus de certifications dynamiques. Vos principales missions : En lien avec les équipes métier et techniques, vous serez le trait d’union qui transforme les idées en solutions concrètes. - Comprendre les besoins des utilisateurs : animation d’ateliers pour challenger et prioriser les besoins - Rédiger les fonctionnalités / spécifications et les règles de gestion - Anticiper les besoins en termes de migration : anticipation, préparation et déroulé optimal de recette - Former et accompagner : vous aidez les métiers à s’approprier les outils et les usages - Conseiller les managers métiers : vous les guidez dans l’évolution de leur organisation et de leurs process - Partager et convaincre : animation de comités, restitution des analyses, recommandations stratégiques Ce que vous apportez : - Vous comprenez le fonctionnement d’un ETL et êtes capable de lire et analyser un flux ou un programme idéalement sous Semarchy - Maîtrise du langage SQL (Requêtes complexes pour rentrer en base) - Vous êtes à l’aise dans les environnements agiles, avec une bonne maîtrise des rituels - Vous savez rédiger avec clarté, parler avec impact et surtout convaincre - Vous êtes capable de vous adapter à vos interlocuteurs
Offre d'emploi
Senior Data Scientist
LIANEO
Publiée le
ClickHouse
Kubernetes
Python
55k-75k €
75009, Paris, Île-de-France
Au sein d'un acteur à la pointe de l'innovation dans le secteur des médias de détail, en tant que plateforme SaaS pionnière. Votre mission 👇 Vous intégrerez la nouvelle équipe data basée à Paris et serez chargé(e) de concevoir les premiers algorithmes d'apprentissage profond qui rendront les produits plus intelligents. La plateforme traite des milliards de logs par jour et alimente un data mart partagé entre toutes les équipes. Les produits de données sont déployés sur un cluster Kubernetes qui orchestre les tâches Python, en collaboration avec un cluster ClickHouse. Vous aurez l'opportunité de travailler en partant de zéro, sans contraintes ni dépendances vis-à-vis des systèmes existants, dans un environnement dynamique et ouvert où votre contribution sera significative. Vous collaborerez avec un ingénieur de données déterminé à développer les outils et solutions nécessaires au fonctionnement de nos algorithmes. Ce que vous ferez ✏️ Mettre en place les premiers composants d'apprentissage automatique et statistiques de la plateforme de science des données Traduire les problèmes commerciaux et les besoins en fonctionnalités en problèmes d'apprentissage automatique Ont un impact important sur la mise en œuvre des modèles ainsi que sur leur déploiement. Mettre en place des pipelines de formation continus Déployer et surveiller les modèles et mettre en œuvre les bonnes pratiques en matière d'apprentissage automatique
Mission freelance
ACHETEUR Domaine Market Data/s
WorldWide People
Publiée le
Pilotage
12 mois
Paris, France
ACHETEUR Domaine Market Data . Démarrage ASAP Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
Offre d'emploi
Data Analyst H/F CDI UNIQUEMENT
Proxiad
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
SQL
Île-de-France, France
Poste de Data Analyst IT au sein des produits Data Usages Retail. Au sein d'une Squad du produit, elle ou il aura en mission - Recueil et analyse des besoins métiers, ainsi que l’évaluation de leur faisabilité (avec les équipes métiers et les banques) - Proposition de solutions et chiffrage des travaux - Rédaction des spécifications fonctionnelles à destination des Data Engineers - Réalisation de tableaux de bord sur Power BI - Suivi des développements et des recettes (planification et coordination des phases de recette avec les métiers et/ou les banques) - Participation à la maintenance du SI (suivi de production et résolution des incidents) - Support d'expertise : fournir un soutien pour des demandes d'expertises ponctuelles.
Offre d'emploi
Data Scientist / Expert IA (H/F) expérimenté – Paris – PhD
Cogniwave dynamics
Publiée le
Agent IA
Artificial neural network (ANN)
AWS Cloud
5 ans
Paris, France
Nous recherchons un(e) Data Scientist / Expert IA disposant d’un doctorat (PhD) en Machine Learning / NLP ou domaine proche, pour rejoindre nos équipes à Paris au sein de projets à forte valeur ajoutée en intelligence artificielle appliquée. Profil PHD EXPERIMENTE ayant plusieurs expériences profesionnelles concrètes CDI de préférence (ouvert aux freelance pour certaines missions) Projets sur Paris, luxembourg ou Belgique Votre rôle Concevoir, développer et industrialiser des solutions d’IA (NLP, LLM, IA générative) au service de cas d’usage métiers concrets. Participer à la définition des architectures data/IA et aux choix technologiques associés (cloud, outils, librairies). Contribuer à la mise en production des modèles (qualité, performance, robustesse) en lien étroit avec les équipes produit et métier. Intervenir sur tout le cycle de vie des projets : cadrage, POC, expérimentation, déploiement, suivi et amélioration continue. Ce que nous offrons Des projets IA de pointe, avec un fort niveau d’autonomie et de responsabilité. Un environnement stimulant, à l’interface entre R&D, innovation et enjeux business. Un cadre parisien dynamique, au sein d’équipes passionnées par l’intelligence artificielle et son impact concret. 🗼
Mission freelance
chef de projet DATA ETL - Checy/su
WorldWide People
Publiée le
ETL (Extract-transform-load)
Pilotage
12 mois
370-400 €
Chécy, Centre-Val de Loire
chef de projet DATA ETL Checy Localisation : Chécy, 2 jours de TT apres 3 mois de full présentiel. Profil recherché : Consultant confirmé en gestion de projets et maintenance applicative. Expérience significative dans les activités décisionnelles (alimentation et restitution d'informations). Connaissance des fonctionnalités ETL (idéalement XDI, ODI, Talend/Sas/Azure/Snowflake). La maitrise d’un outil de gestion de projet (Clarity), de ticketing (Jira) est nécessaire. La maitrise d’un outil de recette (Squash) serait un plus. Très bon communiquant, grande rigueur, méthodologie et bon relationnel seront les atouts du candidat. Ci joint le descriptif de mission : La mission consiste à gérer les projets et la maintenance sur le périmètre métier «Décisionnel» en délégation du pilote de projets référent du domaine. Il interviendra en tant qu’interlocuteur privilégié de l’AMOA Décisionnel pour l’exécution des projets et de la maintenance applicative du domaine. Le chef de projet participera à toutes les phases, du cadrage à la préparation de la mise en production. Il prendra en charge la mise à jour hebdomadaire du planning, le suivi des charges et le reporting associé. Il assurera la préparation et le passage en Comité d’architecture en collaboration avec l’équipe d’architectes Thélem. Il assurera également le pilotage quotidien de l’avancement auprès des équipes de réalisation et de recette, préparera et animera les ateliers et instances de pilotage (COMOP, daily, …). Profil recherché : Consultant confirmé en gestion de projets et maintenance applicative. Expérience significative dans les activités décisionnelles (alimentation et restitution d'informations). Connaissance des fonctionnalités ETL (idéalement XDI, ODI, Talend/Sas/Azure/Snowflake). La maitrise d’un outil de gestion de projet (Clarity), de ticketing (Jira) est nécessaire. La maitrise d’un outil de recette (Squash) serait un plus. Très bon communiquant, grande rigueur, méthodologie et bon relationnel seront les atouts du candidat. Début de mission : Début mars 2026
Offre d'emploi
Data Analyst - BI
VISIAN
Publiée le
BI
Microstrategy
3 ans
40k-50k €
400-440 €
Montpellier, Occitanie
Nous recherchons un Data Analyst intervenant au sein d’un chapitre data transverse , en lien avec plusieurs squads métiers, dans un environnement bancaire. La mission combine BI traditionnelle et analyse des parcours digitaux avec une forte dimension conseil auprès des équipes métiers. Missions principales Recueil des besoins data via ateliers avec les équipes métiers Collecte, exploitation et analyse de données Construction de tableaux de bord et indicateurs décisionnels Présentation et vulgarisation des résultats aux métiers Mise en œuvre du tracking digital sur les parcours utilisateurs Spécifications et recette du plan de marquage Analyses marketing et recommandations d’optimisation Contribution à la gouvernance data et amélioration continue Environnement technique MicroStrategy SQL avancé / Teradata Tracking digital : Tag Commander, Piano Analytics, Cosmo Survey Pipelines de restitution de données Profil recherché Expérience en analyse data dans un environnement bancaire Autonomie et capacité à challenger les besoins Excellente communication et pédagogie Capacité d’adaptation à des interlocuteurs variés Prise de lead sur les sujets data Localisation Montpellier Présence sur site minimum 3 jours par semaine Candidats basés exclusivement à Montpellier ou alentours proches
Offre d'emploi
Data Analyst Snowflake/Tableau/SQL
OBJECTWARE
Publiée le
Snowflake
Tableau Desktop
3 ans
40k-67k €
400-550 €
Île-de-France, France
Les attendus sont les suivants : - Migration de requêteurs sous TABLEAU ou directement en SQL pour certaines grosses requêtes. - Recette des requêtes migrées & analyse des écarts - Accompagnement potentiel des utilisateurs finaux dans l'utilisation de Tableau - Industrialisation / Automatisation des requêtes Prestations demandées Compétences requises : - +++ SNOWFLAKE - +++ SQL - +++ TABLEAU (bonnes connaissances techniques : modélisation de sources de données, modélisation de requêtes, optimisation) - ++ EXCEL - connaissances avancées (macro et potentiellement VBA) - + Connaissance de l'assurance - +++ Bonne capacité d'analyse d'écarts entre les requêteurs existants et les requêteurs migrés pour faciliter l'explication et la résolution de ces écarts - +++ Rigueur / documentation des sujets traités - +++ Proactivité, Autonomie
Offre d'emploi
Data Engineer Databricks - Lyon
KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks
45k-55k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
Proxy PO build - Snowflake + Power BI
FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake
1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Mission freelance
Data Analyst Expert
Codezys
Publiée le
6 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Analyser, structurer et valoriser les données prescriptives du SIP afin de transformer des données issues de documents en référentiels exploitables, au service de la performance et de la décision métier. Objectifs et livrables Responsabilités clés Mettre en qualité et transformer les données prescriptives Réaliser des analyses statistiques descriptives Identifier et structurer les référentiels métier Produire des tableaux de bord et visualisations (Power BI) Restituer les résultats aux commanditaires métiers Travailler en collaboration étroite avec les équipes produit et data Environnement technique Google Cloud Platform (GCP) Outils data et BI Power BI Conformité aux principes data et SI Vision 2035 Compétences attendues Solide expérience en analyse de données Capacité à passer du document à la donnée structurée Bonne compréhension des enjeux métiers Capacité de restitution et de pédagogie Orientation valeur et usage
Offre d'emploi
BA & Développeur Data - Tours
Argain Consulting Innovation
Publiée le
Dataiku
Tableau software
6 mois
33k-37k €
410-440 €
Tours, Centre-Val de Loire
Nous recherchons un renfort au sein de notre équipe domaine projets pour prendre le lead sur différents sujets : Objectifs de la mission : Représenter D&A dans les instances projets (COPRO / Atelier) Être en capacité de jongler sur différents projets Synthétiser les échanges (atelier/COPRO) pour partager les sujets, proposer des solutions, chiffrer et planifier Faire le suivi des sujets à travers JIRA Être en capacité de faire des développements ( DSS - Dataiku en SQL ou recipe visuel) ou d'accompagner un collègue sur des développements à faire Restituer les infos projets dans les instances d'équipes
Offre d'emploi
Data engineer Dataiku
ANDEMA
Publiée le
Dataiku
SAS
1 an
45k-60k €
400-550 €
Île-de-France, France
Contexte : Accompagnement d’un projet stratégique de migration SAS vers Dataiku , dans le cadre du décommissionnement de SAS et de la transition vers le cloud. Missions : Piloter la conduite du changement et l’adoption de Dataiku par les équipes métiers et IT. Valoriser Dataiku face à SAS : ateliers, démonstrations et argumentaires orientés valeur métier. Administrer la plateforme : licences, utilisateurs, monitoring, mises à jour. Développer des plugins et automatisations : conversion SAS → Parquet, exports, traitements conditionnels. Définir et diffuser les bonnes pratiques sur stockage, moteurs de calcul et fonctionnalités Dataiku. Coacher les équipes SAS pour une adoption progressive et sereine . localisation : ile de france 2jours de TT/semaine
Mission freelance
Product Owner CRM – Data Client BtoB & Prospection
SKILLWISE
Publiée le
CRM
Salesforce
1 mois
400-550 €
Paris, France
Notre client, un acteur majeur du secteur des médias et de la publicité, recherche un(e) Product Owner CRM – Data Client BtoB & Prospection pour rejoindre sa Direction des Technologies. Cette direction opère et transforme les systèmes IT et techniques du groupe, en interface avec l’ensemble des métiers (commercial, production, diffusion, etc.). Au sein du Pôle Produits Publicitaires, vous contribuerez à la conception, au développement et à la maintenance d’outils stratégiques, notamment autour de la gestion de la relation client (CRM), de la data BtoB et des processus de prospection. Votre mission : piloter la transformation digitale du référentiel client et des outils de prospection dans un environnement Salesforce. En tant que Product Owner, vous serez responsable de : Définir et piloter la roadmap produit : Construire la vision, prioriser le backlog et garantir la cohérence du système d’information. Recueillir et formaliser les besoins métier : Rédiger les spécifications fonctionnelles et accompagner les équipes commerciales dans l’adoption des solutions. Coordonner les équipes techniques : Assurer le delivery et la qualité des livrables en mode agile. Garantir l’adoption des nouvelles fonctionnalités : Former et mobiliser les utilisateurs pour maximiser l’impact business.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1776 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois