Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 195 résultats.
Offre d'emploi
Chef de projet Data & BI H/F
Publiée le
IDT
39k-45k €
Auvergne-Rhône-Alpes, France
Télétravail partiel
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Chef de projet Data & BI H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la donnée, la BI et la conduite de projets décisionnels ? Ce poste est fait pour vous. En tant que Chef de projet Data & BI , vous êtes responsable du pilotage , du développement et du déploiement de notre écosystème : Côté build : Prendre en charge l’ensemble des phases projet : recueil & analyse des besoins métier, spécifications, développement et déploiement. Concevoir et modéliser les architectures décisionnelles (datawarehouse, datamarts, modèles relationnels). Développer et maintenir les dataviz dynamiques et intuitives (SAP BO, Need4Viz, Power BI, QlikSense). Mettre en œuvre et optimiser les flux d’alimentation ETL (SAP BODS souhaité). Réaliser les recettes techniques et fonctionnelles : TU, TNR, scénarios, tests de cohérence des données. Garantir la qualité, la cohérence et la sécurité des données dans le respect du RGPD Côté run : Assurer le suivi et la maintenance évolutive des solutions décisionnelles existantes. Diagnostiquer les problématiques data/BI et proposer des solutions pertinentes et performantes. Accompagner les utilisateurs dans l’appropriation des outils BI et assurer un support de proximité. Surveiller la qualité, la cohérence et l'intégrité des données dans le datawarehouse. Maintenir les plateformes BI : SAP BO 4.3, Need4Viz, 360Suite, Infoburst, Power BI, QlikSense. Optimiser les performances des requêtes SQL et des traitements décisionnels. C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements de chefferie de projet dans le domaine de la Data & BI exigeants. Vous aimez analyser, modéliser, concevoir et livrer des solutions décisionnelles de qualité , tout en innovant. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Maîtrise de SAP BusinessObjects 4.3 (WebI, IDT, CMC) et de Need4Viz . Très bonne maîtrise du SQL , des bases Oracle / SQL Server , et de la modélisation relationnelle. Expérience en ETL , idéalement SAP BODS, sur des flux complexes. Excellentes compétences en dataviz et en conception de tableaux de bord dynamiques. Connaissance de 360Suite , Infoburst , Power BI et QlikSense appréciée. C’est votre manière de faire équipe : Forte capacité d’analyse et de résolution de problématiques. Esprit critique, force de proposition et goût pour le fonctionnel métier. Curiosité, autonomie et rigueur en toutes circonstances. Sens aigu de la qualité et de la sécurité des données. Excellent relationnel et esprit collaboratif. C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2j Salaire : De 39000€ à 45000€ (selon expérience) brut annuel Famille métier : Data & BI Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
Chef de programme Data / Banque - Migration Datalake
Publiée le
12 mois
500 €
France
Chef·fe de Programme Data - Migration Datalake 🚀 Lieu : Paris 📍 * Contrat : Freelance/Assistance technique 🤝 * Démarrage : Jan 2026 ⏱️ * Durée : jusqu'au 31/12/2026 (~218 j) 🗓️ Mission 🎯 Piloter la migration d'un datalake local vers un datalake groupe dans un environnement international (organisation globale basée aux 🇳🇱). Assurer la gouvernance et le pilotage : planning, actions log, risk log, roadmap, tableaux de bord, reporting direction 📊. Garantir l'intégrité des données et la continuité des reportings réglementaires (Finance, Paiements, Transactions, KYC) ✅. Co‑gestion du programme avec un prestataire offshore et un Program Manager au niveau groupe 🤝. Animation des instances (comités projet/direction), coordination équipes métiers & IT, levée d'obstacles, suivi des livrables 🧭. Environnement & périmètre 🔍 Migration lake‑to‑lake avec forte dimension data governance et qualité de données. Publics variés : technique, métier et exécutif (adaptation du discours, synthèse et pédagogie) 🗣️. Cadence structurée : plans d'itération, revues de risques, points d'alignement multi‑stakeholders 📑. Profil recherché 👤 10-15 ans en program management / projets data complexes (banque/assurance idéalement) 🏦. Solides bases en data modeling et architecture data 🧠. Expérience avérée des livrables de gouvernance (plans, dashboards, rapports de direction) 🧾. Outils : ETL (DataStage / pipelines) & Power BI 🛠️. Leadership d'influence, excellente communication (tech ↔ business) et capacité à aligner des équipes pluridisciplinaires 🎛️. Français courant 🇫🇷 & anglais professionnel 🇬🇧 (impératif). Modalités 🧩 🏢 * Pas de déplacements ✈️ * Pas d'astreintes 🌙. Périmètre France avec interface groupe : coordination locale/globale 🔄.
Mission freelance
Data Engineer Hadoop – Secteur Assurance
Publiée le
Big Data
Hadoop
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Mission freelance
CONSULTANT AMOA COLLECTE SOLVENCY 2- DELIVERY PRUDENTIEL
Publiée le
Big Data
SAS
SQL
18 mois
100-500 €
Chartres, Centre-Val de Loire
Télétravail partiel
CONTEXTE : Dans le cadre du projet Solvency 2, dans l'équipe DELIVERY PRUDENTIEL, un besoin de renfort est nécessaire pour pouvoir répondre aux exigences réglementaires européennes. MISSIONS : assurer la collecte de données nécessaires au Projet Solva2 vis à vis des différents fournisseurs (SI de gestion / SI DATA) - Rédaction de spécifications générales afin d'implémenter les données demandées dans le cadre de la règlementation "Solvency 2" - Cadrage des validations - Exécution de cas de test pour valider les évolutions - Développer une proximité avec les métiers fournisseurs et consommateurs pour optimiser les travaux Solvabilité 2 Technologies requises : - Maîtrise du langage de requêtage SQL (Entrepôt de données avec base de données relationnelle Oracle) - Si possible une connaissance du logiciel SAS Guide
Offre d'emploi
Ingénieur Développement Java N3
Publiée le
API REST
Java
Oracle
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte Nous recherchons un Ingénieur Développement Java N3 pour rejoindre la squad InStore d’un acteur majeur de la pré-acquisition en France. La mission vise l’intégration d’un nouveau client (services, protocoles, IHM) dans un environnement PCI-DSS, avec un focus sur l’innovation (omni-canal, instant payment, nouveaux services). Missions principales Développement et maintenance : Analyser les besoins et proposer des solutions techniques adaptées. Développer de nouvelles fonctionnalités en respectant les normes et standards. Assurer la maintenance corrective et évolutive des applications existantes. Collaboration et amélioration continue : Travailler avec les équipes projets (Développeurs, PO, QA, DevOps). Participer à l’amélioration continue des processus de développement. Rédiger et maintenir la documentation technique. Compétences techniques (MUST HAVE) Java 17+ (expert) – obligatoire. Spring 6 (incluant Spring Boot 3 et Spring Data 3) – obligatoire. Bases de données : Oracle, PostgreSQL, MySQL – important. API REST et Web Services – important. Outils : Git/GitLab, IntelliJ.
Mission freelance
Data analyst Télécom (H/F)
Publiée le
IA
4 mois
400-500 €
Meudon, Île-de-France
Télétravail partiel
2 jours de gratuité obligatoire Dans le cadre d’un congé maternité prévu à partir de mi-février, l’équipe cherche à remplacer temporairement une Data Analyst. La mission s’inscrit initialement comme une couverture de congé maternité, avec une possibilité de prolongation (potentiellement jusqu’à septembre, voire au-delà selon les besoins). Profil recherché Nous recherchons un Data Analyst expérimenté, avec 6 à 10 ans d’expérience, capable d’être rapidement opérationnel et de prendre du recul sur le poste. Compétences clés attendues : Excellente maîtrise de SQL (impératif) Très bonne connaissance de Tableau Capacité à s’adapter à un environnement Data Analytics existant Dimension organisationnelle Au-delà des compétences techniques, le poste comporte une dimension de coordination d’équipe. L’équipe actuelle est composée d’environ : 4 personnes en interne 2 personnes à distance (Rabat), dont 2 profils juniors Même si tous les membres ne sont pas juniors, l’équipe manque aujourd’hui d’un profil suffisamment senior pour assurer un rôle de référent, structurer le travail et accompagner les profils plus jeunes. Une expérience préalable en encadrement d’équipe est un vrai plus, sans être strictement indispensable, à condition que le consultant ait l’appétence pour ce rôle. Enjeux de la mission Assurer la continuité de service pendant le congé maternité Apporter un lead technique et méthodologique Participer à la coordination et à la montée en compétence de l’équipe Possibilité de pérennisation ou prolongation de la mission selon l’évolution du contexte Processus Il ne s’agit pas d’un appel d’offres formel. Le processus restera similaire aux précédentes collaborations, avec des échanges directs et des entretiens menés par les interlocuteurs internes en charge de l’intérim. Contexte de la mission Au sein de la Direction des Opérations de Bouygues Telecom Division Entreprises. Dans le cadre d'un congé maternité. Le Data Analyste à pour rôle la production d'indicateurs de performance à destination principale des métiers de la Relation client & de l'ADV. Dans le cadre de sa mission le Data Analyste aura également pour rôle l'accompagnement de l'équipe: Sur les méthodes et nouvelles façons de faire Pilotage / Délégation d'une partie des chantiers auprès de deux DA internes. Profil recherché: Expérimenté/senior Compétences o Tableau o BDD/SQL o Idéalement maîtrise SalesForce/CRM (y compris Analytics SalesForce) Capacité d’accompagnement de l’équipe o Dans les façons de faire, les nouvelles méthodes et l’intégration de l’IA dans les métiers o Dans de nouvelles pratiques et compétences & La capacité à déléguer et piloter la réalisation d'une partie des chantiers auprès de deux DA internes. Profil communiquant. Objectifs et livrables Qualification des besoins exprimés par les métiers lors de points de revue Priorisation et Programmation des Sprints lors de points Sprint bi Mensuels Production des indicateurs dans les engagements de délai pris lors des points de prio. Validation de la conformité de ce qui est livré avec le métier Délégation et supervision de l'avancement d'une partie des besoins métiers. Consolidation et Reporting d'avancement des travaux traités en direct et délégués Accompagnement de l'équipe: nouvelles méthodes et usage de l'IA, Méthodo, Suivi de la production et des engagements clients. Compétences demandées Compétences Niveau de compétence telecoms: Avancé base de données sql: Expert BASE DE DONNÉES: Expert travail en équipe TABLEAU:Expert Langues Niveau de langue Français
Offre d'emploi
Consultant(e) AMOA Big Data / Data (Alteryx, Tableau, Hadoop)
Publiée le
Agile Scrum
Alteryx
AMOA
12 mois
40k-55k €
450-600 €
Paris, France
Télétravail partiel
En tant que Consultant(e) AMOA Big Data / Data , vous accompagnez la modélisation et à la mise en œuvre des solutions décisionnelles (reporting stratégique, opérationnel, etc.) la mise en œuvre des usages concernant les données des services Solidarités et Droit à l’information. Les solutions à mettre en œuvre le seront sous une architecture technique Hadoop/Hive ; les outils de manipulation des données : Tableau et Alteryx. De plus, vous participez à l’enrichissement des dictionnaires de données sur le périmètre concerné ainsi qu’à la modélisation des datamarts décisionnels répondant aux cas d’usages du projet. Les activités seront menées en méthode dite agile . La durée des sprints est de trois semaines. Le nombre de sprints sera de 9. À ce titre, vous aurez pour rôle : -Accompagnement et interface entre Métier et MOE sur les solutions d’architecture data mises en place -Animer les réunions avec les utilisateurs et l’équipe de développement (une réunion par semaine, de 5 à 10 participants par réunion) -Recueillir et restituer les indicateurs -Tâches attendues pendant un sprint : Analyser les user-stories prises en compte dans les sprints et animer les ateliers métiers associés ; Modélisation fonctionnelle des objets pivots et des datamarts ; Préparer et conduire les recettes -Réalisation d’un mode opératoire, façon Tutoriel, pour que les métiers puissent construire des rapports en autonomie. Cela pourra être sous forme de document de type Powerpoint avec un maximum de 30 slides -Réalisation/automatisation de rapports et d’indicateurs sur demande des métiers -Accompagnement des métiers dans l’utilisation de la solution S.I mise en œuvre -Réalisation de documents sur le fonctionnement de l’outil à destination de la MOA. Les documents seront sous format de type Word. Ils devront être exhaustifs en termes de périmètre de fonctionnalités mise en œuvre.
Offre d'emploi
Architecte Master Data Management F/H
Publiée le
50k-60k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Dans le cadre de nos activités, nous développons pour nos clients des solutions dédiées à la gestion de la donnée cliente : améliorer la qualité de la donnée client à travers sa fiabilisation, son dédoublonnage et sa diffusion à travers un référentiel unifié. Pour accompagner la croissance de notre entité spécialisée dans la transformation digitale, nous recherchons notre futur Architecte MDM (Master Data Management) F/H. CE QUE L'ON VOUS PROPOSE Vous participez à la construction de l'offre MDM, en particulier sur les aspects techniques et technologiques. Vous intervenez sur les phases clés associées à la construction d'un projet de MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation (4 à 6 consultants en moyenne selon projet) : - Vous concevez et préconisez les solutions techniques, - Vous menez des ateliers techniques avec les clients, - Vous intervenez sur différentes phases du projet depuis l'avant-vente jusqu'à leur utilisation en production - Vous encadrez les équipes techniques (accompagnement, transfert de compétences, audit des réalisations).
Offre d'emploi
Data Engineer Java / Spark
Publiée le
Java
24 mois
50k-55k €
358-550 €
Paris, France
Télétravail partiel
Profil : Data Engineer Profil expérimenté avec des connaissances dans les déclaratifs réglementaires de l'Assurance-Vie Compétences techniques requises : Maîtrise avancée de Java Spark, y compris Java 11 et SparkSQL. Connaissance approfondie de l'écosystème Big Data, en particulier Hadoop, Spark et Kafka. Expérience significative en Build et en Run dans des environnements Big Data. Utilisation avancée d'outils DevOps tels que GitLab, Jenkins, Nexus, Maven, Docker, Kubernetes, ArgoCD, Sonar, etc. Solide compréhension des pratiques Agiles/SAFe et compétence dans l'utilisation de JIRA. Excellente maîtrise de Hive et Shell pour la manipulation et la transformation de données. Expérience confirmée avec des clusters on-premise MapR, y compris la gestion et l'optimisation. Compréhension approfondie des domaines de l'assurance, en particulier Assurance vie et Prévoyance. Connaissance avancée des bases de données relationnelles et non relationnelles. Excellentes compétences de communication pour collaborer efficacement avec les équipes. Leadership technique pour encadrer et orienter les membres de l'équipe. Esprit d'initiative et capacité à résoudre des problèmes techniques complexes. Capacité à travailler dans un environnement Agile et à gérer les priorités en conséquence. Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.
Offre d'emploi
Data Engineer Spark
Publiée le
24 mois
40k-45k €
286-450 €
Vannes, Bretagne
Télétravail partiel
Site : Vannes, 3 jours sur site par semaine Date de démarrage : asap Nationalité et langues parlées : français Durée mission : jusqu'au 31/12/2025 Mission : intervention pour le compte du Chapitre Data à Vannes Nb années d'expérience : 5 à 7 ans Profil : Data Engineer confirmé Compétences techniques - Langage : Spark - spark streaming et batch (requis), Kafka (apprécié) java (apprécié) shell (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Compétences techniques souhaitées – appréciées BDD Teradata, xDI, SQL Data viz : Microstrategy
Mission freelance
Data Science/MLOps
Publiée le
Data analysis
IA Générative
Machine Learning
3 mois
Lille, Hauts-de-France
Télétravail partiel
Ton rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques. Profil recherché 4+ ans d’expérience en Data Science/MLOps
Mission freelance
Azure Data Intégration Analyst - 93 - English speaker
Publiée le
Azure Data Factory
Data analysis
Microsoft Power BI
12 mois
500-550 €
Aubervilliers, Île-de-France
Télétravail partiel
Azure Data Integration Analyst - 93 - Anglais fluide 📍 93 | 🏢 3 jours sur site 🗓 ASAP | ⏳ 12 mois renouvelables Pour un grand groupe international , nous recherchons un ingénieur Data Integration , pour renforcer une équipe Global HR , dans un environnement full Microsoft Azure / MSBI . 🎯 Contexte & Mission Vous intervenez sur des flux de données RH globaux, hébergés et traités dans un écosystème Azure : Recueil et analyse des besoins métiers (nouveaux flux, évolutions, revues de design global) Cadrage fonctionnel et coordination des réalisations data jusqu’au Go Live Garantie de la cohérence entre besoins métiers et implémentation technique Interaction étroite avec les équipes Data, IT Architecture et HR global Exploitation et restitution de la donnée via Power BI 📩 Mission freelance uniquement – présence sur site indispensable. Profils très expérimentés recherchés. #Freelance #ConsultantSI #DataIntegration #Azure #MSBI #PowerBI
Mission freelance
INGENIEUR DATA BI - GENIO
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Business Analyst Data (F/H) - 56
Publiée le
SQL
12 mois
Vannes, Bretagne
Télétravail partiel
Contexte : Nous sommes à la recherche d'un Business Analyst Data pour notre client. Mission - Assister le PO sur le cadrage des évolutions majeures des produits de la squad (Animer des ateliers de cadrage, rédaction des compte-rendus, suivis des actions…) - Recueillir auprès des Pôles Utilisateurs les besoins et les formaliser dans la backlog Produit : rédaction de récits, organisation d'ateliers d'affinage, aide à la priorisation dans le backlog en accord avec les enjeux du domaine Risques et de la squad, - Réaliser les analyses des risques métier (ARM) en lien avec les métiers et les IT, afin de valider les mesures sur les préconisations de la sécurité des SI, le juridique, la conformité et le RGPD, - Maintenir à jour la documentation produit métier et fonctionnelle et assister le Pôle Utilisateur pour les supports de conduite du changement. - Faciliter les échanges via l’implication des parties prenantes avec une posture agile (lien avec les développeurs, les interlocuteurs CASA/DRG, les pôles utilisateurs), - Définir, maintenir et appliquer les plans de tests produits tout au long du cycle de vie de fabrication.
Offre d'emploi
Product Owner Data H/F
Publiée le
48k-60k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Product Owner confirmé(e) responsable de l'optimisation de la valeur du produit afin de satisfaire les clients et capable de porter la vision produit au sein de l'organisation. Vous aurez la charge de : • Définir et communiquer la vision du produit • Alimenter, partager et prioriser le backlog avec l'équipe • Définir la roadmap stratégique du produit • Défendre le produit auprès des instances de direction • Être le point de convergence de l'ensemble des contributeurs du produit Référence de l'offre : k170vt48pi
Mission freelance
Data Engineer DBT/Snowflake
Publiée le
DBT
Snowflake
3 mois
400-420 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Snowflake : Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) DBT : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- deduction loyer et contrat de mise à disposition
- Mes données de la CIPAV (trimestre, droit) ont disparues sur lassuranceretriate
- Micro-entreprise après EURL ?
- Ajout d'une deuxième activité en tant que micro-entrepreneur
- domiciliation et etablissement principal
- Compte Autoentrepreneur - Création ou modification
1195 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois