Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 306 résultats.
Mission freelance
DataOps Engineer expert Snowflake(H/F)
Freelance.com
Publiée le
Snowflake
3 mois
400-420 €
Bordeaux, Nouvelle-Aquitaine
Intégré(e) à la direction IT DATA , au sein d’une équipe Data Tech, vous interviendrez sur la mise en place et l’évolution de la stack data , avec une forte dimension DataOps & industrialisation .🔧 Vos responsabilités Concevoir des architectures DATA scalables (Agilité, CI/CD, intégration continue) Participer à l’optimisation des coûts (FinOps) Former les Data Engineers aux outils de la stack data Mettre à disposition des outils d’aide au développement et de monitoring Assurer une veille technologique autour des architectures data Encadrer l’ industrialisation des déploiements applicatifs (bonnes pratiques CI/CD) 🛠 Compétences techniques requises Snowflake : Expert (> 5 ans) Python : Confirmé (2–5 ans) CI/CD : Confirmé (2–5 ans) DataOps : Confirmé (2–5 ans) ETL : Talend / DBT – Confirmé (2–5 ans) ⭐ Points clés Environnement data mature Enjeux de performance & industrialisation 📌 Pour chaque candidature technique, merci d’inclure impérativement : CV du consultant Tests de sélection / mise à jour du niveau de compétences / prise de référence Première grille de compétences en auto-évaluation (PJ)
Mission freelance
INGENIEUR MLOps
HAYS France
Publiée le
Ansible
Apache Airflow
Cloud
3 ans
Lille, Hauts-de-France
Objectif de la mission Mettre en place et maintenir une chaîne d’intégration et de déploiement des modèles de Machine Learning en production, garantissant robustesse, scalabilité et monitoring. Contexte Vous interviendrez au sein d’une équipe Data & IA pour industrialiser des modèles ML liés à la qualité, la classification et l’enrichissement des données produits. Collaboration étroite avec Data Scientists et Data Engineers pour transformer des prototypes en solutions fiables. Responsabilités Conception & Déploiement Développer et maintenir des pipelines MLOps automatisés (CI/CD). Mettre en place l’infrastructure cloud via IaC. Assurer le versioning des modèles, données et pipelines (ZenML, MLflow). Monitoring & Maintenance Implémenter l’observabilité (drift, latence, qualité prédictions). Configurer alertes pour anomalies et dégradations. Optimiser les ressources de calcul. Collaboration & Qualité Accompagner les Data Scientists sur les bonnes pratiques MLOps. Intégrer des Data Quality Gates dans les pipelines. Contribuer à l’architecture Data Mesh (modèles = Data Products).
Mission freelance
PRODUCT OWNER DATA SUPPLY
Signe +
Publiée le
Snowflake
12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Mission freelance
Full Stack C#/React Developer
Phaidon London- Glocomms
Publiée le
.NET
.NET Framework
C#
6 mois
600-700 €
Paris, France
Intitulé du poste : Développeur Full Stack C# / React Localisation : Paris, France (Hybrid) Type de contrat : Mission de 6 mois Contexte Nous recherchons un Développeur Full‑Stack C# / React pour concevoir et développer, à partir de zéro, une nouvelle génération d’outils ainsi qu’un portail web permettant aux équipes Sales et Structuration de tarifer, commercialiser et suivre en continu (24/7) les offres énergétiques. Ces offres garantissent une correspondance horaire entre production renouvelable et consommation, une étape clé vers une véritable décarbonation. Vous jouerez un rôle central dans la création d’une plateforme cloud‑native, sécurisée, évolutive, destinée à devenir un élément stratégique pour l’organisation. Responsabilités : Concevoir et développer des applications full‑stack en C#/.NET Core et React Créer un portail web robuste permettant la tarification, l’établissement de devis et le suivi des offres décarbonées 24/7 Développer des API sécurisées et structurées pour les équipes internes et les partenaires externes (TPIs) Mettre en œuvre des flux de données en temps réel ou quasi temps réel pour l’appariement horaire énergie‑production Traduire les besoins métiers en solutions techniques évolutives et maintenables Construire des composants cloud‑native en utilisant les services Microsoft Azure (App Services, AKS, Azure SQL, Storage, Key Vault, Monitor) Concevoir et maintenir des pipelines CI/CD selon les meilleures pratiques Collaborer avec les architectes, data engineers et autres développeurs au sein de l’équipe IS Sales & Customers Documenter les solutions et contribuer au partage des connaissances Faire preuve d’autonomie, de proactivité et d’efficacité dans un environnement dynamique Compétences techniques requises : Expertise en développement backend C#/.NET Core Maîtrise de React avec les outils frontend modernes (TypeScript, Hooks, gestion d’état) Développement cloud‑native sur Azure, notamment : App Services ou Kubernetes (AKS) Azure SQL & Storage Key Vault Monitor / Application Insights Conception d’API (REST, GraphQL apprécié) Connaissance des architectures sécurisées et de la gestion des identités (OAuth2, Azure AD, MSAL) Solide expérience dans la construction de pipelines CI/CD (Azure DevOps ou GitHub Actions) Veuillez postuler directement ou me contacter à l’adresse suivante :
Mission freelance
Data Product Owner H/F
LeHibou
Publiée le
Data analysis
6 mois
500-550 €
Bordeaux, Nouvelle-Aquitaine
Notre client dans le secteur Santé et pharma recherche un/une Data Product Owner H/F Description de la mission: Dans le cadre du renforcement de son organisation Data, l’entreprise souhaite délivrer des Data Products fiables et de confiance à l’échelle du groupe, dans un contexte de modernisation de la Data Platform et de migration du legacy vers une plateforme unifiée. Au sein d’une Data Product Squad, l’entreprise recherche un(e) Data Product Owner expérimenté(e) pour accélérer la livraison et améliorer la fiabilité des Data Products (pipelines, datasets, dashboards), en forte collaboration avec les équipes Data Engineering, BI et les parties prenantes métiers. Le rôle s’exerce dans un contexte : • de plateformes de données modernes (Databricks / Snowflake / BigQuery / Power BI) • de migration des systèmes legacy vers une Data Platform unifiée • d’industrialisation des Data Products et du Run Key Objectives La mission se concentre sur ces objectifs principaux : 1. Pilotage de la livraison des Data Products • Prendre en charge et prioriser le backlog en ligne avec les priorités métiers et Data • Garantir une livraison de Data Products de haute qualité (datasets, pipelines, dashboards) 2. Renforcer la modélisation et la fiabilité de la donnée • Piloter la data modeling (couches Bronze / Silver / Gold, semantic layer) • Améliorer la robustesse des pipelines et de la consommation analytique 3. Industrialiser la livraison et le Run • Améliorer le time-to-data, l’adoption et la performance opérationnelle • Suivre les KPIs des Data Products (usage, qualité, incidents) Product Ownership & Delivery • Collecter, clarifier et challenger les besoins métiers • Rédiger des user stories orientées Data (sources, règles, impacts, critères d’acceptation) • Gérer la priorisation du backlog, le découpage et la gestion des dépendances • Améliorer la qualité des tickets (DoR / DoD) • Sécuriser la livraison via la gestion des risques et le suivi de l’avancement Agile Practices • Contribuer / animer les cérémonies de refinement, sprint planning, reviews, retrospectives, synchronisations PO • Assurer une synchronisation continue avec les équipes Data Engineering et BI Data Products & Platforms • Piloter la construction des Data Products (datasets, tables Gold, semantic models, dashboards) • Contribuer à la modélisation des données et à la conception de la couche de serving • Travailler sur les pipelines d’ingestion et d’historisation avec les Data Engineers • Contribuer à la rationalisation des couches analytiques Data Push • Adopter une posture proactive de « Data Push » : proposer des solutions fonctionnelles et techniques au-delà des besoins exprimés • Traduire les besoins métiers en Data Products orientés valeur, en tirant parti des capacités de la plateforme
Offre d'emploi
Business Analyst Banque SQL SSIS
CELAD
Publiée le
Analyse
12 mois
40k-59k €
400-550 €
Paris, France
POSTE de BA au sein du pôle HUB de l’équipe Data&Reporting Mission Mission située au niveau de l'équipe DSI au niveau de l’équipe Data et Reporting au sein de la cellule HUB. La mission consistera à être Business Analyst sur la plateforme Data du SI. · Analyse des besoins : Comprendre les besoins des parties prenantes et des utilisateurs finaux afin de définir des exigences claires pour des projets liés aux données. · Cadrage de projet : Travailler avec des équipes techniques de la DSI (architectes, data engineers, MOA/MOE des autres applications), autres DSI du groupe, et non techniques (direction financière, conformité, direction des risques, direction commerciale) afin de cadrer un projet (solution, chiffrage, planning, …) · Pilotage de projet : définir et suivre les engagements / assurer le reporting et le dialogue avec les interlocuteurs métiers Analyse des demandes du métier : Sur la base d’une expression de besoins ou de spécifications fonctionnelles générales, réalisation de l’analyse, en lien avec les développeurs, puis établissement des chiffrages et du planning de mise en œuvre des évolutions. Spécifications fonctionnelles : A partir des expressions de besoins, rédaction des spécifications fonctionnelles détaillées à destination des équipes de développement. Préparation et réalisation des recettes : Rédaction des cahiers de recettes et validation du bon fonctionnement technico-fonctionnels des applications. Assistance et support : Assurer l’assistance auprès des utilisateurs, analyser les dysfonctionnements et proposer des solutions correctives/palliatives chiffrées.
Mission freelance
Senior Data Analyst / Data Modeler (B2B) (H/F)
Freelance.com
Publiée le
Merise
1 an
400-520 €
Paris, France
2 jours de TT Contexte de la mission Dans le cadre d’un programme stratégique de transformation Data B2B, notre client construit une nouvelle plateforme de données cloud selon une approche Greenfield , visant à reconstruire les produits de données plutôt qu’à effectuer une migration classique des systèmes existants. La mission s’inscrit au sein d’une Core Team transverse fonctionnant en mode Agile , chargée de concevoir le socle technique et les données de référence qui permettront aux équipes métiers de développer leurs futurs cas d’usage analytiques et data science. Objectifs de la mission Le consultant interviendra en tant que référent en modélisation et connaissance de la donnée , avec un rôle clé d’interface entre les experts métiers et les équipes data engineering. Il contribuera à structurer une vision data robuste, gouvernée et orientée usage. Périmètre et responsabilités Concevoir le Core Model et modéliser les objets métiers structurants (vision client 360, contrats, facturation, parc, etc.) dans le datawarehouse cloud (modèles dimensionnels / Data Vault). Définir et prototyper en SQL les règles de rapprochement et d’unicité permettant de fiabiliser la donnée client. Analyser les sources legacy afin d’identifier les règles de gestion implicites et cartographier les écarts avec la cible. Mettre en place la gouvernance des données : dictionnaire de données, métadonnées, définitions fonctionnelles et règles de qualité. Préparer des datasets certifiés pour faciliter le travail des Data Scientists et Data Analysts. Collaborer étroitement avec les équipes métiers et le Lead Data Engineer dans un environnement Agile. Adopter une approche pragmatique orientée delivery avec une production incrémentale de valeur. Livrables attendus Modèles Logiques de Données (MLD) validés. Mapping source-to-target détaillé. Spécifications SQL des règles d’unicité client et des clés de réconciliation. Matrice de gestion des cas particuliers. Business glossary intégré au Data Catalog. Définition des règles de qualité des données. Requêtes d’analyse d’impact et datasets de test. Environnement technique Plateforme Cloud moderne BigQuery SQL avancé Data Catalog / gouvernance Méthodologie Agile / Scrum Profil recherché Expertise confirmée en modélisation de données (Merise, 3NF, Star Schema, Kimball, Data Vault). Excellente maîtrise du SQL et capacité à manipuler des jeux de données complexes. Forte compétence en analyse fonctionnelle et capacité à dialoguer avec des interlocuteurs métiers (marketing, finance, etc.). Expérience significative dans des environnements Agile . Expérience de la modélisation dans des environnements Cloud indispensable. La connaissance d’environnements B2B et de structures de comptes complexes constitue un plus. Soft skills attendues Esprit de synthèse Force de proposition Autonomie Pragmatisme Excellentes capacités de communication Informations complémentaires Compte tenu des enjeux du programme et de la criticité du calendrier, seuls les profils disposant d’une expérience solide en modélisation agile dans le cloud seront considérés.
Mission freelance
DATA ENGINEER-EXPERT DATAIKU - FINANCE (H/F) 75
Mindquest
Publiée le
Apache Spark
Dataiku
PySpark
6 mois
Paris, France
Profil souhaité: DATA ENGINEER (Minimum 5 ans d'Xp) avec grosse expérience Dataiku (au moins 4 ans), Ayant déjà travaillé sur des projet Finance et/ou en environnement Finance. (Forecast/Revenue/Topline/CA/Prévision/Prédiction/Ventes) Contexte: Dans un contexte de structuration et de montée en maturité des usages Data au sein d’une Direction Financière, la mission vise à renforcer les capacités analytiques autour de la prévision du chiffre d’affaires. L’objectif est de concevoir et d’industrialiser un produit Data stratégique permettant une projection automatisée et multidimensionnelle du chiffre d’affaires (produits, zones géographiques, canaux de vente, infrastructures). Le consultant interviendra au cœur d’une organisation Finance & Data, en tant que référent Data Finance, à l’interface entre les équipes Finance, Data et Produit. Missions: Concevoir, maintenir et faire évoluer un produit Data de projection du chiffre d’affaires Développer et industrialiser des modèles de prévision intégrant des mécanismes basés sur les volumes Permettre des ajustements manuels des projections par les équipes métiers Garantir la qualité, la fiabilité, la traçabilité et l’exploitabilité des données Développer et maintenir des pipelines de données sous Dataiku Implémenter des traitements SQL avancés et des flux de transformation complexes Exploiter Spark / PySpark pour gérer des volumétries importantes Automatiser, monitorer et documenter les chaînes de traitement Mettre en œuvre des contrôles de qualité et contribuer à la gouvernance des données financières Rendre les modèles explicables et actionnables pour les équipes Finance Mettre à disposition les données projetées dans le datalake Collaborer étroitement avec les équipes Finance, Data et Produit Participer aux rituels agiles et au suivi des livrables via des outils de gestion de projet
Mission freelance
Product Manager Data (H/F)
Atlas Connect
Publiée le
Product management
12 mois
France
Nous recherchons des Product Managers Data pour piloter des produits et plateformes data à fort impact business. En lien étroit avec les équipes Data, Tech, Métiers et BI , vous serez responsable de la vision produit, de la priorisation des besoins et de la livraison de solutions data créatrices de valeur. Vos missions pourront inclure : Définition de la vision produit Data et de la roadmap associée Recueil et formalisation des besoins métiers liés à la data Priorisation du backlog (use cases data, features, dette technique) Collaboration étroite avec les équipes Data Engineers, Analytics, Data Science Suivi de la delivery et mesure de la valeur business générée Mise en place de KPIs , data products et indicateurs de performance Contribution à la gouvernance data et aux bonnes pratiques produit
Mission freelance
Data Ingénieur
STHREE SAS pour HUXLEY
Publiée le
18 mois
500 €
France
Le rôle du Data Engineer dans ce projet consistera à : * Concevoir et implémenter les composants/pipelines d'ingestion de données en scala spark (glue jobs, sans utilisation de solutions managées type Databricks) * Traiter et normaliser les données * Refactoriser des imports existants pour être compliant avec l'architecture medaillon (silver + gold layers) et notre modèle uniformisé/harmonisé à toutes les plateformes (aggrégateurs, market exchanges) * Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud * Distribuer les données aux différents consommateurs/Métiers * Implémenter les règles de Data Quality (DataQuality framework : great expectation) et gérer le data calatog * Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) * Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … * Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données * Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. * Être force de proposition pour améliorer les processus et les performances des systèmes.
Mission freelance
Consultant BI Fonctionnel (PBI) - confirmé - freelance - Rouen H/F
GROUPE ARTEMYS
Publiée le
1 mois
300-350 €
76000, Rouen, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Dans un contexte de forte demande autour du reporting et de la valorisation de la donnée, nous recherchons pour notre client, un Consultant BI fonctionnel H/F capable de transformer des besoins métiers parfois flous en reportings clairs, lisibles et exploitables . Le rôle s’inscrit à l’interface entre les équipes métiers et l’équipe Data Services. L’objectif est de faciliter la compréhension, la conception et l’adoption des reportings Power BI, en apportant à la fois une approche fonctionnelle, pédagogique et une base technique solide. Ce poste ne correspond ni à un rôle de développeur Power BI pur, ni à un support IT classique : il s’agit d’un profil d’interface et de facilitation data . Votre mission (si vous l’acceptez) : Cadrage & accompagnement métier Recueillir et analyser des besoins de reporting parfois peu structurés Reformuler et clarifier les attentes utilisateurs Challenger les demandes lorsque nécessaire (pertinence des indicateurs, faisabilité, lisibilité) Aider les métiers à prioriser et structurer leurs besoins Traduire les besoins fonctionnels en spécifications exploitables par l’équipe Data Services Favoriser l’adoption des reportings et bonnes pratiques BI Pédagogie & communication Vulgariser les concepts data et BI auprès d’utilisateurs non techniques Expliquer les choix de modélisation et d’indicateurs Accompagner les utilisateurs dans la lecture et l’exploitation des tableaux de bord Animer des ateliers, démonstrations ou sessions de prise en main Servir de point de contact fonctionnel sur les sujets Power BI Contribution technique (≈ 20 % du temps) Créer et faire évoluer des rapports Power BI Comprendre les modèles de données existants Lire, comprendre et ajuster des mesures DAX existantes Réaliser des transformations simples via Power Query Participer à l’amélioration continue des reportings Identifier les impacts liés aux flux de données amont Interface avec l'écosystème data Comprendre les flux et chaînes de transformation de données en amont Échanger efficacement avec les équipes techniques autour de : SQL Alteryx Denodo Modèles de données Faciliter la collaboration entre métiers et experts data L’environnement technique : Indispensable : Bonne expérience pratique de Power BI Conception et évolution de rapports Bonne compréhension des modèles de données Lecture et adaptation de DAX existant Maîtrise de Power Query (niveau opérationnel) Culture data générale (indicateurs, qualité de données, transformations) Souhaité : Connaissance des environnements SQL Notions des outils de préparation / virtualisation de données (ex : Alteryx, Denodo) Compréhension des architectures data décisionnelles Le poste ne requiert pas un profil Data Engineer, mais une capacité à comprendre et dialoguer avec ces profils. Vous, notre perle rare : Compétences comportementales Forte capacité de pédagogie et de vulgarisation Excellent relationnel avec des utilisateurs non techniques Esprit de synthèse Capacité à structurer des besoins flous Posture de conseil et de challenge constructif Sens de l’écoute Autonomie et proactivité Capacité à naviguer dans des contextes imparfaitement cadrés Goût pour le travail d’interface entre métiers et technique Profil recherché : Expérience confirmée sur Power BI Expérience en environnement métier / fonctionnel Habitude de travailler sur des besoins évolutifs ou peu cadrés À l’aise dans des contextes de transformation ou de montée en maturité data Expérience en conseil ou en rôle transverse appréciée Rémunération : TJ 300€ à 350€ (en fonction de votre expérience sur un poste similaire). Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Data Product Manager en Data Lab - Rennes
Argain Consulting Innovation
Publiée le
Google Cloud Platform (GCP)
Python
SQL
3 mois
520-570 €
Rennes, Bretagne
Au sein du Data Lab, nous recherchons un Data Product Manager freelance. Nous avons besoin d'un profil pivot, capable de traduire des besoins métier en solutions concrètes. Le poste est résolument hybride : il ne s'agit pas seulement de suivre un planning, mais bien de comprendre ce qui se passe sous le capot pour fluidifier les échanges entre les métiers et l'équipe technique. Les sujets du Data Lab sont divers, Data Science, Data Modelling, Tableaux de bord, IA générative et automatisation des processus métier. Nous ne cherchons pas un gestionnaire de projet classique, mais un profil également capable de faire, de manipuler la donnée et de réaliser des premiers prototypes. • Hybride & Transverse : Pouvoir comprendre les besoins métiers et les traduire en specs fonctionnelles et techniques. Pouvoir "traduire" le besoin vers les équipes de développement. • Technique : Être capable de manipuler la donnée (SQL) et de créer des dashboards simples (type Looker Studio) pour prototyper. • Pragmatique (Esprit Data Lab) : Pouvoir travailler en mode MVP rapide et testable • Relationnel : savoir créer du lien, fluidifier les blocages et avec une véritable aisance relationnelle. Vos responsabilités Cadrage & Spécifications (Le cœur du réacteur) • Traduire le besoin métier en spécifications fonctionnelles claires. • Rédiger les spécifications techniques pour guider les Data Engineers (modélisation, règles de gestion). • S'assurer que ce qui est demandé est techniquement viable sur notre stack. Pilotage & "Faire" • Gérer le backlog et prioriser selon la valeur business. • Effectuer les recettes techniques et fonctionnelles : vous devez pouvoir requêter la base pour valider les livrables avant de les présenter au métier. • Participer activement à la vie du Data Lab et à l'amélioration des processus.
Offre d'emploi
Consultant BI Fonctionnel (PBI) - confirmé - CDI - Rouen H/F
GROUPE ARTEMYS
Publiée le
76000, Rouen, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Dans un contexte de forte demande autour du reporting et de la valorisation de la donnée, nous recherchons pour notre client, un Consultant BI fonctionnel H/F capable de transformer des besoins métiers parfois flous en reportings clairs, lisibles et exploitables . Le rôle s’inscrit à l’interface entre les équipes métiers et l’équipe Data Services. L’objectif est de faciliter la compréhension, la conception et l’adoption des reportings Power BI, en apportant à la fois une approche fonctionnelle, pédagogique et une base technique solide. Ce poste ne correspond ni à un rôle de développeur Power BI pur, ni à un support IT classique : il s’agit d’un profil d’interface et de facilitation data . Votre mission (si vous l’acceptez) : Cadrage & accompagnement métier Recueillir et analyser des besoins de reporting parfois peu structurés Reformuler et clarifier les attentes utilisateurs Challenger les demandes lorsque nécessaire (pertinence des indicateurs, faisabilité, lisibilité) Aider les métiers à prioriser et structurer leurs besoins Traduire les besoins fonctionnels en spécifications exploitables par l’équipe Data Services Favoriser l’adoption des reportings et bonnes pratiques BI Pédagogie & communication Vulgariser les concepts data et BI auprès d’utilisateurs non techniques Expliquer les choix de modélisation et d’indicateurs Accompagner les utilisateurs dans la lecture et l’exploitation des tableaux de bord Animer des ateliers, démonstrations ou sessions de prise en main Servir de point de contact fonctionnel sur les sujets Power BI Contribution technique (≈ 20 % du temps) Créer et faire évoluer des rapports Power BI Comprendre les modèles de données existants Lire, comprendre et ajuster des mesures DAX existantes Réaliser des transformations simples via Power Query Participer à l’amélioration continue des reportings Identifier les impacts liés aux flux de données amont Interface avec l'écosystème data Comprendre les flux et chaînes de transformation de données en amont Échanger efficacement avec les équipes techniques autour de : SQL Alteryx Denodo Modèles de données Faciliter la collaboration entre métiers et experts data L’environnement technique : Indispensable : Bonne expérience pratique de Power BI Conception et évolution de rapports Bonne compréhension des modèles de données Lecture et adaptation de DAX existant Maîtrise de Power Query (niveau opérationnel) Culture data générale (indicateurs, qualité de données, transformations) Souhaité : Connaissance des environnements SQL Notions des outils de préparation / virtualisation de données (ex : Alteryx, Denodo) Compréhension des architectures data décisionnelles Le poste ne requiert pas un profil Data Engineer, mais une capacité à comprendre et dialoguer avec ces profils. Vous, notre perle rare : Compétences comportementales Forte capacité de pédagogie et de vulgarisation Excellent relationnel avec des utilisateurs non techniques Esprit de synthèse Capacité à structurer des besoins flous Posture de conseil et de challenge constructif Sens de l’écoute Autonomie et proactivité Capacité à naviguer dans des contextes imparfaitement cadrés Goût pour le travail d’interface entre métiers et technique Profil recherché : Expérience confirmée sur Power BI Expérience en environnement métier / fonctionnel Habitude de travailler sur des besoins évolutifs ou peu cadrés À l’aise dans des contextes de transformation ou de montée en maturité data Expérience en conseil ou en rôle transverse appréciée Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 36 000 - 42 000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
Data Scientist H/F
█ █ █ █ █ █ █
Publiée le
Deep Learning
Docker
Git
45k-55k €
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Senior Consultant Data & AI / Data Product Factory
SQLI
Publiée le
Database
3 mois
400-650 €
Paris, France
Hello , Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un Consultant Data & AI / Data Product Factory Senior. Contexte & Enjeux du poste : Dans un contexte de forte accélération des usages Data & IA, nous accompagnons nos clients (grands comptes et ETI) dans la structuration de leurs capacités Data & AI afin de créer de la valeur métier à travers des Data Products industrialisés. Le Senior Consultant Data & AI interviendra auprès des directions Data, IT et Métiers pour : Définir des cibles Data & AI Concevoir et déployer des Data Factories orientées produit Accompagner la transformation organisationnelle, technologique & méthodologique Missions principales : 1. Conseil & Cadrage stratégique Accompagner les clients dans la définition de leur stratégie Data & AI Identifier les cas d’usage à valeur et les transformer en Data Products Réaliser des diagnostics de maturité Data & AI Définir des roadmaps Data alignées avec les enjeux business 2 Mise en place de Data Factory orientée Data Products Concevoir des modèles de Data Factory (organisation, processus, gouvernance) Mettre en place une approche Data Product (Data Mesh / Product Thinking) Définir les rôles clés : Data Product Owner, Data Engineer, Analytics Engineer, Data Scientist, Platform Team Accompagner la mise en œuvre des rituels agiles, du delivery et de la priorisation 3. Architecture & Solutions Data & AI Cadrer et challenger les architectures Data modernes Cloud Data Platform (AWS, Azure, GCP) Lakehouse, Data Warehouse, Streaming Contribuer au choix et à la mise en place des solutions : ETL / ELT BI & Analytics Machine Learning & IA Garantir les bonnes pratiques : Qualité des données Sécurité Gouvernance MLOps / DataOps 4. Accompagnement du changement & montée en maturité Accompagner les équipes client dans la prise en main des nouveaux modèles Former et coacher les équipes Data et Métiers Contribuer à l’adoption des usages Data & IA Participer à la structuration de centres de compétences Data
Offre d'emploi
Ingénieur DATA
INFOGENE
Publiée le
44 800-54k €
Bordeaux, Nouvelle-Aquitaine
Le poste fait partie de la Direction de la Transformation Stratégique qui compte notamment quatre équipes data : BI & Data Analytics, Data & AI Technology, Data Science & AI, Stratégie & Projets Data. Sous l’autorité du/de la Responsable Data & AI Technology et du/de la Team Leader, le/la Data Engineer réalise la conception, le développement et la maintenance des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données. Il/elle intervient également sur l’architecture data pour garantir des solutions robustes, performantes et évolutives. Missions clés : • Conçoit, développe et maintient des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données • Assure le développement logiciel lié et prodigue son support aux équipes data & business dans leurs propres développements • Intervient sur l’architecture data pour garantir des solutions robustes, performantes et évolutives • Participe activement à la montée en compétence des équipes data & business et les accompagne dans l’adoption des bonnes pratiques data et DevOps • Administre et fait évoluer la plate-forme data en collaboration avec la DSI, développe les outils nécessaires Compétences attendues : • Expertise en Python et SQL, appliquée dans des environnements data complexes et exigeants, intégrée dans des pratiques DevOps (Git, CI/CD, ELK …) o Expérience solide et opérationnelle avec les outils de la modern data stack et notamment Snowflake, Airflow et Soda • Expérience démontrée dans la conception d’architectures data modulaires, scalables et résilientes, combinée à des connaissances avancées en infrastructure et cloud, en particulier Azure. • Forte sensibilité aux technologies émergentes, en particulier l’IA, avec une capacité à identifier des cas d’usage pour le business et à les intégrer dans des produits data mais aussi dans la plate-forme data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
306 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois