Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 12 résultats.
Offre d'emploi
Analytics engineer H/F
JEMS
Publiée le
45k-60k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) analytics engineer confirmé(e) capable d'accompagner les métiers dans l'aide à la décision. Vous aurez la charge de : • Guider / recommander le Métier dans l'exploitation et la valorisation des multiples sources de données et identifier des leviers d'optimisation et d'amélioration des processus Business • Être l‘intermédiaire entre le Métier et la DSI • Accroître la connaissance de la clientèle d'une entreprise, conduire des études sur les bases de données, suivre les outils datamining pour analyser l'impact des actions marketing • Mener et conduire des études (coordination/pilotage) Référence de l'offre : ka6oso5o1m
Offre d'emploi
Senior Analytics Engineer
AVA2I
Publiée le
CI/CD
MySQL
1 an
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation Data au sein d’un environnement Banque de Financement et d’Investissement, nous recherchons un Senior Analytics Engineer afin de rejoindre une équipe en charge du développement de plateformes analytiques et de data products à forte valeur métier. Le programme vise à moderniser les usages Data & Analytics autour des activités de financement et de distribution, avec des enjeux forts autour : de la qualité et de la traçabilité des données, des contraintes réglementaires, du pilotage des portefeuilles, de l’industrialisation des usages analytiques, et de l’amélioration de la performance opérationnelle. Le consultant interviendra dans un environnement transverse en collaboration avec les équipes métier, risques, finance, architecture data et IT. MissionsConception & Modélisation Analytics Concevoir et maintenir des data products analytiques sur Google Cloud Platform Construire des modèles analytiques dénormalisés (star schema, data marts, data products) Traduire les besoins métiers complexes en datasets exploitables et industrialisés Définir les modèles physiques analytiques à partir des modèles conceptuels fournis Optimiser les structures analytiques selon les usages métiers et les contraintes de performance Data Engineering & ELT Développer et maintenir les pipelines ELT avec dbt, BigQuery et Airflow Industrialiser les traitements de transformation et d’exposition de données Optimiser les performances BigQuery : partitionnement clusterisation optimisation des coûts optimisation des temps de traitement Garantir la robustesse et la maintenabilité des traitements Analytics Métier Risk & Finance Concevoir des datasets permettant : le pilotage de la performance des portefeuilles de financement, le suivi des expositions et de la consommation des ressources rares, l’analyse des indicateurs de liquidité, capital et RWA, l’analyse de l’activité commerciale et des pipelines métier. Le consultant sera garant : de la cohérence fonctionnelle des indicateurs, des règles d’agrégation et de calcul, de la traçabilité des transformations, de la qualité des données exposées. Qualité & Gouvernance Data Mettre en œuvre les contrôles de qualité de données : dbt tests, contrôles de cohérence, complétude, fraîcheur des données Contribuer à la documentation fonctionnelle et technique Participer à la définition des standards de modélisation et de développement Assurer la traçabilité des sources et des transformations Collaboration & Delivery Travailler en étroite collaboration avec : les équipes métier, la MOA, les équipes risques et finance, l’architecture data, les équipes IT & plateformes Participer aux phases de : tests techniques, tests fonctionnels, intégration, performance, UAT Être référent analytics sur son périmètre Être force de proposition sur les usages data et analytics
Mission freelance
Lead Analytics Engineer
Deodis
Publiée le
Google Cloud Platform (GCP)
1 an
500-550 €
Île-de-France, France
Poste stratégique au sein d’une équipe Data centrale visant à renforcer l’autonomie des Data Analysts et à améliorer l’exploitation des données dans une organisation décentralisée. La mission consiste à piloter l’évolution d’une plateforme analytics basée sur des technologies modernes (GCP, BigQuery, DBT, BI), assurer la qualité et la modélisation des données, développer des solutions de self-service analytics et accompagner la communauté Data à travers des bonnes pratiques et du management d’équipe. Le rôle inclut également la gestion de la roadmap analytics, l’industrialisation des pipelines de données, l’optimisation des modèles DBT et l’accompagnement des équipes dans un contexte de transition managériale.
Mission freelance
Chef de projet Data / Analytics Engineer Senior
MEETSHAKE
Publiée le
Data Engineering
DBT
Modélisation
2 mois
La Défense, Île-de-France
Contexte Dans le cadre d’une refonte de la stack Data , un acteur de grande taille a engagé la construction from scratch d’un nouveau Datawarehouse basé sur une architecture Médaillon , suite au rapprochement de plusieurs périmètres métiers. Les travaux ont démarré il y a moins d’un an et le projet arrive dans sa phase finale. Objectifs de la mission Nous recherchons un Analytics Engineer expérimenté pour intervenir en renfort et accélérer le delivery sur la fin du projet. Les objectifs principaux sont : Accélérer la livraison des modèles de données Fiabiliser et sécuriser les pipelines existants Contribuer fortement à la modélisation fonctionnelle des données Exploiter les données issues du Data Lake vers le Datawarehouse Environnement technique Data Lake / Data Warehouse : Databricks Transformations : DBT Data Catalog : outil de catalogage data Versioning : Git Missions principales Concevoir et maintenir des modèles de données analytiques avec DBT Travailler à partir du Data Lake existant Garantir la qualité, la cohérence et la fiabilité des données Collaborer étroitement avec l’équipe Analytics Engineering et les parties prenantes métiers Documenter et industrialiser les modèles livrés
Offre d'emploi
Analytics Engineer
ONSPARK
Publiée le
DBT
SQL
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Analytics Engineer pour accompagner nos clients grands comptes. Responsabilités Concevoir et maintenir des modèles de données analytiques Développer des pipelines de transformation de données (ELT/ETL) Garantir la qualité, la documentation et la cohérence des données Collaborer avec les Data Analysts pour répondre aux besoins métier Mettre en place des tests et des pratiques de data quality
Offre d'emploi
Data Analytics Engineer Senior F/H
ASTRELYA
Publiée le
Apache Airflow
BigQuery
CI/CD
Paris, France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Data Analytics Engineer Senior, vous interviendrez au cœur des enjeux de modélisation analytique, de structuration de data products et de valorisation des données dans un contexte Risques (liquidité). Vous jouerez un rôle clé dans la transformation des données transactionnelles en modèles analytiques robustes, performants et exploitables par les équipes Risques, Finance et Data. Concrètement, vous allez : · Dé‑normaliser les transactions et les transformer en modèle en étoile adapté aux usages analytiques. · Concevoir et structurer un data product permettant le partitionnement et le clustering selon les axes d’analyse métiers. · Collaborer étroitement avec les équipes Risques pour comprendre les enjeux de liquidité, les indicateurs clés et les contraintes réglementaires. · Mettre en place des pipelines de transformation fiables, documentés et industrialisés. · Garantir la qualité, la performance et la gouvernance des données exposées. · Contribuer à l’amélioration continue des workflows DataOps et des bonnes pratiques d’ingénierie analytique. · Participer à la définition des standards de modélisation et d’architecture analytique au sein de l’équipe. Votre futur environnement technique : • Google Cloud Platform • BigQuery – entrepôt de données & moteur analytique • DBT – transformation & modélisation analytique • Airflow – orchestration • DataProc – traitements distribués • Cloud SQL – stockage & bases relationnelles • DataOps, CI/CD, bonnes pratiques d’ingénierie analytique
Offre d'alternance
Analytics Engineer/Data Analyst (f/m/d) - Data Pricing - Alternance
█ █ █ █ █ █ █
Publiée le
Git
Python
SQL
Fierville-les-Parcs, Normandie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data & Analytics Engineer (SQL / DBT)
Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Mission freelance
Senior Analytics Engineer
Orcan Intelligence
Publiée le
Python
3 mois
400-600 €
Paris, France
Orcan Intelligence recherche pour l’un de ses clients un Senior Analytics Engineer. Le Senior Analytics Engineer interviendra sur la conception, le développement, la livraison, la maintenance et la documentation de workflows et d’applications analytiques au sein de la plateforme Palantir Foundry. Livrables attendus Workflows et applications analytiques Palantir livrés dans les délais Pipelines analytiques et logiques métiers intégrés dans Foundry Code documenté, versionné et testé unitairement Mise en œuvre de contrôles de qualité et de cohérence Contribution à la structuration des usages analytiques et à l’industrialisation des cas métiers
Mission freelance
Analytic Engineer / Expert Qlik Finance & HR
VISEO
Publiée le
DBT
Qlik
Snowflake
12 mois
400-620 €
92100, Boulogne-Billancourt, Île-de-France
Qui êtes-vous ? Si pour vous être Analytic Engineer / Expert Qlik Finance & HR , c’est : 🔹 Construire des applications Qlik robustes, performantes et pensées pour des enjeux métier critiques ; 🔹 Manipuler avec précision des analyses financières avancées : YTD, MTD, rolling forecast, variance vs budget/forecast ; 🔹 Garantir la qualité, la fiabilité et la cohérence des KPI dans un environnement où la donnée est sensible et réglementée ; 🔹 Concevoir des modèles analytiques via SQL et dbt , en appliquant de vraies bonnes pratiques d’ingénierie ; 🔹 Travailler en CI/CD, versionner proprement votre code, challenger les approches et améliorer en continu ; 🔹 Jouer un rôle de référent BI , diffuser les standards de développement, optimiser les performances et accompagner les équipes… …Alors vous êtes exactement la personne que nous recherchons ! Si vous avez une expérience significative en BI/Qlik dans un contexte exigeant, que vous aimez autant faire que faire faire , et que vous souhaitez participer à une transformation data ambitieuse, alors vous êtes prêt(e) à rejoindre l’aventure. Quelle sera votre mission ? Vous allez contribuer directement à la construction d’un data mesh Finance & HR à fort impact stratégique, au sein d’une modern data stack pleinement en transformation. Vous allez pouvoir : 🔹 Développer, optimiser et industrialiser des cockpits Qlik utilisés au niveau mondial ; 🔹 Mettre en œuvre une sécurité de haut niveau , garantir la confidentialité et participer aux audits ; 🔹 Contribuer à la création de consumer data products : modélisation SQL, transformations, tests automatisés, documentation ; 🔹 Participer à la modernisation des pratiques BI : versioning GitLab, revues de code, guidelines, performance, réutilisabilité ; 🔹 Apporter votre leadership technique pour faire évoluer les standards, structurer la gouvernance des KPI, améliorer la robustesse des modèles ; 🔹 Collaborer avec une équipe engagée et transverse (Finance, RH, Data Product Owners, ingénieurs Data) pour délivrer des solutions fiables et utiles. En somme : il s'agira de construire ensemble une BI moderne, scalable, sécurisée, pensée pour durer et qui soutient directement les décisions stratégiques de la Finance et des RH.
Mission freelance
[SCH] Analytics Engineer / Data Engineer Conformité – Lutte contre la fraude - 1413
ISUPPLIER
Publiée le
10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre de la plateforme SPIDER, dédiée à la lutte contre la fraude, le blanchiment et le financement du terrorisme, notre client recherche un Analytics Engineer / Data Engineer orienté conformité. Intégré à la squad compliance de solutions cognitives, le consultant interviendra sur une plateforme d’investigation s’appuyant sur des technologies graphes comme Neo4j et Linkurious, permettant de centraliser les données issues de multiples applications internes et d’offrir une vision 360° des personnes et de leurs interactions. La mission porte plus particulièrement sur le socle d’ingestion de données alimentant la base graphe, avec un fort enjeu de qualité, de modélisation, d’industrialisation et de collaboration avec les métiers fraude et LCB-FT. Missions : -Transformer, modéliser et documenter les données brutes pour les rendre exploitables -Développer des modèles et produits de données orientés conformité pour alimenter la base graphe -Maintenir en condition opérationnelle les flux d’ingestion vers la base de données graphe -Améliorer les processus de traitement des données afin de gagner en rapidité et efficacité -Créer et mettre à jour la documentation des produits de données -Automatiser les contrôles et tests de qualité pour garantir l’intégrité des données -Produire des analyses à destination des métiers pour le calibrage de scénarios de fraude et de vigilance LCB-FT -Collaborer avec les Data Engineers et les métiers de la fraude / conformité pour enrichir la base graphe -Participer à la mise en production des produits de données avec l’équipe Data Platform -Contribuer à la structuration des flux dans une logique ELT / ETL et architecture data moderne Profil attendu : -Expérience confirmée en Analytics Engineering / Data Engineering -Très bonne maîtrise de SQL et Python -Bonne connaissance des concepts ETL / ELT -Expérience en modélisation de données -Connaissance de Snowflake et Dataiku -Bonne compréhension des architectures data modernes (médaillon, data mesh) -Capacité à travailler sur des sujets de qualité, documentation et industrialisation -Aisance à collaborer avec des équipes techniques et métiers -Sensibilité aux enjeux de fraude, conformité et LCB-FT appréciée -Rigueur, autonomie et bon niveau d’analyse
Mission freelance
Data engineer analytics H/F - Tarare (69) ou St Paul Trois Châteaux (26)
LeHibou
Publiée le
Microsoft Fabric
Snowflake
6 mois
450-550 €
Tarare, Auvergne-Rhône-Alpes
Notre client dans le secteur Industrie recherche un Data engineer analytics H/F Descriptif de la mission: Dans le cadre des objectifs de la Direction de la Transformation Digitale et de la Direction des Systèmes d’Information, le Data Engineer Analytics a pour mission de concevoir, développer, industrialiser et maintenir les solutions data du SI, basées principalement sur Microsoft Fabric et Azure Integration Services . Il contribue à garantir la qualité , la fiabilité , la performance , la sécurité et la maîtrise des coûts des traitements et plateformes analytiques. Missions : Développement & Maintenance de la plateforme analytique · Concevoir, développer et maintenir les flux d’intégration de données entre les systèmes internes et externes. · Concevoir, développer et maintenir les dashboards groupes. · Accompagner les métiers sur les bonnes pratiques et l’utilisation de nos outils de Dataviz et les données mises à disposition. · Assurer la disponibilité, la performance et la sécurité des services analytiques. · Participer à la définition et à la mise en œuvre des standards de développement et d’intégration. · Garantir la qualité des développements en respectant les bonnes pratiques Analytics, et les normes de sécurité. Support aux projets & coordination · Intervenir comme référent technique auprès des projets nécessitant des ressources analytiques. · Accompagner les équipes dans la conception, l’implémentation et l’industrialisation des flux. · Prendre en charge le maintien en condition opérationnel sur le périmètre analytique. Amélioration continue & innovation · Proposer des optimisations pour renforcer la robustesse, la performance et la maintenabilité des solutions. · Contribuer à la veille technologique sur les outils et services analytiques (Microsoft Fabric, ingestion, qualité, gouvernance…). · Participer à la démarche Green IT en optimisant les ressources cloud et en appliquant les bonnes pratiques FinOps. Documentation & qualité · Documenter les flux, pipelines, architectures, dashboard et bonnes pratiques techniques. · Contribuer à la mise à jour du référentiel documentaire. · Participer aux audits internes pour garantir la qualité, la sécurité et la conformité des développements. Indicateurs de performance · Qualité et fiabilité des pipelines (taux de succès, temps de traitement, disponibilité). · Respect des délais et de la charge prévue dans les projets. · Qualité des livrables : conformité, maintenabilité, documentation. · Taux d’incidents et rapidité de résolution. · Satisfaction des équipes projets et métiers.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
12 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois