Trouvez votre prochaine offre d’emploi ou de mission freelance Data Warehouse

Votre recherche renvoie 88 résultats.
CDI

Offre d'emploi
IT Operations Manager / Responsable IT (H/F)

SPIE ICS
Publiée le
Fortinet
Infrastructure

50k-70k €
Levallois-Perret, Île-de-France
Nous recherchons pour notre client basé à Levallois (92) un(e) IT Operations Manager expérimenté(e) pour prendre en charge la gestion et la direction des systèmes d’information au sein d’un environnement international et multi-filiales. Rattaché(e) directement au CTO Groupe, vous êtes responsable du pilotage opérationnel, de la cohérence et de la performance du système d’information d’un groupe international présent dans plusieurs pays.Vous contribuez à la définition et à la mise en œuvre de la stratégie SI à travers l’ensemble des filiales internationales. Vos missions principales sont : Infrastructure Réseau & Administration Piloter et optimiser l'infrastructure réseau (Fortinet, Ruckus), gérer l'administration des identités et des accès (Microsoft Entra), assurer la performance, la disponibilité et la sécurité des infrastructures, superviser leur évolution et gérer le parc informatique global. Cloud & Infrastructures Hybrides Piloter la stratégie cloud (AWS, Google Cloud Platform), optimiser les coûts et la performance, accompagner les migrations et intégrations cloud, garantir la résilience et la scalabilité des environnements. Stratégie & Gouvernance IT Participer à la définition de la stratégie SI avec le CTO et les directions métiers, piloter la roadmap IT, gérer les projets d’évolution du SI (ERP, SIRH, CRM, MDM, Work Management System, DataWarehouse, iPaaS), suivre le budget IT global, assurer la supervision opérationnelle du SI. Management & Coordination Encadrer et animer les équipes IT internes et externes, coordonner les projets transverses impliquant plusieurs départements et filiales, intervenir dans la résolution d’incidents majeurs. Sécurité, Conformité et Risques Collaborer avec le RSSI pour garantir la conformité aux normes (ISO 27001, TISAX, RGPD), suivre les audits et plans d’action, promouvoir la culture cybersécurité. Innovation & Transformation Digitale Accompagner la transformation digitale, intégrer de nouvelles solutions (cloud, automatisation, data, IA), soutenir les croissances externes, développer une culture IT orientée performance et innovation. Compétences techniques clés Maîtrise des infrastructures réseau (Fortinet, Ruckus) et virtualisation (VMware). Expérience avérée avec les plateformes cloud (AWS, Google Cloud Platform). Connaissance des outils d’administration des identités (Microsoft Entra). Gestion de systèmes métiers (ERP, CRM, SIRH) et intégration via iPaaS (). Connaissance des normes de sécurité (ISO 27001, TISAX, RGPD). Compétences en gestion de projets IT et pilotage budgétaire
Freelance

Mission freelance
Consultant Décisionnel /BI

Mon Consultant Indépendant
Publiée le
Microsoft Power BI
Oracle BI Publisher
SAP

12 mois
450-490 €
Paris, France
Consultant Décisionnel & BI Compétences clés : • BI/Reporting : Maîtrise des outils décisionnels (Power BI, Tableau, SAP Analytics Cloud, Oracle BI). • Modélisation : Expérience en conception de modèles de données (data warehousing, cubes OLAP). • ETL : Connaissance des outils ETL (Informatica, Talend, SSIS, SAP BODS) pour l’alimentation des rapports. • SQL : Compétences avancées en SQL (requêtes complexes, optimisation). • Pilotage : Expérience dans le pilotage de projets BI (expression de besoins, recette, déploiement).
Freelance

Mission freelance
Consultant décisionnel BI

CAT-AMANIA
Publiée le
Data visualisation
Microsoft Power BI
Tableau software

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Le consultant décisionnel BI intervient autour de 3 axes : o Analyser les besoins fonctionnels et techniques pour mettre en place une architecture de données pertinente et performante o Modéliser et enrichir datawarehouses et datamarts o Produire des rapports à destination des métiers et les accompagner ou former dans leur exploitation Il s’appuie si nécessaire sur les référents techniques des diverses briques si ces dernières sortent d’un cadre BI classique (cluster Big data noSQL, absence d’ETL pour l’intégration de données…). Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Adaptation, esprit d'équipe. o Capacités d'analyse et de synthèse. Il est spécialisé sur la partie datavisualisation (création de dashboards, amélioration de dashboard existant, échange avec le métier pour affiner le besoin). Au moins 5 ans d'expérience sont attendus sur le rôle La maitrise de Tableau serait un plus. o Analyser les besoins fonctionnels et techniques o Localiser les données de production permettant de répondre au besoin o Développer les processus d’intégration de données o Modéliser et enrichir les datawarehouse (entrepôts de données) et les datamarts (magasins de données), o Produire des rapports ou tableaux de bords lisibles et compréhensibles par le métier, et répondant à leur besoin o Tester la qualité et la performance de ses livrables o Participer aux activités et cérémonies de l’équipe de développement organisées en mode Agile
Freelance
CDI
CDD

Offre d'emploi
Consultant Datastage (Luxembourg)

EXMC
Publiée le
IBM DataStage
Oracle

6 mois
Luxembourg
Le consultant intégrera l’équipe Data, qui a en charge la mise à disposition des données pour les différents consommateurs Data (BI, Data Scientists, équipes métiers, etc.). La mission est à réaliser en respectant les normes règlementaires et la gouvernance des données. Au sein de cette équipe le consultant interviendra dans le cadre du projet afin de participer à la conception et au développement des flux d’alimentations du nouveau Data Warehouse bancaire selon les normes et standards. Exemples non exhaustif de tâches à accomplir : · Analyser les besoins des équipes métiers · Concevoir des solutions robustes et optimisées et rédiger les spécifications techniques · Proposer une planification réaliste des travaux et livraisons · Développer les flux Datastage · Assurer la partie testing et support des métiers lors de la qualification · Documenter et déployer les solutions selon les normes · Assurer la maintenance, la qualité et les performances des solutions livrées · Travailler en étroite collaboration avec l’équipe projet (Data Engineers, équipes métiers, Chef de projet IT, Chef de projet Métier) · Assurer un reporting régulier sur l’état d’avancement des projets et tâches confiées · Identifier les risques et proposer des solutions pour respecter les délais et objectif Les qualifications requises sont : · Expérience d’au moins 10 ans dans le domaine de la Data · Maitrise avancée d’IBM Datastage (5 ans d’exp. minimum) · Une expérience confirmée sur des projets Data Warehouse en environnement bancaire ou financier · Fortes capacités analytiques et de résolution de problèmes · Solides connaissances en bases de données (Oracle, SQL Server, DB2) · Maitrise des techniques de modélisation des données (relationnelles, multidimensionnelles) · Aisance de communication · Facilité d’intégration et esprit d’équipe · Rigueur, autonomie et gestion des priorités · Sensibilité aux enjeux de qualité, traçabilité et gouvernance des données · Expérience avec les outils (Webfocus, Denodo, Dataiku, Power BI, Cloudera) est considérée comme un avantage
Freelance

Mission freelance
Analytics Engineer Senior

EMGS GROUP
Publiée le
Databricks
DBT
Modélisation

6 mois
400-530 €
Paris 14e Arrondissement, France
Objectifs de la mission Renforcer l’équipe pour accélérer la livraison des modèles de données Fiabiliser et optimiser les pipelines existants Challenger les pratiques en place et proposer des axes d’amélioration Contribuer à la montée en compétences avancée de l’équipe sur DBT Environnement technique Datalake / Datawarehouse : Databricks Transformations : DBT Data Catalog / Gouvernance : Data Galaxy Versioning : Git Compétences requises Compréhension fonctionnelle : Expert DBT : Expert Modélisation de données : Expertise confirmée
Freelance

Mission freelance
Directeur de Programme – Migration Data & Analytics Cloud

Signe +
Publiée le
Snowflake

12 mois
840 €
Paris, France
Contexte Dans le cadre d’un programme stratégique de transformation, le client souhaite piloter la migration complète de son écosystème Analytics vers des solutions cloud modernes. L’objectif est de moderniser des plateformes data vieillissantes et d’améliorer la scalabilité, la performance et la gouvernance des environnements Analytics. Périmètre Migration SAP HANA et Sybase IQ vers le Cloud Cibles potentielles : Snowflake, Microsoft Azure ou autres plateformes cloud modernes Transformation globale des architectures Data / BI / ETL Refonte de la roadmap Data Platform à l’échelle de l’entreprise Responsabilités Pilotage global du programme de migration Data Encadrement de 5 à 6 Chefs de Projet Structuration de la gouvernance programme Définition et suivi de la roadmap Gestion des dépendances, risques et budgets Coordination des équipes IT, Data et Métiers Communication auprès des sponsors et instances de direction Compétences techniques attendues Expérience confirmée en migration de bases de données lourdes (HANA, Sybase IQ) Maîtrise des architectures Analytics modernes (Snowflake, Azure, Data Platform Cloud) Compréhension des environnements BI / ETL / Data Warehouse Vision globale des impacts métiers (Finance, Industrie, R&D, Supply Chain…) Compétences managériales Expérience de direction de programme stratégique Capacité à piloter plusieurs streams en parallèle Forte maîtrise de la gouvernance, des arbitrages et de la gestion budgétaire
Freelance
CDI

Offre d'emploi
Data Analyst

VISIAN
Publiée le
Data analysis
Dataiku

1 an
40k-45k €
400-560 €
Paris, France
Contexte Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de contribution aux évolutions de la solution permettant la production du reporting VDS (Valuation Data Set). À la suite de la réception de nouvelles instructions reçues du SRB (Single Resolution Board) sur le reporting réglementaire VDS (Valuation Data Set), une organisation financière doit revoir le dispositif technique existant permettant de produire le reporting VDS pour refondre cette solution ou l'enrichir selon les analyses qui seront menées. La solution actuelle et la solution cible s'appuient sur les briques techniques Dataiku et Teradata au sein du SRS, datawarehouse du groupe. Dans cette perspective, nous cherchons un profil Data Analyst aguerri pour implémenter cette solution. D'autres sujets, sur des projets / solutions en voie de stabilisation, pourront aussi être lui confiés. La mission a lieu au sein de la squad Reporting Solutions, sur de la Data Préparation (certification Dataiku Advanced Designer + pratique sur une mission précédente obligatoires)
CDI
Freelance

Offre d'emploi
Tech Lead Data (H/F)

AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Freelance

Mission freelance
Chef de projet MOA Décisionnelle

HAYS France
Publiée le
Coordination
CRM

3 ans
400-600 €
Île-de-France, France
Nous recherchons pour un de nos clients basés en IDF un Chef de projet MOA Décisionnelle pour une mission freelance (longue visibilité) Contexte de la mission : Dans le cadre d'un programme, le Groupe poursuit la transformation de son modèle de relation client afin d’améliorer la satisfaction client, l’efficacité opérationnelle et la performance commerciale. Le programme s’appuie notamment sur le progiciel Pega, utilisé comme socle de : • gestion des parcours clients, • orchestration des interactions et des tâches, • traçabilité des intentions, actions et activités relationnelles, • alimentation des dispositifs de pilotage et de reporting décisionnel. Les données issues de Pega constituent une source majeure pour les dispositifs de pilotage et de reporting décisionnel du programme. Le projet Pilotage vise à exploiter ces données, en lien avec les autres briques du système d’information, afin de fournir aux métiers et aux managers des outils de pilotage fiables, partagés et orientés usages. Dans ce contexte, le Chef de Projet MOA Décisionnelle interviendra au sein de la Direction, sur le volet pilotage du Programme et interviendra en coordination étroite avec : • les équipes métiers, • les équipes du programme , • les équipes IT, les instances de gouvernance du programme. Objectifs et livrables Expertises requises Projets décisionnels • Expérience de projets décisionnels à l’échelle d’un Groupe (multi-entités, multi-directions). • Compréhension des enjeux d’un DWH central : mutualisation, convergence des indicateurs, normalisation des règles de gestion. • Capacité à articuler besoins locaux et cadre décisionnel Groupe. • Expérience de coordination transverse entre métiers, IT et équipes Data centrales, et de suivi des recettes • Contribution à des trajectoires de rationalisation ou de convergence décisionnelle appréciée. Compétences data : • Bonne compréhension des architectures Data Warehouse / Data Lake. • Connaissance des principes de modélisation décisionnelle (étoile, flocon, datamarts). • Connaissance des principes de modélisation d’entreprise. • Compréhension des flux d’alimentation, ETL/ELT. • Intégration de nouvelles sources dans un DWH Groupe. • Capacité à réaliser des requêtes sur des environnements Data (SQL) Compétences transverses : • Forte capacité de coordination transverse (métiers / IT / programme). • Excellentes capacités rédactionnelles. • Esprit de synthèse et posture de conseil. • Expérience dans le secteur de l’assurance / mutualité fortement souhaitée. • Capacité à évoluer dans un contexte mutualiste avec enjeux de convergence. Expertises appréciées : • Compréhension des modèles de données CRM. • Capacité à analyser des objets métier relationnels (interactions, intentions, tâches). • Connaissance du secteur de l’assurance et/ou de la mutualité (enjeux relation client, performance commerciale, pilotage opérationnel).
Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API

3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
CDI

Offre d'emploi
Consultant décisionnel BI H/F

DSI group
Publiée le
Microsoft Power BI
Tableau croisé dynamique

40k-56k €
Lyon, Auvergne-Rhône-Alpes
DSI Group recherche un Consultant décisionnel BI H/F pour notre client basé à Lyon. Le consultant BI interviendra autour de 3 axes principaux : Analyse des besoins fonctionnels et techniques Modélisation et évolution des datawarehouses et datamarts Data visualisation et accompagnement métier Activités principales Analyser les besoins fonctionnels et techniques Identifier et exploiter les sources de données pertinentes Développer les processus d’intégration de données (ETL) Modéliser et enrichir les datawarehouses et datamarts Concevoir des rapports et tableaux de bord clairs et pertinents Garantir la qualité et la performance des livrables Participer aux rituels Agile (Scrum)
CDI

Offre d'emploi
Consultant Data (profil Qlik Snowflake)

AGH CONSULTING
Publiée le
Qlik Sense
Snowflake

40k-45k €
Rueil-Malmaison, Île-de-France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake , pour renforcer des équipes BI/Data existantes. Missions principales Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView Analyser les besoins métiers et les traduire en solutions BI pertinentes Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) Participer à l’amélioration des modèles de données et des performances des reportings Collaborer avec les équipes Data (BI, Data Engineers, métiers) Environnement technique BI / Data Viz : Qlik Sense / QlikView Data Warehouse : Snowflake (niveau compréhension / usage) Langages & outils : SQL, notions ETL, environnements Data modernes Méthodologie : projets BI, travail en équipe agile ou hybride
Freelance

Mission freelance
Experienced DATA ENGINEER / TECH LEAD

Codezys
Publiée le
Data management
SQL

12 mois
Toulouse, Occitanie
Contexte de la mission Nous sommes à la recherche d’un(e) expert(e) en gestion de projets techniques, combinant compétences en ingénierie de données, SQL, ETL, et en outils de reporting, pour intervenir sur un secteur crucial lié à la gestion des données du cargo. La mission concerne principalement la manipulation, le chargement et la raffinage de données dans un datawarehouse dédié au domaine du cargo, en particulier pour les filiales d’Air France et KLM (AF&KL). Le(la) candidat(e) retenu(e) aura pour responsabilité d’assister l’équipe dans la maintenance des flux de données existants ainsi que dans le développement de nouvelles fonctionnalités. Il/elle participera activement aux projets en cours, apportant son expertise pour corriger d’éventuels dysfonctionnements et enrichir les solutions existantes. La mission nécessite une capacité à comprendre les enjeux métiers liés au transport de fret aérien et à traduire ces exigences en solutions techniques robustes et efficaces. L’équipe cible est composée de 8 professionnels, ce qui implique une forte collaboration et une communication fluide pour assurer la cohérence et la qualité du livrable dans un contexte dynamique et en constante évolution.
CDI
Freelance

Offre d'emploi
Data Engineer

LEVUP
Publiée le
AWS Cloud
Python
Snowflake

12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Freelance

Mission freelance
Data Architect (Secteur Luxe)

Nicholson SAS
Publiée le
Azure DevOps
Git
Github

8 mois
1 200 €
Paris, France
Bonjour, Pour le compte de l’un de nos clients, acteur majeur du secteur du luxe, nous recherchons un Data Architect afin d’intervenir sur une mission stratégique autour de la structuration, gouvernance et valorisation des données . 📍 Informations clés Localisation : Paris (présence sur site requise) TJM max : 1200 € Démarrage : ASAP Fin de mission : 31/12/2026 🚀 Contexte & mission Vous interviendrez sur la mise en place d’une architecture data moderne et scalable basée sur Azure Fabric , avec un fort enjeu autour de la gouvernance, de la qualité des données et de leur valorisation auprès des métiers. 🎯 Responsabilités principales 🔹 Architecture & Data Platform Concevoir et déployer des solutions data end-to-end (Lakehouse, Data Warehouse, modèles sémantiques) Structurer les couches de données ( Bronze / Silver / Gold ) Garantir la scalabilité, la performance et la robustesse de la plateforme 🔹 Data Engineering & Modélisation Concevoir et implémenter des pipelines ETL / ELT Définir les règles de transformation, de gestion des données incrémentales et des dimensions Optimiser les performances des requêtes et du stockage Développer des scripts Python (PySpark) et des requêtes SQL avancées 🔹 Gouvernance & Qualité des données Définir et mettre en œuvre les frameworks de gouvernance (traçabilité, métadonnées, qualité) Implémenter les mécanismes de contrôle qualité et gestion des erreurs Mettre en place les politiques de sécurité et d’accès ( RBAC, RLS ) 🔹 CI/CD & Industrialisation Mettre en place des pipelines CI/CD pour les produits data Gérer les référentiels Git, stratégies de versioning et déploiements Garantir la traçabilité et l’audit des évolutions 🔹 Data Mapping & KPI Assurer la cartographie des flux de données de bout en bout (E2E) Définir les règles métier et indicateurs KPI en lien avec les enjeux business Construire les dictionnaires de données et glossaires métier 🔹 Documentation & bonnes pratiques Définir les standards d’architecture et de développement Documenter les processus, runbooks, guidelines et décisions d’architecture (ADR) Accompagner les équipes et faciliter l’onboarding 🛠️ Environnement technique Cloud & Data Platform : Microsoft Azure, Azure Fabric Data Engineering : PySpark, SQL, Azure Data Factory, dbt CI/CD & DevOps : GitHub, Git CLI, Azure DevOps Pipelines, GitHub Actions BI & Data Viz : Power BI (RLS) Gouvernance : Azure AD / Entra ID, Purview Documentation : Confluence, Visio / Lucidchart 👤 Profil recherché Data Architect avec 7 ans d’expérience minimum Forte expertise sur les environnements Azure Data (Fabric / Data Platform) Solide expérience en architecture data, gouvernance et modélisation Excellente maîtrise de SQL et Python (PySpark) Expérience en industrialisation, CI/CD et gestion de plateformes data Très bonnes capacités de communication, structuration et vision transverse
CDI

Offre d'emploi
Développeur Talend / Data Analyst H/F

ADSearch
Publiée le

40k-50k €
Villeneuve-Loubet, Provence-Alpes-Côte d'Azur
[En Bref] CDI - Développeur Talend / Data Analyst H/F - Cagnes-sur-Mer - Télétravail 3 jours/sem Je recrute pour une entreprise historique qui a su évoluer avec son temps, un Développeur Talend / Data Analyst H/F pour accompagner sa transformation data-driven. TON POSTE Avec pour objectif de structurer, analyser et valoriser la donnée au service des métiers, au côté d'une équipe spécialisée en analyse de données et Business Intelligence, tu participeras à l’ensemble du cycle de vie de la donnée, en lien étroit avec les équipes métiers, IT, data et BI. Ton rôle consistera à transformer la donnée brute en indicateurs fiables et exploitables pour le pilotage et la prise de décision. En claire : - Accompagner les équipes métiers dans la formalisation de leurs besoins décisionnels, - Analyser les données issues de différentes sources internes et externes - Concevoir, développer et optimiser des tableaux de bord et rapports à forte valeur ajoutée (Power BI, SAP BO WebI), - Participer à la modélisation et à la transformation des données via des processus ETL (notamment SAP BODS), - Contribuer aux projets de fiabilisation, de gouvernance et d’évolution du datawarehouse, - Suivre l’avancement des projets data et assurer le reporting associé, - Participer à l’amélioration et à l’industrialisation des méthodes et outils décisionnels, - Réaliser les évolutions dans le respect des normes et standards de développement en place.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

88 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous