Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 336 résultats.
Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le

24 mois
450-900 €
Paris, France
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Offre premium
CDI

Offre d'emploi
Chef de Projet BI / Data

Projets et Performance
Publiée le
Microsoft Power BI
Microsoft SSIS
Power Apps

50k-60k €
Lyon, Auvergne-Rhône-Alpes
Vous souhaitez rejoindre une ETI française dynamique , tournée vers l’innovation et engagée dans un plan de développement ambitieux ? Vous recherchez un environnement où les valeurs humaines, la cohésion d’équipe, l’expertise technique et la qualité de service sont au cœur du fonctionnement ? Ce poste est fait pour vous. Dans le cadre de son développement, notre client recherche un Chef de Projet BI / Data Middleware (H/F) pour renforcer sa Direction Digitale et Systèmes d’Information. Vous jouerez un rôle clé dans la collecte, la transformation et la valorisation des données , ainsi que dans la mise en œuvre des flux d’échanges entre les différents systèmes. Le poste comporte environ 60 % de BUILD et 40 % de RUN . Vos missions : Conception et gestion des infrastructures data Recueillir les besoins métiers en matière de collecte, traitement et exploitation des données. Concevoir des architectures de données robustes (DWH, Data Lake…). Développer et maintenir des pipelines de données performants et sécurisés. Assurer la qualité, la sécurité et la conformité des données (gouvernance, RGPD). Optimiser les systèmes de traitement de données et industrialiser les processus. Support aux projets Data et intégration Collaborer étroitement avec les key users BI sur les projets décisionnels. Mettre en place et suivre les flux EDI (INVOIC, ORDERS…). Assurer la maintenance, les tests automatisés et l’exploitabilité des solutions. Contribuer à la rédaction des bonnes pratiques d’architecture et de sécurité. Veille, amélioration continue et qualité Réaliser une veille sur les technologies Big Data, frameworks et langages associés. Proposer des améliorations continues, tant sur les outils que sur les performances. Garantir la traçabilité et la haute qualité des données mises à disposition. Support utilisateurs et supervision quotidienne des flux (40 % du temps) Traiter les tickets utilisateurs (incidents, assistance). Assurer la supervision quotidienne des flux : analyse d’erreurs, corrections, rejouements, optimisations.
Freelance

Mission freelance
React Native Data Engineer

Cherry Pick
Publiée le
Databricks
React Native

12 mois
400-470 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Développeur React Native - Data Engineer" pour un client dans le secteur de la grande distribution. Description 📱 Le Contexte : Un Rôle Pivot Mobile & Data Nous recherchons un profil atypique et polyvalent pour intervenir sur une plateforme technologique alliant une interface utilisateur mobile exigeante et une architecture de données robuste sous Azure. Votre mission principale sera d'assurer la maintenance évolutive et corrective d'une application mobile développée en React Native . En complément, et selon la charge du front-end, vous interviendrez sur la partie Data Engineering pour optimiser les pipelines et les notebooks au sein de l'environnement Azure Databricks . 🎯 Vos Missions : Du Pixel à la Donnée 1. Développement Mobile (Majeure) : Assurer la maintenance corrective (bugs) et évolutive (nouvelles features) de l'application React Native. Analyser les opportunités et la faisabilité technologique des nouvelles fonctionnalités. Réaliser le prototypage, le développement des composants et les revues de code croisées. Garantir l'industrialisation des composants et la documentation pour la mise en production (MEP). 2. Data Engineering (Mineure / Support) : Intervenir sur les traitements back/data en environnement Azure . Développer et maintenir des pipelines de données et des notebooks sous Databricks . Optimiser les traitements via Spark et requêtage SQL complexe. Participer à la structuration et au maintien des bases de données liées à l'application. 3. Qualité & Exploitation : Élaborer les jeux d'essais et réaliser les tests unitaires et d'intégration. Analyser les résultats, traiter les dysfonctionnements et rédiger les rapports de tests. Participer à la résolution des incidents de production et mettre à jour les dossiers d'exploitation.
Freelance

Mission freelance
DEVIENS #AUTEUR DE VIDEO Power Query

Editions ENI
Publiée le
Data cleaning
Power Query

4 mois
100-300 €
Saint-Herblain, Pays de la Loire
Vous maîtrisez Power Query sur le bout des doigts ? Vous avez la fibre pédagogique et l'envie de transmettre ? Et si votre prochain défi était de devenir auteur(trice) vidéo ? Aux Éditions ENI, nous recherchons un(e) professionnel(le) de l'IT pour concevoir et enregistrer notre prochaine vidéo qui portera sur Power Query . Votre mission : Partager votre expertise et vos conseils avec une communauté de professionnels. Pourquoi nous rejoindre ? Boostez votre Personal Branding : Devenir auteur ENI, c'est asseoir votre crédibilité dans l'écosystème IT. Focus sur votre expertise : Concentrez-vous sur le contenu, on s'occupe du reste ! Nous vous accueillons dans notre studio d'enregistrement à Saint-Herblain (déplacements pris en charge). De la captation au montage final, nous nous occupons de tout pour garantir un rendu de haute qualité à votre vidéo de formation. Un accompagnement sur-mesure : De la structure du sommaire au tournage, vous bénéficiez d'un suivi éditorial et méthodologique complet. Une rémunération simple : Forfait fixe garanti dès la fin du projet. Le profil recherché : Vous êtes Data Analyst , ou formateur(trice) ... et Power Query n'a aucun secret pour vous. Vous savez vulgariser des concepts complexes et vous êtes à l'aise pour expliquer votre démarche.
Freelance

Mission freelance
Data analyst risque de crédit

Freelance.com
Publiée le
Data analysis
Data quality
Python

1 an
550-650 €
Île-de-France, France
Pour le compte d’un acteur majeur du secteur bancaire , nous recherchons un Data Analyst Senior spécialisé en risque de crédit afin de renforcer les équipes risques dans un contexte de transformation data et réglementaire. Vous interviendrez sur des problématiques à fort enjeu business et réglementaire (pilotage du risque, modélisation, reporting prudentiel) en lien étroit avec les équipes Risk, Finance et IT. Description de la mission En tant que Data Analyst Risque de Crédit , vos principales responsabilités seront : Analyse et exploitation de données liées au risque de crédit (portefeuilles, défauts, provisions, notations internes) Conception et maintenance d’indicateurs de pilotage du risque (PD, LGD, EAD, coût du risque, etc.) Contribution aux travaux réglementaires et prudentiels (IFRS 9, stress tests, reporting risques) Développement et optimisation de traitements de données en Python et SQL Participation à l’industrialisation des analyses et à l’amélioration continue des outils data Collaboration avec les équipes Risk Management , Finance et IT
Freelance

Mission freelance
Consultant développement et support ESB Boomi

CAT-AMANIA
Publiée le
Apache Kafka
Boomi
Data integrity

1 an
100-460 €
Lille, Hauts-de-France
Intégrée dans le sous domaine Value Chain engineering Cross, notre équipe Data Exchange est chargée de la gestion des échanges de données. En plus de permettre au SI de communiquer entre les différents domaines de l’entreprise et d’assurer le maintien en conditions opérationnelles de nos plateformes, nous prenons en charge les nouveaux besoins flux et travaillons sur l’optimisation des échange pour répondre techniquement de la manière la plus cohérente aux besoins utilisateurs. nous recherchons un consultant développement et support expérimenté sur notre ESB Boomi. Autonome, rigoureux, organisé, méthodique et aimant travailler en équipe. Vous nous accompagnerez sur : L’analyse et le support (N3) de nos incidents La prise en charge et la réalisation de développements de flux (création, évolution, mapping et configuration de flux) Les tâches d’exploitation sur nos plateformes (arrêts / redémarrage de serveurs, connexions, composants, flux, ..) La participation aux projets techniques L’accompagnement de nos utilisateurs Le suivi de l’activité au travers nos outils de monitoring La rédaction et la mise à jour de nos documentations techniques La participation active à tous les points de stand up et autres La participation au roulement d’astreinte
Freelance
CDI

Offre d'emploi
Data Engineer Azure Data Factory

adbi
Publiée le
Azure Data Factory
Azure DevOps
DAX

1 an
45k-55k €
500-600 €
Île-de-France, France
Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor
Freelance

Mission freelance
Data Platform Engineer

Phaidon London- Glocomms
Publiée le
Apache Spark
AWS Cloud
CI/CD

6 mois
400-550 €
Paris, France
Support Technique et Expérience Développeur Assurer un support quotidien aux ingénieurs et data scientists. Identifier et contribuer à la gestion de la dette technique ; fournir des outils d'automatisation et de test. Collaborer avec les équipes plateforme pour optimiser l'expérience développeur globale. Adoption de la plateforme et bonnes pratiques Promouvoir l'utilisation efficace des outils et fonctionnalités de la plateforme. Se tenir informé(e) des tendances du secteur et des technologies cloud/données pertinentes. Développement des compétences et animation de la communauté Évaluer les compétences de l'équipe et dispenser des formations ciblées. Animer une communauté de pratique pour présenter les améliorations et partager les bonnes pratiques. Produire de la documentation technique et des supports de formation. Retours d'information et évolution de la plateforme Recueillir les retours des utilisateurs et contribuer à l'amélioration du produit. Valider les livrables d'ingénierie de la plateforme par des tests alignés sur des cas d'utilisation réels. Défendre les intérêts des ingénieurs et des data scientists en interne.
Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

1G-LINK CONSULTING
Publiée le
Apache Airflow
DBT
Snowflake

8 mois
Île-de-France, France
Dans le cadre du renforcement des équipes de notre client, nous recherchons un(e) Data Engineer pour participer à des projets stimulants dans un environnement technique évolutif. Dans ce contexte, vous serez un acteur clé des chaînes d’approvisionnement, de transformation et de valorisation de la donnée , avec des enjeux forts de qualité, volumétrie, maintenabilité et modélisation . Missions Au quotidien, vous serez amené à : Concevoir, développer et déployer des solutions de gestion de données cloud-native Assurer la qualité, la conformité et la maintenabilité du code (tests, documentation, bonnes pratiques) Détecter, analyser et résoudre les incidents ou anomalies Participer aux chantiers transverses data (CI/CD, supervision, catalogue de données…) Comprendre les enjeux métiers liés aux données Loyalty & Partnerships Garantir la cohérence de la modélisation des données avec les Data Managers Accompagner les équipes Produit et Data Science dans la définition des besoins data Participer à la communauté Data Tech (bonnes pratiques, veille technologique, capitalisation) Sensibiliser les équipes aux enjeux et bénéfices de la data Compétences techniques SQL Snowflake dbt Airflow Astronomer Intégration et manipulation de données massives Architectures data analytiques ou opérationnelles Data modeling Data Quality / monitoring Tableau / Data Visualization (niveau junior acceptable) Python Environnement technique Modern Data Stack incluant notamment : Snowflake dbt Airflow / Astronomer Tableau Cloud data platform
CDI

Offre d'emploi
Data Engineer Senior

INFOGENE
Publiée le

60k-70k €
Neuilly-sur-Seine, Île-de-France
Contexte du poste Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Data & Cloud. Vous jouerez un rôle clé dans la conception d’architectures data robustes, l’industrialisation des pipelines, l’optimisation des performances BigQuery et la mise en place de solutions IA/ML. Vous interviendrez dans un environnement GCP-first , moderne, orienté automatisation et bonnes pratiques DevOps. 1. Compétences techniques attendues Architecture Système & Cloud Excellente maîtrise de Google Cloud Platform (GCP) Containerisation & architectures serverless Maîtrise des patterns d’intégration d’entreprise DevOps & Infrastructure as Code Terraform (développement de modules, automatisation, paramétrages avancés) CI/CD : GitHub Actions, pipelines automatisés Maîtrise de Git / GitHub Développement d’API Conception & développement d’API REST Expérience sur Apigee , Cloud Run , FastAPI Architectures orientées événements Mise en place de flux événementiels : GCP Pub/Sub Connaissance de Kafka Modélisation de données Modèles en étoile (Star Schema) Modèles en flocon (Snowflake Schema) Modélisation dimensionnelle avancée BigQuery – Expertise avancée Écriture et optimisation de procédures stockées complexes Optimisation des performances & des coûts Optimisation DirectQuery pour outils BI Orchestration & pipelines de données Cloud Workflows, EventArc, Cloud Run Scripting Python ML / IA / GenAI Algorithmes classiques, MLOps Expérience sur Vertex AI (pipelines, modèle, tuning) Compréhension des réseaux neuronaux (encodeur/décodeur) Connaissance de concepts LLM, RAG, MCP BI & Analytics Looker, modèles LookML Qualité & Observabilité Expérience en qualification, monitoring & observabilité des données Méthodologies & Leadership Travail en équipes Agile / Scrum Mentorat & accompagnement de développeurs Atouts (Nice to have) Compétences WebApp : JavaScript / React Certification GCP Data Engineer ou Cloud Architect
CDI
Freelance

Offre d'emploi
Data Engineer (H/F)

1G-LINK CONSULTING
Publiée le
C#
Python
Snowflake

3 mois
Île-de-France, France
Nous recherchons deux Data Engineers expérimentés pour renforcer les équipes Data & Analytics Mission : Conception et industrialisation de pipelines batch & streaming Expertise Snowflake : SQL avancé, modélisation, optimisation des performances Développement : Python, Snowpark, PowerShell, C#, JavaScript Mise en place et maintien des chaînes CI/CD & DevOps (Azure DevOps, Git) Revue de code, qualité, supervision et support niveau 3 Capacité de cadrage, documentation et rôle de référent technico-fonctionnel
CDI

Offre d'emploi
Data engineer (H/F)

Amiltone
Publiée le

35k-40k €
Lille, Hauts-de-France
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Freelance

Mission freelance
Data Layer - Business Analysis

Net technologie
Publiée le
Big Data

6 mois
Paris, France
Au sein du département informatique du client en charge des développements pour le bénéfice de l’ALM Treasury, nous proposons une mission de type Business Analyst pour contribuer sur un projet central autour de la donnée. Objectifs de la mission: - Formalisation des règles de gestion pour les développeurs et les accompagner dans leur implémentation - Formalisation des cahiers de tests : contribuer à l'approche TDD/BDD - Spécification de l'intégration de nouvelles sources de données : opérations et référentiel - Etudes et analyses du backlog d'équipe - Expertise en mode Agile
Freelance
CDI

Offre d'emploi
Développeur Backend C# .NET Core – Kafka / Cassandra (F/H)

AVA2I
Publiée le
.NET
Apache Kafka
Big Data

3 ans
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre d’un projet sur une plateforme moderne orientée services, nous recherchons un Développeur Backend C# / .NET Core (confirmé à senior) pour intervenir sur des services critiques en environnement Big Data . Le profil attendu devra être autonome , capable de comprendre rapidement une architecture existante et d’être force de proposition . Missions principales Développement backend en C# / .NET Core Contribution à l’évolution d’une architecture SOA / microservices Gestion des flux Kafka (production / consommation) Intervention sur la couche Data Layer (analyse, optimisation, maintenance) Maintenance applicative et amélioration continue Rédaction de documentation technique Mise en place et maintien des tests ( unitaires / intégration ) Compétences techniques clés C# / .NET Core (solide expérience en développement backend) Architecture orientée services ( SOA / microservices ) Kafka Cassandra (fortement apprécié, voire clé sur la mission) Bonne compréhension des couches Data Layer Expérience en maintenance applicative Pratique de la documentation technique et des tests (unitaires / intégration) Contexte & environnement Environnement ALM / Treasury (connaissance fonctionnelle appréciée mais non obligatoire) Contexte Big Data Plateforme moderne et industrialisée, orientée services
Freelance

Mission freelance
Data Analyst Expert

Codezys
Publiée le
Big Data
BigQuery
Data science

12 mois
Lille, Hauts-de-France
Notre Data Analyst devra : Concevoir, développer et mettre en œuvre des modèles d’analyse territoriale afin d’identifier les variables clés influençant les dynamiques locales. Exploiter des données variées telles que les données socio-démographiques, environnementales, concurrentielles, économiques et de marché pour établir des corrélations et réaliser des prédictions. Principales missions : Collecter, nettoyer et structurer des données provenant de sources diverses, qu’elles soient internes ou externes (Systèmes d’Information Géographique, bases démographiques, données climatiques, données de marché, etc.). Développer des modèles statistiques et d’apprentissage automatique pour analyser les relations entre variables et anticiper les évolutions territoriales. Collaborer avec le Chargé d’étude en géomarketing afin d’intégrer des données géospatiales dans les analyses. Concevoir des tableaux de bord interactifs (notamment avec Power BI) et élaborer des visualisations pour faciliter la compréhension des résultats par les décideurs (cartes, graphiques, etc.). Travailler en étroite collaboration avec les experts métier pour affiner les hypothèses, valider les modèles et garantir la pertinence des analyses. Analyse et contact avec le métier : Transformer les besoins métiers en indicateurs pertinents et identifier les sources de données appropriées pour y répondre. Analyser les dynamiques croisées des territoires, notamment en matière socio-démographique, économique, immobilière, environnementale, concurrentielle et de mobilité. Convertir les résultats analytiques en livrables clairs, pédagogiques et exploitables pour les équipes décisionnelles. Gestion des données et traitement : Rédiger des requêtes SQL complexes pour la préparation et l’analyse des données. Garantir la fiabilité, la cohérence et la traçabilité des analyses produites. Participer à l’industrialisation et à la fiabilisation des données à forte valeur ajoutée, en assurant leur architecture et leur modélisation.
Freelance

Mission freelance
Expert data et BI - Pré embauche - Marseille (13)

LeHibou
Publiée le
Data governance
SQL

6 mois
500 €
Marseille, Provence-Alpes-Côte d'Azur
Notre client recherche un Expert Data & BI H/F Descriptif de la mission: La mission consiste à assurer la continuité et la fiabilité des activités Data & Business Intelligence, en garantissant la qualité, la sécurité et la conformité des données. Elle vise également à piloter les projets d’intégration, de reporting et d’optimisation pour soutenir les décisions stratégiques de l’entreprise. Responsabilités clés Support opérationnel : Assurer le suivi des projets Data (ETL, entrepôt de données, dashboards) et garantir la disponibilité des services BI. Coordination : Superviser l’équipe Data en l’absence du manager, gérer les priorités et les escalades. Qualité et conformité : Maintenir les standards de qualité des données et veiller au respect des règles de sécurité et conformité. Reporting : Produire et valider les KPI, tableaux de bord et analyses pour les directions métiers. Amélioration continue : Identifier les optimisations possibles dans les processus Data et BI. Communication : Servir de point de contact pour les parties prenantes internes et externes. Compétences, expériences et qualités requises 5 à 7 ans dans le domaine Data & Business Intelligence, incluant la gestion de projets et la mise en place de solutions BI. Expérience confirmée en modélisation de données, ETL, data governance et reporting. Connaissance des environnements ERP (ex. Sage X3) et des outils de visualisation (Power BI, Qlik). Pratique des méthodologies Agile et des processus de qualité et sécurité des données. Compétences / Qualités indispensables: SQL, Data Modeling, BI Tools (Power BI, Qlik, etc.), ETL, suite MS BI SQL Server (SSAS,SSRS,SSIS) très appréciée, Gestion de projet, priorisation, coordination d’équip Compétences / Qualités qui seraient un +: Anglais Soft skills : Leadership, communication, capacité à prendre des décisions rapides. Connaissance métier : Gouvernance des données, sécurité, conformité RGPD
2336 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous