Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 399 résultats.
Freelance

Mission freelance
SAP Master data (SD/MM)

ASENIUM
Publiée le
Master Data Management (MDM)

6 mois
Île-de-France, France
Je recherche actuellement pour mon client final, un consultant SAP Master Data avec une solide expérience MM/SD pour un projet autour de la structuration et gouvernance des données produits dans SAP. Aujourd’hui, plusieurs équipes (achats, supply, commerce, finance) gèrent leurs propres fichiers, ce qui crée parfois des incohérences entre les groupes de marchandises, familles produits, hiérarchies et la valorisation financière. La mission consiste donc généralement à : 1. Centraliser et structurer les données définir un référentiel unique dans SAP harmoniser groupes de marchandises, familles produits, hiérarchies 2. Nettoyer et fiabiliser les données supprimer les doublons corriger les incohérences entre fichiers Excel et SAP mettre en place des règles de création/modification 3. Mettre en place une gouvernance définir qui crée quoi standardiser les processus de gestion du Master Data Démarrage-ASAP
Freelance

Mission freelance
250824/Expert Talend, Talend Data management, Anglais Courant

WorldWide People
Publiée le
Talend

6 mois
Vélizy-Villacoublay, Île-de-France
Expert Talend, ETL, Talend Data management, Anglais Courant L’équipe Data Foundations souhaite bénéficier de l’assistance technique d’un expert technique Talend, disposant d’une solide expérience Data, afin d’accompagner les projets d’intégration de données. Goals and deliverables Le consultant interviendra notamment sur les activités suivantes : Application des bonnes pratiques et standards Talend Data Management, de la phase de développement jusqu’au déploiement, en collaboration avec le ETL Tech Lead Support aux projets lors des phases d’implémentation : qualification des données, transformation et intégration Mise en œuvre et respect de l’architecture cible, de la stratégie Data et des patterns ETL, en collaboration avec les experts techniques Analyse des besoins métiers et techniques, incluant l’évaluation de la faisabilité technique et de la charge associée Développement des jobs Talend, déploiement, réalisation des tests d’acceptation et rédaction de la documentation Réalisation d’audits de jobs ETL Définition des pré‑requis techniques et des templates Rédaction des spécifications techniques Expected skills Skills Skill level ETL Expert TALEND Expert Talend Data management Expert Languages Language level Anglais Bilingual
CDI
Freelance

Offre d'emploi
Expert Data spécialisé sur Semarchy

OBJECTWARE
Publiée le
Semarchy

6 mois
Indre-et-Loire, France
Nous recherchons un Expert Data spécialisé sur Semarchy pour intervenir sur un projet autour de la gestion et de la gouvernance des données . Vos missions : Mise en place et évolution de solutions Semarchy (MDM) Modélisation et gestion des référentiels de données Participation à la gouvernance et à la qualité des données Collaboration avec les équipes techniques et métiers Profil recherché : Expérience sur Semarchy xDM / MDM Bonne compréhension des enjeux data / gouvernance des données Autonomie et capacité à intervenir sur des environnements data 📍 Poste basé en Indre-et-Loire (37) 📅 Démarrage : dès que possible
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
JIRA
Linux
Python

24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
Freelance

Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy

Almatek
Publiée le
SQL

6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Freelance

Mission freelance
Lead Delivery IA

Sapiens Group
Publiée le
GenAI
MLOps

12 mois
500-520 €
Lille, Hauts-de-France
Responsabilités principales 1. Cadrage et qualification des cas d’usage Animer les ateliers de cadrage avec les métiers Évaluer la faisabilité fonctionnelle et l’effort de delivery Définir les critères de succès (valeur, adoption, qualité, risques) Intégrer les exigences liées aux données, à la traçabilité et aux contrôles 2. Pilotage du delivery & coordination multi-acteurs Construire et piloter le plan de delivery (jalons, sprints, capacité, risques) Orchestrer l’ensemble des parties prenantes (métiers, IT, data, IA) Garantir la qualité des livrables fonctionnels (backlog, spécifications, comptes-rendus de décisions) 3. Recette & décision go/no-go Préparer et animer les revues de jalons Organiser la recette fonctionnelle (UAT) et définir les critères d’acceptation Coordonner les validations finales avec les parties prenantes 4. Adoption, déploiement & mesure de la valeur Définir et piloter le plan de déploiement (pilote, généralisation, support) Contribuer à la formation, communication et support avec le Performance Lab Mettre en place et suivre les KPI d’usage (adoption, fréquence, satisfaction) Mesurer la valeur générée (gains de temps, qualité, réduction des risques) Piloter l’amélioration continue via des boucles de feedback 5. Qualité & fiabilité Définir les règles de qualité fonctionnelle des solutions IA Mettre en place des contrôles et un suivi des écarts 6. Industrialisation & réutilisation Capitaliser sur les retours d’expérience (REX) Standardiser les bonnes pratiques (copilots, agents IA, RAG) Contribuer à la création de templates et référentiels de delivery IA Compétences requises Compétences techniques Bonne connaissance des solutions GenAI (copilots, agents IA, RAG) : fonctionnement, limites, hallucinations Compréhension des principes MLOps (niveau utilisateur / consommation) Compréhension fonctionnelle des architectures RAG Connaissance de la structuration des données pour l’IA (Golden Data, référentiels) Compétences transversales Formation Bac +5 (ingénieur, data science, digital, produit ou SI) Expérience en environnement transverse (métiers, DSI, data, IA) Compétences en Product Management : roadmap, backlog, priorisation, MVP Maîtrise des méthodologies Agile (Scrum, Kanban) Pilotage multi-projets et gestion des dépendances Compétences AMOA : expression de besoins, animation d’ateliers, rédaction de spécifications Culture data, IA et processus métiers Langues Français : courant Anglais : intermédiaire (B1/B2) – environnement international Livrables attendus Dossier de cadrage (valeur, périmètre, KPI, risques, dépendances) Backlog et roadmap (priorisation, MVP, jalons) Spécifications fonctionnelles (règles métier, conformité, UX) Plan de recette et procès-verbal (PV) Plan de déploiement et d’adoption (avec Performance Lab) Retours d’expérience (REX) et templates de delivery IA
CDI

Offre d'emploi
ML Ingénieur - Google Cloud

VISIAN
Publiée le
CI/CD
MLOps

Île-de-France, France
Contexte Afin d’améliorer la personnalisation de l’expérience utilisateurs, une équipe dédiée est créée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. La stack technique est basée sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. Missions Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la prestation consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capables de répondre aux besoins et au volume de données
Freelance

Mission freelance
Data Engineer Azure Databricks

CHOURAK CONSULTING
Publiée le
Azure
Azure DevOps
Azure Synapse

3 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
Big Data
Cloudera
Data Lake

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Le client, dans le cadre du développement et de la maintenance de sa plateforme Big Data, recherche un Développeur Big Data expérimenté (H/F) avec au moins 5 ans d’expérience en environnement Data. La mission se déroule au sein de l’équipe Big Data, chargée de l’alimentation, de l’évolution et de l’optimisation du Data Lake sous Cloudera Hadoop. L’objectif principal est de concevoir, faire évoluer et maintenir les traitements d’alimentation pour assurer la qualité, la performance et la maintenabilité des solutions. Le consultant intervient dans un contexte de production exigeant, avec de forts enjeux de fiabilité et de respect des délais. Missions principales : Développement & évolution du Data Lake : Gérer les évolutions des flux et des données à intégrer Faire évoluer les développements existants d’alimentation Maintenir les traitements d’ingestion et de transformation Concevoir des extractions de données pour répondre aux besoins métiers Stack technique : Cloudera Hadoop, Hive, Impala, Spark, Python, SQL, Shell, Linux, VBA, Jupyter Expertise technique & structuration : Rédaction des spécifications techniques Fourniture de requêtes SQL de référence Revue de code Structuration et pilotage via JIRA Documentation des processus et accompagnement des utilisateurs Encadrement de profils juniors (alternants, stagiaires) Performance & optimisation : Optimiser les traitements et requêtes Améliorer la performance et l’exploitabilité Contribuer à la maintenabilité globale Réaliser du reverse engineering dans une architecture héritée complexe Support & accompagnement : Assurer le support de niveau 2 Faire respecter les bonnes pratiques Communiquer clairement avec différents interlocuteurs (développeurs, utilisateurs, clients) Gouvernance & conformité : Veiller au respect des modèles de données Collaborer avec la Direction Technique et la Gouvernance de la Donnée pour faire évoluer les standards
CDI
Freelance

Offre d'emploi
Architecte Data / CMDB Snow (ServiceNow)

OBJECTWARE
Publiée le
Master Data Management (MDM)
ServiceNow

3 ans
45k-95k €
540-700 €
Île-de-France, France
Prestations demandées Les Missions principales sont : -Conception et optimisation du data model des référentiels IT techniques (CIs et métadonnées) -Définition des règles d’identification et de réconciliation (IRE) au sein de ServiceNow -Spécification des sources de vérité et cartographier les flux d’alimentation des référentiels -Déploiement des stratégies de data quality : déduplication, fiabilité, couverture, obsolescence -Application des principes de Master Data Management au contexte de la CMDB -Mise en place une gouvernance claire, documentée et partageable -Collaboration étroite avec les équipes ITSM, Discovery, MDM, sécurité et infrastructure -Accompagnement des équipes en charge des découvertes et des inventaires techniques -Production de la documentation d’architecture, standards, bonnes pratiques et processus -Développement des produits de données permettant de répondre aux besoins de reporting et d'audit
Freelance

Mission freelance
Senior Site Reliability Engineer - Run

STHREE SAS pour HUXLEY
Publiée le

12 mois
Lille, Hauts-de-France
Organisation & localisation Localisation : Lille - 2 jours de télétravail par semaine. Démarrage : ASAP Modèle : Freelance ou portage (pas de sous-traitance) Durée : Mission avec une très longue visibilité Contexte de la mission Acteur majeur du paiement et des services digitaux, en forte croissance, nous accompagnons une plateforme stratégique au cœur d'un vaste programme de transformation. Dans le cadre du renforcement de l'équipe Opérations, nous recherchons un·e SRE expérimenté·e pour intervenir sur la run, la production et l'amélioration continue de la qualité de service. La mission s'inscrit dans une dynamique de collaboration forte, de partage de connaissances et de montée en compétences collective. Missions principales En tant que SRE, vous interviendrez sur des sujets clés liés à l'exploitation et à la fiabilité des systèmes : Garantir la disponibilité, la performance et la scalabilité de la plateforme Piloter la gestion des incidents de bout en bout : analyse des causes racines mise en place de correctifs actions de prévention Assurer le SRE Run : suivi de la production, supervision des exploitations, anticipation des incidents Améliorer l'observabilité et la qualité de service Automatiser les opérations et le support (software, usages IA pour l'Ops) Collaborer étroitement avec les équipes dev, devops et sécurité Être moteur dans le partage de bonnes pratiques et la montée en compétences des équipes Stack & environnement technique Cloud : GCP Conteneurisation / Orchestration : Kubernetes Infra & scripting : Linux, Python, Terraform Observabilité : Datadog CI/CD : GitHub, GitHub Actions Sécurité & réseau : WAF, DDoS Environnement critique, orienté service et clients Profil recherché Solide expérience en production et gestion d'incidents À l'aise dans des environnements critiques et à fort enjeu business Capacité à communiquer clairement, y compris en situation de stress Sens aigu du travail en équipe, de la collaboration et du partage Envie de s'inscrire dans une mission longue durée, structurante et structurée Une connaissance du paiement / identité / IAM est un vrai plus Nous cherchons une personne collaborative, pédagogue, fédératrice, capable de travailler avec des équipes pluridisciplinaires et de créer une vraie dynamique collective. Le client est accompagné par des partenaires experts, et porte une attention particulière à la qualité des recrutements : l'objectif est de construire une équipe solide et durable.
CDD
CDI
Freelance

Offre d'emploi
Consultant Juriste Confirmé Data Privacy-RGPD 2

KEONI CONSULTING
Publiée le
Architecture
Méthode Agile
Privacy Impact Assessment (PIA)

18 mois
20k-60k €
100-450 €
Toulouse, Occitanie
Contexte Recherche en Droit Numérique MISSIONS - Assister et conseiller les chefs de projets Informatiques dans l'identification des données à caractères personnelles, des traitements associés, documenter les livrables RGPD selon la méthodologie CNIL en lien avec l'expert Sécurité des Systèmes d'Information dans le respect de la méthode Groupe, définir et recetter les exigences, identifier / évaluer les risques en matière de protection des données et proposer des actions de remédiation. - rédiger les AIPD /PIA en lien avec les Métiers et les DPO concernés, les filières Juridiques/Achat, Conformité du Groupe mais également pour - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de Privacy (RGPD, Cookies et Traceurs, usages Data et IA...) des systèmes d'information. - Effectuer une veille en matière de Protection des données - Assurer le support en cas de violations de données, demandes de la CNIL et d'exercices de droits et en assurer le support auprès des plateformes Métiers et en lien avec la Direction Protection des Données du Groupe Vous êtes autonome rigoureux, pédagogue, communicant, dynamique et proactif. Expertises spécifiques : Compétences Juridiques Requises / Certification DPO CNIL indispensable Compétences informatiques : MOOC ANSSI, Architecture des SI, Iso 27001/27005/27701 Connaissances des métiers Banque et Assurances requises Connaissances Méthode Projet Agile
Freelance

Mission freelance
Consultant Data gouvernance Collibra (BCBS 239)

STHREE SAS pour COMPUTER FUTURES
Publiée le
Collibra
Data management

9 mois
Île-de-France, France
Contexte : Cadre réglementaire pour les banques : Exigences Bâle 2 renforcée, besoin de données fiables pour piloter les risques et pression sur qualité et traçabilité de données Objectifs : Implémentation de Collibra (choix du siège) comme levier RDARR : La plateforme de gouvernance des données ❖ Glossaire, dictionnaire, référentiels ❖ Rôles et responsabilités (ownership) // Documentation et workflows ❖ Data lineage ❖ Cohérence et transparence des données utilisées Missions Phase Data Owner Assignment : suivant la définition théorique que nous avons donné en interne sur les rôles et Responsabilités, 4 profils : Data Owner, Stewart, Producer et User ❖ Préparer et faire valider la matrice des R&R auprès des Data Owner à partir du scope CONNECT ❖ Faire valider les Rôles et Responsabilités auprès des Data Owner sur les IDP Connect (Local file, Mapping table, RDT, Scoring, Rating …) Phase Alimentation Collibra : ❖ « Ecosystème input CONNECT » Use case de l’implémentation dans Collibra) 1/ Préparer les différents templates (par entités CONNECT) pour Collibra avec les besoins fonctionnels demandés pour Collibra 2/ Identifier les sources de données (avec l’aide de spécifications techniques) 3/ Faire compléter le lineage de data par l’IT 4/ Tester les templates sur K dans l’import Collibra et valider les schémas (Vérifier que le lineage fonctionne correctement avec les données attendues en provenance des systèmes) 5/ Mettre en production les templates 6/ Effectuer et Organiser les correctifs nécessaires en partenariat avec l’IT. 7/ Participer au meetings bi-weekly avec le siège sur l’avancement des travaux – Fournir l’avancement nécessaire dans JIRA et/ou au Data Officer ❖ «Ecosysteme Autres » Selon le siège, « nous » livrons des spreadsheets pour le compte du regulatory reporting. Cadrage encore flou. Cependant l’idée serait d’auditer certains services pouvant « toucher » aux outils du siège (suivant liste pré définie) afin de vérifier que des données sont envoyées au siège et par quel biais. - Prendre les outils recensés par le siège (Check si ces outils génèrent des flux pour les besoins des reportings règlementaires au siège) - Sonder sur les User de ces outils et les flux existants - Organiser la description de ces flux en vue de l’intégration dans Collibra . - Vérifier que le flux soient déclarés en interne dans la cartographie des outils avec architecte IT
Freelance
CDI

Offre d'emploi
Tech Lead Databricks

VISIAN
Publiée le
PySpark
Python

1 an
40k-80k €
400-730 €
Paris, France
Contexte Une équipe centralisée gère la plateforme mais de nombreuses équipes (Feature Team organisées par domaine de données) travaillent sur la Data Platform . Toutes les équipes fonctionnent en mode agile. Un Tech Lead est recherché pour une Feature Team du client . La maîtrise de l'outil DATABRICKS est un prérequis. Missions Conception, développement et maintenance des pipelines de données Cadrage technique Garant de la mise en production des traitements au sein de la plateforme Optimisation du code pour chaque traitement, maîtrise de l'usage Databricks au regard des coûts Maîtrise de l'architecture médaillon de Databricks, des problématiques de qualité de données, du DevOps Développement sous Databricks (Python / SQL / Spark) Force de propositions techniques Capacité à encadrer / coacher des data engineers juniors, challenger la solution et assurer un rôle de tech lead dans l'équipe
CDD

Offre d'emploi
PRODUCT OWNER Data / IA

TOHTEM IT
Publiée le

9 mois
45k-55k €
Paris, France
Vos missions Au cœur des enjeux data et métiers, vous serez amené à : Analyser et comprendre les besoins métiers afin de proposer des solutions data adaptées Concevoir des modélisations fonctionnelles de données et contribuer à la définition des architectures Recueillir les besoins auprès des utilisateurs via des ateliers fonctionnels et formaliser les règles de gestion Rédiger les spécifications fonctionnelles et techniques pour les développements dans l’environnement Palantir Définir les flux de données, interfaces utilisateurs et applications agentiques Présenter les solutions développées aux utilisateurs et accompagner les phases de recette Participer à la gestion de la backlog projet et aux rituels de l’équipe BI Contribuer au suivi des applications et au support utilisateur
Freelance
CDI

Offre d'emploi
Data analyste - Montpellier / Nantes / Paris

VISIAN
Publiée le
Microstrategy
PowerBI

3 ans
47k-50k €
500-530 €
Montpellier, Occitanie
Contexte Au sein d’une Direction Data d’un grand groupe du secteur bancaire, vous intégrez un chapitre dédié à l’accompagnement des équipes métiers dans la valorisation de la donnée. Vous intervenez dans un environnement multi-sites, en lien étroit avec des squads produit, des équipes marketing et des directions métiers, avec un fort enjeu de pilotage business et de transformation digitale par la data . Missions Recueillir et analyser les besoins métiers en collaboration avec les équipes Business, PO et BA Traduire les besoins en KPI pertinents pour le pilotage des activités Exploiter les données issues du SI décisionnel / marketing Réaliser des analyses exploratoires et produire des indicateurs fiables Concevoir et maintenir des tableaux de bord décisionnels (reporting, data visualisation) Restituer les analyses aux équipes métiers et accompagner la prise de décision Présenter les résultats dans des instances (comités, réunions métiers) Participer à l’amélioration continue des pratiques data Contribuer à des sujets de tracking digital et analyse marketing (parcours utilisateurs, performance digitale) Livrables KPI métiers (définition, calcul, documentation) Tableaux de bord décisionnels Analyses exploratoires et études data Restitutions visuelles et supports de présentation Recommandations business basées sur la donnée Environnement technique Data visualisation : MicroStrategy (ou Power BI / Tableau) SQL (niveau expert) Base de données : Teradata Environnement décisionnel / data marketing
3399 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous