Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 800 résultats.
Freelance

Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote

Publiée le
Data quality
ETL (Extract-transform-load)
Linux

12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Freelance
CDI

Offre d'emploi
Consultant Support IT Finance – Coordinateur Post Go-Live

Publiée le
Azure DevOps
JIRA
Oracle EBS

1 an
55k-60k €
450-560 €
Paris, France
Télétravail partiel
Dans le cadre du déploiement de l'ERP Oracle Cloud (Fusion), nous recherchons un Consultant Expert Support Finance. Véritable pont entre les directions métiers (Finance) et les équipes techniques, votre mission principale est de sécuriser la phase d'hyper-care et de garantir l'adoption de la solution par les utilisateurs finaux. Ce rôle requiert une forte sensibilité métier Finance alliée à une maîtrise fonctionnelle de l'outil Oracle Cloud, afin de traduire les besoins business en solutions techniques actionnables. Missions principales : 1. Interface Business & IT Coordination : assurer la fluidité de la communication entre les équipes IT (offshore) et les utilisateurs métiers. Gouvernance : alerter la direction de projet en cas de situations critiques et proposer des arbitrages. Animation : modérer et animer des sessions de travail avec des interlocuteurs de cultures et de langues maternelles variées. 2. Accompagnement Post Go-Live & adoption Support utilisateurs : apporter une expertise fonctionnelle quotidienne sur les nouveaux processus et les fonctionnalités du système. Appropriation : guider les métiers pour qu’ils s’approprient pleinement la solution et deviennent autonomes. Pédagogie : vulgariser les concepts techniques pour donner aux utilisateurs une visibilité claire sur leurs actions et responsabilités. 3. Support Fonctionnel & MCO Résolution de problèmes : analyser les bugs rencontrés, effectuer les tests de correction et valider les déploiements. Expertise modules : intervenir en expert sur les modules Finance (GL, AP, Expenses, Fixed Assets) et PPM (Project Portfolio Management). Amélioration continue : prendre des initiatives pour corriger les dysfonctionnements identifiés et optimiser les processus existants.
Freelance
CDI

Offre d'emploi
Expert Technique eFront & API

Publiée le
API
eFront
JIRA

24 mois
Paris, France
Télétravail partiel
Poste : Expert Technique eFront & API Expérience : +8 années Localisation : Paris - Richelieu Drout. 2 jours de présentiel (mardi & vendredi) et 3 jours de TT Démarrage ASAP Mission longue Contexte Cette ressource sera rattachée à l'équipe agile FIA-GP / STG. Contexte de l'équipe : Agilité SCRUM avec un Product Owner, 1 Scrum Master, 2 BA / experts progiciel eFront, 1 développeur SQL, 1 développeur Datastage. A noter que le développement sur l'IHM eFront est réalisé par l'éditeur eFront au forfait. Cette ressource utilisera son expertise afin d'optimiser les traitements et de revoir les processus d'extractions actuellement réalisés pour les mettre à disposition des autres SIG concernés via API. Missions • Revue des composantes techniques et axes d'améliorations de performances • Réalisation d'API connectés à eFront • Assurer l'exécution et le support des recettes applicatives et fonctionnelles • Assurer le support utilisateur et l'assistance à la Production (analyse et traitement des tickets d'incidents)
Freelance

Mission freelance
DBA PRODUCTION SQL SERVER & POSTGRESQL

Publiée le
PostgreSQL
Production
SQL

24 mois
250-500 €
Paris, France
Télétravail partiel
Nous recherchons un(e) DBA PRODUCTION RUN (80%) BUILD (20%) afin d'administrer les bases de données Postgré et SQL Server En environnement de production 24/7 => astreintes (et HNO si besoin) Les livrables sont des Documents d'exploitation et des comptes rendus d'intervention Français Courant (Impératif) Anglais Professionnel (Secondaire) Description détaillée : Assurer le maintien en conditions opérationnelles des environnements portant les bases de données, avec périodes d'astreintes et interventions en HNO le cas échéant. Exploitation récurrente et proactive. Administration des environnements (Bases, supervision, sauvegardes, évolution). Optimisation et tuning. Traiter (N2 et N3) les incidents de Production. Réaliser les demandes de services et de changements. Réaliser le support aux équipes Projets et Intégration (participation aux transferts en production, mise à disposition des données aux plate-formes Hors Prod). Valider la documentation technique du domaine. Produire des documents techniques et les fiches de consignes nécessaires au pilotage. Etudier, proposer et prendre en charge la mise en œuvre des évolutions des environnements (migration, upgrade, nouveaux environnements). Date de démarrage 01/08/2023 Date de fin 30/06/2024 Paris 14 Nombre de jour souhaitable sur site 3 jours par semaine
Freelance
CDD

Offre d'emploi
NV - Expert NSX-T ACI

Publiée le
Cisco ACI
Cloud
Data Center

3 mois
Paris, France
Télétravail partiel
Bonjour Je recherche un expert sur NSX-T et Cisco ACI. L'expert réseau et cloud confirmé (8+ ans) doit etre capable de piloter des projets d’architecture et de transformation à l’international. Le profil doit maîtriser NSX-T, ACI, l’automatisation (Terraform, Ansible, Python) ainsi que connaitre les environnements cloud (AWS, Azure ou GCP). Compétences obligatoires : Vmware NSX-T Cisco ACI Expériences Data Center Connaissances cloud Bon niveau d'anglais PARLE et ECRIT Démarrage : asap Lieu: Paris avec 2 jours de télétravail par semaine Durée : 3 mois renouvelable Pour tout intéret, merci de m'envoyer votre cv à jour. NV
Freelance

Mission freelance
Data Engineer Sénior (5 ans d’expérience minimum)

Publiée le
Azure

12 mois
380 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer autonome disposant d’au moins 5 ans d’expérience, capable de collecter, analyser et exploiter les données pour améliorer le pilotage des activités et identifier les leviers de création de valeur. Le consultant accompagnera également les équipes métier dans le développement, le déploiement et l’exploitation de solutions data afin d’atteindre leurs objectifs. Missions principales : – Collecter, préparer et structurer les données pertinentes pour les besoins des utilisateurs. – Construire et optimiser des pipelines ETL/ELT robustes et performants. – Analyser les données et produire des visualisations accessibles via les outils décisionnels. – Proposer des recommandations et lignes directrices pour créer de la valeur au sein des activités métier. – Accompagner l’optimisation des offres, services et processus grâce à l’analyse et l’évaluation des données. – Garantir la conformité aux règles d’éthique et de gouvernance du groupe. – Présenter les fonctionnalités des produits data et faciliter leur maintenance. – Réaliser des tests conformément à la stratégie définie. – Maintenir à jour le catalogue des produits data (datasets). – Fournir des kits de formation et des outils pour les utilisateurs. Résultats attendus : – Identification et sélection des données pertinentes pour les besoins opérationnels. – Optimisation du temps, des ressources et des outils dédiés à l’analyse de données. – Production de jeux de données et visualisations compréhensibles et accessibles. – Mise à disposition de recommandations métier génératrices de valeur. – Amélioration des processus, services et offres grâce aux analyses. – Application stricte des règles de gouvernance et d’éthique data. – Tests réalisés et conformes aux exigences. – Catalogue des datasets à jour. – Mise à disposition de supports et kits de formation pour les utilisateurs. Compétences requises en Data Engineering : – Modélisation de données : modèles relationnels, dimensionnels, Data Vault. – ETL / ELT : conception, optimisation et gestion des dépendances. – Gouvernance et qualité de données : data lineage, qualité, catalogage, gestion des métadonnées. – Architecture data : maîtrise des patterns modernes (Data Lakehouse, Data Mesh…). Langages : – SQL avancé – Python avancé – PySpark avancé Outils et technologies : – Dataiku – Power BI – Databricks – Azure Data Factory – Azure Logic Apps
Freelance

Mission freelance
Machine Learning Engineer (Détection des fraudes)

Publiée le
Data science
Dataiku
Machine Learning

4 mois
580-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur bancaire Description 🏢 Le Contexte Pour le compte d’un grand groupe bancaire français , nous recherchons un expert en Data Science pour rejoindre une équipe pluridisciplinaire (Conformité, IT, Gestion de projet) en pleine transformation. Le groupe lance une refonte majeure de son dispositif de surveillance LCB-FT (Lutte Contre le Blanchiment et le Financement du Terrorisme). L’objectif est de passer d’une approche traditionnelle (moteur de règles) à une solution interne innovante intégrant le Machine Learning et l'IA . 🎯 Votre Mission Au cœur de la Direction de la Conformité, votre rôle principal est de réduire significativement le taux de faux positifs et d'améliorer la capacité de détection de nouveaux schémas de fraude, tout en garantissant une explicabilité totale vis-à-vis du régulateur. Vos responsabilités principales : Modélisation & Data Science : Élaborer de nouveaux modèles de scoring et de segmentation de la clientèle. Combiner des approches supervisées et non supervisées pour détecter les comportements suspects (patterns connus et atypiques). Réaliser le Feature Engineering : sélection et validation des variables pertinentes (historique bancaire, KYC, transactions). Optimisation & Performance : Réviser les seuils de déclenchement des alertes pour optimiser le travail des analystes. Assurer la performance des modèles aussi bien en traitement Batch qu'en Temps Réel. Gouvernance & Explicabilité (Critique) : Garantir que chaque modèle produit est "auditable" et explicable (transparence des décisions, justification des variables) pour répondre aux exigences réglementaires strictes. Gestion de Projet & Accompagnement : Accompagner les phases de cadrage, recette et industrialisation. Rédiger les livrables (cahiers des charges, expressions de besoins, documentation technique). 🛠 Environnement Technique Stack principale : Python, Dataiku. Données : Historique opérations, KYC, relations clients, volumétrie bancaire standard.
CDI

Offre d'emploi
Data Engineer Databricks - Paris

Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance
CDI
CDD

Offre d'emploi
Coordinateur de Programme IA H/F

Publiée le
Cloud
Copilot
Cybersécurité

1 an
Monaco
Télétravail partiel
ASTERIA recherche, pour l’un de ses Clients basé sur Monaco, un Coordinateur de Programme IA H/F. VOTRE MISSION : Notre Client recherche un Coordinateur de Programme IA H/F. L’objectif est de renforcer la compétitivité, favoriser l’innovation et soutenir l’adoption de technologies clés, notamment l’Intelligence Artificielle (IA). La nécessité d’un Coordinateur H/F dédié s’inscrit dans un objectif de structuration et de pilotage stratégique et opérationnel des initiatives en intelligence artificielle, tout en intégrant l’ensemble des autres thématiques de la transformation numérique, afin d’accompagner efficacement et de mesurer l’impact global du Programme. Le Coordinateur de Programme IA H/F est chargé de mettre en œuvre la stratégie IA du Programme appelé EME, d’accompagner, d’animer l’écosystème IA local et d’assurer le suivi, l’évaluation et le reporting des actions menées. Il interviendra sous l’autorité du Responsable du pôle appelé CEN et en lien étroit avec les directions concernées, les partenaires, les experts externes et les entreprises bénéficiaires. Missions principales : Définition et mise en œuvre de la stratégie IA : Contribuer à la définition de la stratégie IA Décliner cette stratégie en un plan d’actions opérationnel incluant objectifs, indicateurs de performance et budget Piloter et coordonner les initiatives IA, en assurer le suivi, l’ajustement et la performance au regard des résultats obtenus Accompagnement : Assurer des permanences pour accompagner les entreprises et les salariés sur les usages de l’IA en entreprise (diagnostic, audit, conseil, choix des outils, déploiement, bonnes pratiques) Développer, structurer et déployer des actions de sensibilisation et de formation autour des thématiques IA Créer, maintenir et enrichir une base documentaire, des guides pratiques et des retours d’expérience facilitant l’adoption de l’IA par les entreprises Produire des supports de formation dédiés à l’acculturation du sujet IA auprès des agents concernés Animation de l’écosystème : Fédérer et coordonner les acteurs de l’écosystème IA monégasque (entreprises, institutions, experts, chercheurs, fournisseurs) Organiser des événements (conférences, ateliers, rencontres professionnelles) visant à promouvoir l’IA et à favoriser les échanges Identifier et mobiliser les partenaires potentiels (financeurs, fournisseurs de solutions, etc.) Suivi et évaluation : Mettre en place un système de suivi des indicateurs de performance du programme Évaluer l'impact des initiatives sur le développement et la compétitivité des entreprises Réaliser des études et des analyses pour identifier les bonnes pratiques et les axes d'amélioration Rendre compte régulièrement de l'avancement du programme au responsable du pôle CEN et aux instances de gouvernance Suivi des indicateurs de Performance : Nombre d'entreprises accompagnées dans leur transition vers l'IA Nombre d'événements organisés pour promouvoir l'IA Satisfaction des entreprises bénéficiaires des actions du programme Progression des indicateurs de compétitivité Visibilité et notoriété du programme EME Veille stratégique et technologique : Assurer une veille continue sur les évolutions technologiques de l’IA (modèles, outils, IA agentique, automatisation, cybersécurité, E-commerce, etc.), les usages en entreprise, les tendances du marché et les réglementations en vigueur Produire des notes de veille, alertes, synthèses et recommandations stratégiques Intégrer les résultats de la veille dans les orientations du programme et les actions de formation Le Coordinateur de Programme IA H/F sera également amené à concevoir, développer et déployer des outils pédagogiques destinés à être utilisés au sein de la fonction publique, dans le cadre du programme de formation interne, en lien avec les services concernés.
CDI
Freelance

Offre d'emploi
Business Analyst - Risque de Crédit

Publiée le
Business Analysis

3 ans
40k-70k €
400-550 €
Île-de-France, France
Missions principales Analyser les besoins métier liés au risque de crédit : octroi, scoring, notation interne, monitoring. Participer à la conception des outils de suivi (PD, LGD, EAD…) et des tableaux de bord réglementaires. Rédiger les spécifications fonctionnelles (calculs, règles métier, scoring). Contribuer aux projets réglementaires (Bâle III/IV, IFRS9, stress-tests…). Accompagner les équipes IT dans la mise en œuvre des modèles et des règles de gestion. Préparer et exécuter les tests fonctionnels et d’acceptation. Documenter les processus et accompagner le changement auprès des analystes risques. Compétences requises Connaissance approfondie des concepts de risque de crédit. Familiarité avec la réglementation (Bâle, IFRS9) et les indicateurs de risque. Maîtrise des outils BI/Data (SQL, Excel avancé ; Power BI un plus). Bonne compréhension des chaînes de données et systèmes risque. Capacité de rédaction et de vulgarisation d’enjeux réglementaires.
Freelance

Mission freelance
Ingénieur Système & Data – Monitoring / Maintenance / Big Data

Publiée le
Angular
Apache Spark
Hadoop

3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission : Au sein de la Direction des Systèmes d’Information d’un grand groupe du secteur financier, vous intégrerez une équipe en charge du pilotage des risques structurels et du reporting financier . L’objectif de la mission est de maintenir et faire évoluer une plateforme technique basée sur la technologie ClickHouse® , en garantissant sa stabilité, ses performances et sa sécurité . Missions principales : La prestation consiste à contribuer aux activités suivantes : Surveillance et monitoring de l’infrastructure ; diagnostic des incidents et anomalies Maintien en conditions opérationnelles de la plateforme (composants, performances, dette technique, montées de version) Rédaction et exécution de scripts de maintenance de l’infrastructure (équilibrage des disques, tuning système, automatisation) Application des exigences de sécurité et des procédures internes (remédiation des vulnérabilités, patching, CI/CD) Définition, estimation et planification des activités techniques Rédaction de spécifications et documentation techniques Support et accompagnement des équipes internes dans la gestion quotidienne de la plateforme
Freelance

Mission freelance
Senior Cloud security architect

Publiée le
AWS Cloud
Azure
Cybersécurité

1 an
500-630 €
Paris, France
Télétravail partiel
Pour un de nos grand compte client, nous recherchons activement un·e Architecte Sécurité Cloud expérimenté·e , spécialiste d’ OpenShift , pour rejoindre l’équipe projet. Ce poste est au cœur de la stratégie de sécurité cloud et plateforme de l’organisation. Il offre l’opportunité de définir des standards, concevoir des architectures d’entreprise et influencer les décisions de modernisation à grande échelle. Missions clés : Piloter l’architecture de sécurité pour un environnement hybride cloud ( AWS/Azure ) à grande échelle Définir et mettre en œuvre des contrôles de sécurité pour les plateformes OpenShift et conteneurisées Structurer la gouvernance autour de l’IAM, de la segmentation, du chiffrement, du zero-trust et de la conformité Intégrer les pratiques DevSecOps dans les pipelines CI/CD (scan d’images, SAST/DAST, policy-as-code) Automatiser la surveillance, l’application des politiques et les outils de réponse aux incidents Rôle à fort impact, en collaboration directe avec les équipes Cloud, Infrastructure et DevOps
Freelance

Mission freelance
Data Analyst - Part-time (DBT - GitLab- Looker- BigQuery)

Publiée le
BigQuery
Data analysis
Data cleaning

6 mois
350-470 €
Genève, Suisse
Télétravail 100%
Cette mission est en Mi-Temps Nous recherchons deux data analyst pour une migration de modèles DBT afin de changer une partie du sourcing de la partie principale des Datamarts. Environnement & Contexte : Principalement pour les tables Client & Transactions, mais aussi d’autres modèles (Campaign, Clienteling), nous souhaitons ne plus nous sourcer sur un Datalake central, mais sur des données préparées dans un Datamart par une autre équipe, ce qui permettra de simplifier les scripts et supprimer les transformations. Il est crucial d’assurer la consistance des Data à tous les niveaux. Une analyse de gap sur les outputs principaux (Transaction, Client) a déjà été effectuée, avec un presque alignement au niveaux du nombre de record par Primary Key, mais au cours de la migration, il y aura forcément des différences relevées sur les dimensions/mesures, que vous allez devoir analyser, investiguer et remonter. Le Data Engineer aura pour mission principales : Revoir une bonne partie des modèles DBT dans notre Datamart Client qui contient environ 45 modèles finaux (et 60 modèles intermédiaires), pour modifier le sourcing (au lieu de sources brutes, se reposer sur un Datamart qui contient déjà certains indicateurs que nous préparions de notre côté) Simplifier et supprimer les transformations du script Client pour en simplifier la maintenance, et les investigations. Test de non regression sur le modele final, pour garantir que les outputs sont ISO (ou très proches, avec investigations des écarts et remontée/échanges avec l’équipe en charge du Datamart) Validation dans les outils finaux (explores/dashboards Looker) de la consistance des chiffres. Mise à jour de la documentation des modèles (SQL, Yaml, Confluence, Data Model)
Freelance
CDI

Offre d'emploi
Data Engineer Junior (H/F)

Publiée le
Apache Spark
Databricks
Python

3 ans
35k-40k €
350-400 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Intégré(e) au sein d’une équipe Agile, vous participerez à : La conception et la mise en place de pipelines ETL performants L’ingestion, la transformation et la qualité des données La gestion et l’optimisation des flux Data dans un environnement Azure / Databricks / Spark L’automatisation des traitements et le monitoring des workflows La collaboration avec les équipes métier et Data pour répondre aux enjeux opérationnels La collaboration avec les équipes métier et Data pour répondre aux enjeux opérationnels
Freelance
CDI

Offre d'emploi
Data Analyste (13)

Publiée le
Confluence
Piano Analytics

1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'un groupe audiovisuel français. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. Description du poste La Direction Data recherche une prestation en Data Analyse pour accompagner les équipes produits et éditoriales dans l'analyse de la performance de la plateforme de streaming vidéo du groupe. La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes internes, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet) Le maintien du bon fonctionnement des dashboards existants sur Power BI L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne) La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul Le partage de son expertise afin de déployer le marqueur interne sur d'autres produits L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes
CDI

Offre d'emploi
Responsable de Domaine Data/BI

Publiée le
Data Warehouse
ETL (Extract-transform-load)
PowerBI

90k-100k €
Antony, Île-de-France
Télétravail partiel
📌 Responsable de Domaine Data / BI (H/F) 🎯 Contexte & Enjeux du Poste Dans le cadre d’une évolution organisationnelle et du redimensionnement d’un poste stratégique, notre groupe renforce son Département Études et recrute son Responsable de Domaine Data / BI. Ce rôle clé intervient au moment où l’entreprise engage une refonte complète du SI décisionnel, une modernisation de son architecture data, et une professionnalisation de sa gouvernance de la donnée. Le poste combine vision stratégique, pilotage technique, management d’équipe (5 à 10 personnes, internes et prestataires) et accompagnement des métiers. 📝 Missions principales 1. Définition & Pilotage de la Stratégie Data Construire et suivre la feuille de route Data/BI du groupe (stratégie, priorités, trajectoires, budgets). Contribuer au ciblage de l’architecture Data et aux choix technologiques clés. Conduire la refonte du SI décisionnel et la modernisation des outils associés. 2. Gouvernance & Qualité de la Donnée Définir et appliquer les standards de qualité, sécurité, conformité et intégrité de la donnée. Superviser l’ensemble des flux, entrepôts, modèles et indicateurs clés. Garantir la fiabilité, performance et disponibilité des plateformes data. 3. Management & Structuration de l’Équipe Encadrer une équipe de 5 à 10 collaborateurs (internes + prestataires). Définir l’organisation, les responsabilités, les objectifs et les rituels d’équipe. Monter en compétence les équipes : méthodologie, bonnes pratiques, culture data. 4. Supervision Technique & Opérationnelle Piloter l’ensemble du périmètre technique BI & Data : Systèmes : SAP BW, SAP BO, Power BI, Snowflake Outils & technologies : ETL / Talend, SQL, modèles de données Garantir la maintenance, les évolutions, les déploiements et le bon fonctionnement des plateformes. Valider les solutions : ETL, dashboards, reporting, modèles de données, intégration, architecture. 5. Relation Métiers & Accompagnement Être l’interlocuteur privilégié des métiers (commerce, logistique, finance, opérations…). Recueillir, challenger et prioriser les besoins en intelligence décisionnelle. Accompagner les équipes dans l’usage des outils, la compréhension des indicateurs et la diffusion de la culture data. Collaborer étroitement avec la MOA et les chefs de projet SI
4800 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous