Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 285 résultats.
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Cyber NetSec F/H (pré-embauche client final)

RIDCHA DATA
Publiée le
Bash
DNS
IDS/IPS

2 ans
Ivry-sur-Seine, Île-de-France

Nous sommes à la recherche d'un Ingénieur Cyber NetSec pour l'un de nos clients finaux. Le poste propose une pré-embauche, avec un contrat initial de 4 à 6 mois de mission chez RIDCHADATA, avant une intégration directe chez le client. Sous la responsabilité du Responsable du COSC, l'ingénieur Sécurité NetSec occupe un rôle essentiel dans la stratégie de protection périmétrique des infrastructures de notre contre les menaces Cyber. En tant qu'expert sécurité, vous assurez la conception, mise en place et gestion des solutions de sécurité réseaux WAF, IPS, anti-DDOS. Doté d'une passion pour les nouvelles technologies et d'un appétit pour comprendre « comment ça marche », vos principales missions s'articulent sur : •Définition et mise en œuvre des stratégies de protection périmétrique autour des solutions WAF, IPS, Anti-DDOS, protection DNS •Veille technologique autour des solutions et nouvelles menaces •Gestion des solutions (administrer, MCO/MCS, proposer des évolutions et améliorations continues autour des plateformes et services) •Mener des analyses approfondies des incidents, comprenant les techniques, tactiques et procédures des attaquants •Utiliser des outils de sécurité avancés pour une surveillance proactive des systèmes •Accompagner les équipes de détection et réponse sur l'implémentation de nouvelles solutions de sécurité •Gestion des demandes clients et projets (industrialisation et automatisation des processus autour des solutions •Analyser et répondre de manière proactive aux demandes des clients internes et externes •Implémentation de nouvelles infrastructures •Reporting et Présentation des KPI •Participation aux Audits SSI Dans l'exercice de vos missions, vous serez amené à utiliser des technologies de pointe telles que : •Solutions IDS/IPS Cisco FirePower •Protection DDOS Arbor •WAF F5 / WAF Radware •Cisco Umbrella

CDI
CDD

Offre d'emploi
Chef de projet DATA

Ailancy Technology
Publiée le
Data analysis
Data management
Data Warehouse

18 mois
40k-65k €
Paris, France

Le Chef de projet Data pilote l’ensemble des projets liés à la gestion et à la valorisation des données de l’entreprise. Il planifie, organise et coordonne des initiatives techniques autour de la collecte, du stockage, de l’exploitation et de la sécurisation de la donnée. Il veille à la conformité réglementaire (RGPD, CNIL), à la qualité des livrables et au respect des délais, tout en garantissant la mise en œuvre de solutions robustes et pérennes. POSITIONNEMENT HIÉRARCHIQUE : Rattaché(e) au Directeur du Delivery.

Freelance
CDI

Offre d'emploi
Data Analyst

R&S TELECOM
Publiée le
Pandas
PySpark

1 an
Île-de-France, France

Mission ne convient pas à un data scientist Compétences OBLIGATOIRES : Guru en PySpark Très bonne maitrise de Tableau et de Panda. Capacité d'analyse, bon niveau statistique. Démarrage : ASAP Experience : 4/5ans min Dans le cadre de ce besoin : En tant que consultant data au sein de la Cellule du Qualité de Fixe (CQF) de Bouygues Telecom, vous serez en charge de produire des analyses à partir de dataset que vous aurez constitués sur des données de nos plateformes Big Data, Vous aurez également la responsabilité de rendre disponible des données, une fois celles-ci nettoyées, préparées et formatées sous forme de dataset ou de table à disposition des datascientists de l'équipe. Vous aurez à développer des tableaux de bord de suivi de KP.. Vous serez en charge de : -L'exploitation de la plateforme Big Data de monitoring Wifi des Box : A ce titre vous aurez la charge : -Du monitoring des principaux KPI du système et la misé en œuvre des nouveaux KPI -Des investigations lors d'incident : Vous déclencherez et piloterez le fournisseur et / ou les autres entités de Bytel contribuant à son bon fonctionnement. -Vous serez le garant de mise à disposition des données issues du cluster HDFS. Vous aurez des scripts Scala / Spark à développer pour toute évolution à la demande de l'équipe Datascience ou en fonction des évolutions du système. -Vous assurez la mise en œuvre des politiques de sécurités et de sauvegarde, et appliquer tout patch ou correctif nécessaire à cette intégrité. -Du pilotage des fournisseurs externes et internes pour les évolutions de la plateforme, que ces évolutions portent sur le hardware, les applicatifs, ou l'architecture réseau. La data ingénierie et l'exploitation de la plateforme Data en architecture de type microservices, basée sur Kubernetes et OpenShift. Vos tâches seront de : -Assurer la supervision et débogage du système via Openshift -S’assurer du bon fonctionnement des applicatifs (Spark, MinIo, Jhub, MySQL, Airflow) -Contrôler les volumes et consommations Hardware de la plateforme -Débugger les pods en cas d’erreur -Assurer l’écriture des graphes Helm pour les déploiements applicatifs -Ecriture de charts Helm pour le déploiement de nouveaux applicatifs -Tester les nouveaux graphes sur la plateforme de test -Déployer et patcher les applicatifs déjà existants avec Helm -Assurer la pérennité de la plateforme en gérant efficacement les images et graphes via GitLab -Assurer la gestion des utilisateurs et des règles de gestion du Datalake -Gestion des buckets et utilisateurs -Création de points de stockage et destis règles de gestion associées -Création de scripts pour le stockage de Parquets -Assurer le fonctionnement du déploiement continu avec GitLab -Administration des images de production Gitlab et DockerHub En résumé : Guru en PySpark et très bonne maitrise de Tableau et de Panda. Avec une capacité d'analyse, bon niveau statistique. Amené à faire du développement descriptif de requête pour diffuser des KPI sous forme de dashboard Tableau.

Freelance

Mission freelance
Architecte DATA

IBSI
Publiée le
Azure Data Factory
PowerBI
Powershell

6 mois
520-590 €
Paris, France

Recherchons un Architecte DATA Tâches à réaliser : Conceptualisation de solutions et réalisation de proof of concept Estimation des efforts, développement, mise en œuvre et déploiement d’applications Développement de code sécurisé, propre, réutilisable et bien documenté (méthode AGILE) Configuration des environnements de développement, test et production (local et cloud) Maintien de la qualité du code, documentation, déploiement en production et transfert de connaissances Compétences demandées Data ingestion: scripting like PowerShell & python Confirmé PowerBI (DAX) Confirmé Knowledge in Azure Cloud Confirmé TALEND Expert ServiceNow customization Avancé Azure Data Factory Confirmé Familiarité avec les solutions d’automatisation d’infrastructure (Ansible, Terraform, etc.) Confirmé Pratique du langage Python, documentation du code, implémentation de tests unitaires et de pipelines d’intégration Confirmé

Freelance

Mission freelance
IT Business Analyst - DATAHub & Finance

Atlas Connect
Publiée le
Agile Scrum
ALM
API Platform

12 mois
550-600 €
Paris, France

Le poste consiste à cadrer les besoins, suivre leur réalisation, réaliser les tests IT et assister le chef de projet dans l’encadrement de certains projets. Mission Le Business Analyst aura pour responsabilités principales : Assurer le suivi des projets (Datahub, projets 2026) Cadrer les besoins métiers et proposer des solutions adaptées Planifier les différentes étapes des projets Coordonner avec les métiers et contributeurs Animer et préparer des ateliers de travail Rédiger les spécifications fonctionnelles et cahiers de recette Suivre et répondre aux questions des équipes de développement Réaliser les tests IT et assurer le suivi/support des recettes utilisateurs Maintenir à jour la documentation existante Fournir un support applicatif de niveau 3 Profil recherché Expérience significative en Business Analysis , idéalement sur des projets de Master Data / données de marché Connaissance des méthodologies Agile/Scrum et cycle en V Capacité à cadrer les besoins métiers , rédiger spécifications et cahiers de recette Expérience en tests fonctionnels et support utilisateur Bonnes compétences en coordination et communication avec les équipes métiers et techniques Autonomie et rigueur, sens de la priorisation et de la planification La maîtrise de l’anglais est un plus (interactions avec l’équipe de Lisbonne) Stack Technique / Outils Outils de gestion de projet : Jira, Confluence Outils de modélisation / spécifications : Excel, Word, Visio, Lucidchart Systèmes de données et référentiels : Datahub, Rialto, MDS ou équivalents Outils de tests et recettes : HP ALM, Jira, TestRail ou équivalents

Freelance
CDI

Offre d'emploi
Data Engineer

AGH CONSULTING
Publiée le
DevOps
Python

6 mois
Paris, France

Description de la mission: Au sein d’un centre de services de cybersécurité vous rejoindrez une équipe internationale DevSecOps et vous serez responsable de la conception, du développement et la mise en œuvre d’applications. Missions : Cette équipe a pour principales missions de : • Faire la conceptualisation de la solution, le « proof of concept », l'estimation des efforts, le développement, la mise en œuvre, le déploiement et les phases de support. • Développer un code sécurisé, propre, réutilisable et bien documenté en suivant une méthode AGILE. • Configurer les environnements de développement, de test et de production en local et/ou dans le cloud • Maintenir la qualité du code, la documentation relative au développement, le déploiement en production, et le transfert de connaissances (KT).

Freelance

Mission freelance
AMOA gouvernance de la donnée

Etixway
Publiée le
Data Lake
Gouvernance

1 an
450-550 €
Noisy-le-Grand, Île-de-France

L’orchestration de la mise en place du contrat de données, incluant la définition des règles de gouvernance et des processus d’intégration. La gestion de la conformité réglementaire et contractuelle (RGPD, politiques internes de gouvernance des données, etc.). L’accompagnement des équipes métiers et techniques pour l’utilisation optimale et sécurisée du Data Lake, y compris la traçabilité, le catalogage et les droits d’accès aux données. Le suivi et la coordination des relations avec les fournisseurs et les propriétaires de données, ainsi que la mise à jour et le suivi des clauses du contrat de données. La contribution à la mise en œuvre d’indicateurs de qualité et de performance liés à la disponibilité, l’intégrité et l’usage des données

Freelance

Mission freelance
Ingénieur Système & Data – Monitoring / Maintenance / Big Data

HIGHTEAM
Publiée le
Angular
Apache Spark
Hadoop

3 ans
Île-de-France, France

Contexte de la mission : Au sein de la Direction des Systèmes d’Information d’un grand groupe du secteur financier, vous intégrerez une équipe en charge du pilotage des risques structurels et du reporting financier . L’objectif de la mission est de maintenir et faire évoluer une plateforme technique basée sur la technologie ClickHouse® , en garantissant sa stabilité, ses performances et sa sécurité . Missions principales : La prestation consiste à contribuer aux activités suivantes : Surveillance et monitoring de l’infrastructure ; diagnostic des incidents et anomalies Maintien en conditions opérationnelles de la plateforme (composants, performances, dette technique, montées de version) Rédaction et exécution de scripts de maintenance de l’infrastructure (équilibrage des disques, tuning système, automatisation) Application des exigences de sécurité et des procédures internes (remédiation des vulnérabilités, patching, CI/CD) Définition, estimation et planification des activités techniques Rédaction de spécifications et documentation techniques Support et accompagnement des équipes internes dans la gestion quotidienne de la plateforme

Freelance
CDI

Offre d'emploi
Architecte solution DATA

Lùkla
Publiée le
BI

1 an
Vélizy-Villacoublay, Île-de-France

Mission principale : Prendre en charge l’architecture de bout en bout des solutions data pour les produits et cas d’usage analytiques, au sein d’un ou plusieurs value streams. Traduire les besoins métiers en solutions data sécurisées, scalables et optimisées en coût, s’appuyant sur la plateforme data d’entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). Responsabilités principales : Architecture : Ingestion batch/stream, DWH (modélisation Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL/API/couche sémantique, gestion des flux de features ML si besoin. Modélisation : Transformation des concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, clustering, indexation…). BI & Analytics : Gouvernance des KPIs, optimisation des dashboards et des requêtes, gestion du cache et des agrégats, promotion du self-service (dbt/metrics layer + catalogue). Ops & FinOps : Suivi des SLOs (fraîcheur, latence, coût), observabilité, runbooks, backfills, tuning du stockage et des requêtes pour réduire les coûts. Gouvernance/Mesh : Gestion des métadonnées, documentation, publication de blueprints et d’ADRs. Gestion des parties prenantes : Collaboration étroite avec les parties prenantes métiers, delivery leads et product owners pour recueillir les besoins, prioriser les fonctionnalités à forte valeur ajoutée, et présenter régulièrement les avancées à la direction.

CDI
CDD

Offre d'emploi
Expert Symfony / Performance & Recherche Avancée (Elasticsearch) - Sophia Antipolis (H/F)

RIDCHA DATA
Publiée le
Apache Kafka
CI/CD
Docker

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur

Contexte Nous recherchons un Expert Symfony disposant d’une solide expérience sur les problématiques de performance , de traitement de données à grande échelle et de recherche avancée avec Elasticsearch . Le poste s’inscrit dans un contexte de projets stratégiques liés à la Gestion Électronique de Documents (GED) et à l’identité numérique , avec un fort accent sur l’optimisation des flux et la robustesse des architectures logicielles. L’expert participera à la conception d’API REST sécurisées , à la mise en place de pipelines de traitement haute performance , et contribuera activement aux choix d’architecture (microservices, scalabilité, observabilité). 🎯 Missions principalesDéveloppement & architecture Concevoir et implémenter des API REST robustes et sécurisées (JWT, OAuth2). Intégrer et optimiser des systèmes de GED (indexation, recherche, archivage, workflows). Mettre en place et améliorer des pipelines de traitement de données massives (import/export volumineux, RabbitMQ/Kafka). Travailler sur la performance applicative (optimisation SQL, caching, profiling, monitoring). Participer aux décisions d’architecture (microservices, découplage, scalabilité, haute disponibilité). Garantir la qualité du code (clean code, design patterns, DDD). Qualité & industrialisation Écrire et maintenir les tests unitaires, fonctionnels et end-to-end (PHPUnit, Behat, Postman). Participer à l’ industrialisation via CI/CD , Docker, Kubernetes, GitLab ou Jenkins. Assurer le monitoring, logging et tuning de performance de la stack technique. Documenter les choix techniques et les architectures mises en œuvre. Collaboration & leadership technique Accompagner les développeurs juniors (revues de code, pair programming, mentorat). Collaborer avec les équipes Produit, QA, DevOps et Frontend. Participer à la veille technologique sur les architectures cloud-native, la sécurité et la performance. 📦 Livrables attendus Code conforme aux standards et aux spécifications techniques Documentation technique et fonctionnelle à jour Jeux de tests unitaires et fonctionnels validés Contributions actives aux choix d’architecture et d’industrialisation 🛠️ Compétences techniques recherchées PHP 8.x / Symfony 6.4 ou 7.x – niveau expert, indispensable Elasticsearch / OpenSearch – maîtrise confirmée, fort atout SQL / PostgreSQL – confirmé, impératif Systèmes de messagerie : RabbitMQ, Kafka, Symfony Messenger Caching : Redis, Varnish, APCu CI/CD, Docker, Kubernetes – confirmé Tests : PHPUnit, Behat, Postman/Newman Architecture : DDD, Clean Architecture, Design Patterns Bonus : connaissance des standards de dématérialisation et d’archivage légal

Freelance

Mission freelance
Data Analyst Informatica

Trait d'Union Consulting
Publiée le
Data analysis
Informatica
PowerBI

1 an
300-450 €
Strasbourg, Grand Est

Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.

Freelance

Mission freelance
Architecte Data

Nicholson SAS
Publiée le
Apache Kafka
API

6 mois
500 €
Paris, France

Mission : les sujets à traiter sont Modélisation des données (Objets Métiers et référentiel d’architecture …) Gouvernance des données : rôles, responsabilités, règles de gestion, sécurité, conformité, … Comprendre et challenger les architectures d’intégration (API, Kafka, …) Qualité des données Données de références (identification et échanges des données de références) Cycle de vie de la donnée Attendus : Animation des ateliers métiers Sollicitation des parties prenantes (SAE, Service Data) pour compléments d’information Support au Service Data à la rédaction des livrables Livrables Dictionnaire de données métiers Lexique fonctionnel et technique CR ateliers

Freelance

Mission freelance
Product Owner Data / RPA & IA - Assurance

Atlas Connect
Publiée le
Agile Scrum
Artificial neural network (ANN)
Azure Data Factory

12 mois
450-530 €
Île-de-France, France

Nous à la recherche d'un "Product Owner Data" pour un client dans le secteur de l'assurance Avec des déplacements à Niort. Description Contexte de la mission Au sein du groupe, la Direction des Systèmes d’Information Métier assure la maintenance et l’évolution du système d’information assurance vie et finance. Dans le cadre de la stratégie de transformation Data 2025–2026, le groupe renforce son équipe de développement Data et recherche un Product Owner Data expérimenté. Rattaché(e) au Centre de Data Management, vous serez un acteur clé du déploiement des cas d’usage Data et de la valorisation de la donnée. Votre rôle consistera à identifier, prioriser et piloter les produits Data (RPA, IA, Data Science, MLOps, DataViz) en lien avec les directions métiers (actuaires, conseillers, gestionnaires, etc.) et les équipes techniques. Vous interviendrez sur l’ensemble du cycle de vie des produits, de la détection des besoins métiers jusqu’à la mise en production, dans une approche orientée valeur et amélioration continue. Objectifs et livrables Placer la valeur au centre des usages Data : challenger les directions métiers sur leurs besoins quotidiens et leurs priorités. Animer les comités Data et les ateliers de cadrage autour des sujets Data Science, IA, RPA et MLOps. Identifier les besoins techniques et fonctionnels en lien avec les domaines Data (RPA | IA | Data Science | MLOps | DataViz). Définir les éléments de valeur (quantitatif, qualitatif, expérience collaborateur) et produire les supports de cadrage associés. Accompagner la rédaction et la priorisation des solutions Data et IA. Définir, suivre et piloter les indicateurs de performance (KPIs) des produits livrés. Contribuer à la construction d’une culture Data IT forte au sein du groupe. Être force de proposition sur les orientations techniques, fonctionnelles et méthodologiques. Profil du candidat Compétences demandées Compétence Niveau de maîtrise RPA / Confirmé ★★★★☆ MLOps / Confirmé ★★★★☆ Tableau / Confirmé ★★★★☆ Dataiku / Confirmé ★★★★☆ Data Science / Confirmé ★★★★☆ Technologies et mots-clés : #UIPA #DATAIKU #DATAVIZ #TABLEAU #SQL #CLOUD #BO #IA #RPA

Freelance

Mission freelance
Data Designer

Gentis Recruitment SAS
Publiée le
AWS Cloud

6 mois
Paris, France

Contexte de la mission: Dans le cadre d’un programme de transformation data au sein d’un grand acteur du secteur bancaire, nous recherchons un Data Designer afin de renforcer les équipes en charge de la modélisation et de la structuration des données. Le poste s’inscrit dans un contexte de refonte des processus data et de standardisation des pratiques au sein des équipes métiers et IT. L’objectif principal est d’assurer la cohérence, la qualité et la lisibilité du modèle de données tout en accompagnant les utilisateurs dans la définition et la mise en œuvre des bonnes pratiques de gestion et de gouvernance. Responsabilités principales: · Concevoir et maintenir les modèles de données conceptuels et logiques . · Rédiger la documentation fonctionnelle et technique liée à la modélisation des données. · Définir et formaliser les processus de gestion, de configuration et de paramétrage liés à la donnée. · Contribuer à la mise en place des règles de gouvernance , de qualité et de sécurité des données. · Participer à la coordination fonctionnelle entre les équipes techniques et les utilisateurs métiers. · Identifier les améliorations possibles des flux et processus existants afin d’optimiser la circulation et la valorisation de la donnée. Stack et environnement technique: · Outils de modélisation : PowerDesigner, Erwin Data Modeler, UML, Merise · Gouvernance & documentation : DataGalaxy, Collibra, Alation (ou équivalent) · Bases de données : SQL, Oracle, Snowflake (souhaité) · Cloud : AWS · BI / Data Tools : Tableau, Dataiku (en support) Profil recherché: · Minimum 4 à 6 ans d’expérience dans la conception et la modélisation de données (Data Designer, Data Architect, Data Modeler ou équivalent). · Excellente compréhension des modèles de données relationnels et dimensionnels . · Capacité à traduire les besoins métiers en structures de données claires et exploitables. · Expérience dans la définition de processus fonctionnels et la coordination inter-équipes . · Sens du détail, rigueur documentaire et bonne compréhension des enjeux de gouvernance data. · Une première expérience dans le secteur bancaire ou financier est un atout significatif. Informations complémentaires: · Localisation : Île-de-France (hybride possible) · Démarrage : ASAP

CDI
Freelance

Offre d'emploi
Architecte Data

MSI Experts
Publiée le
Ivalua
Javascript
Microsoft Excel

1 an
Île-de-France, France

Offre d’emploi : Data Architect – Solutions de Gestion des Risques Supply Chain Contexte et enjeux Vous rejoignez un projet stratégique visant à anticiper et à maîtriser les risques liés aux fournisseurs dans un environnement industriel à haute criticité. La plateforme sur laquelle vous interviendrez permet de gérer de façon proactive les risques fournisseurs pour un certain nombre de produits impactant la supply chain. Elle centralise les données issues de multiples systèmes, permet de simuler différents scénarios et d'en évaluer les impacts, et recommander des actions de remédiation. Les données intégrées dans l’application sont issues de différentes sources (ERPs, Procurement BI, e-ACQ, fichiers externes). Le traitement et la qualité des données sont essentiels car les chargements nécessitent un travail important de préparation avec des enjeux de performance, de fiabilité et de conformité réglementaire. Vos missions 1. Intégration et gouvernance des données Identifier les sources de données pertinentes (ERP, outils achats, fichiers externes, données marché). Définir les flux d’extraction, les règles de transformation et les formats cibles. Préparer les données (filtres, mappings, indicateurs, scripts d’automatisation). Garantir leur cohérence fonctionnelle. Mettre en place des processus d’automatisation pour fiabiliser et accélérer les mises à jour récurrentes. 2. Modélisation et qualité des données Vérifier l’adéquation des modèles de données proposés par l’éditeur et recommander des ajustements si nécessaire. Diagnostiquer les problèmes de qualité, analyser les écarts et proposer des solutions d’amélioration technique ou process. Contrôler la cohérence des indicateurs clés et des résultats de simulation. Maintenir un jeu de données de référence pour les tests et les validations. 3. Pilotage technique et support plateforme Accompagner les équipes techniques et l’éditeur dans la compréhension des architectures sources et des données métier. Contribuer au déploiement des nouvelles versions applicatives et aux montées de version techniques. Participer aux tests des releases applicatives 4. Documentation et amélioration continue Documenter l’ensemble des traitements sur les données Participer aux phases de test, de non-régression et à l’analyse des incidents. Proposer des évolutions pour renforcer la robustesse et la scalabilité de la plateforme.

Freelance
CDI

Offre d'emploi
Product Owner data

1G-LINK CONSULTING
Publiée le
Azure Data Factory
Cybersécurité
Data Lake

6 mois
Courbevoie, Île-de-France

Nous recherchons un Product Owner expérimenté pour intervenir sur le Datalake Cybersécurité, en collaboration avec l’équipe Data de Saint-Gobain. Ce projet repose sur la dataplateforme Snowflake et PowerBI. Missions principales : Rédiger le cahier des charges et définir les plannings. Définir et analyser les KPIs avec le métier. Optimiser le calcul des KPIs et analyser les sources de données. Modéliser les données dans PowerBI et Snowflake. Définir les règles de gestion des accès et de data gouvernance. Suivre l’ordonnancement des sources et définir les règles d’historisation. Garantir la qualité et les performances des données. Gérer le backlog et les cérémonies Agile dans Jira. Réaliser les tests unitaires sur Snowflake et les tests end-to-end sur PowerBI. Rédiger la documentation fonctionnelle et technique. Mettre en place le monitoring et l’alerting des sources et de la qualité de la donnée. Assurer la communication, la formation et le support auprès des utilisateurs. Organiser des comités de pilotage et suivre le run.

1285 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous