Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 228 résultats.
Freelance

Mission freelance
[LFR] Ops DATA controlling, Sénior à Guyancourt - 1166

Publiée le

10 mois
100-340 €
Guyancourt, Île-de-France
Télétravail partiel
OPS: Ingénierie d'exploitation Open Contexte de la mission Posséder une expertise des applications, des outils et des systèmes d'information afin de réaliser la majorité des activités de production informatique dans toutes les étapes du Cycle de vie Produit et dans tous les environnements (Prod et hors Prod). En charge de la fabrication et de l'exploitation au quotidien, avec une responsabilité de bout en bout (Build & Run), en collaboration avec les équipes de développement de l’entité. Expérience dans le métier d'ingénierie d'exploitation informatique. Contexte métier / technique L’OPS possède une bonne connaissance des chaînes de traitement en production. Il est le responsable du fonctionnement et de la continuité du service en relation avec l’entité. L’OPS possède une bonne connaissance de la technique d'exploitation. Il est responsable de la journée de production dans le respect des engagements de service de l'exploitation. Description de la mission La mission portera sur le suivi et le maintien en condition opérationnel des plans de productions des environnements DATA du LCL (Teradata, MongoDB, Cloudera). Une vigilance particulière sera apportée sur les compétences CTRLM du profil. Assurer la relation opérationnelle avec l'équipe de développement entité • Informer la Squad des actualités sur les sujets de fonctionnement • Participer aux rituels de la Squad selon les besoins/sujets du moment • Assurer la complétude des référentiels (y/c documentaires) • Gestion de bout en bout l'intégrité des DTA (Dossier Technique Application), déclinaison en opérations techniques (traitements et schéma d’enchainement) • Validation fonctionnelle et technique des procédures • Mise en place de la supervision et des consignes de production • Création du DEX (Dossier d’Exploitation) • Assurer le suivi des incidents techniques • Prendre en charge les METIS (Service Now) de la Squad (mise en relation des changements, incidents, niveaux de service) • Responsable de la qualité des informations saisies dans METIS (heure de résolution, cause/origine et responsabilité). • Coordonner l’ensemble des compétences et expertises nécessaires pour éradiquer les incidents et traiter les problèmes • Gérer les problèmes de son périmètre et être responsable des plans d’actions et des tâches assignés • Être force de proposition sur les engagements RSE (exemple : purge de données, réajustement des moyens techniques, décommissionnement), en lien avec le FinOps • S'appuyer sur les toutes les ressources mises à disposition (FinOps, Architectes, Outils et Développements, Socles, …) • Développer la posture service Accompagner les développeurs dans la fabrication des solutions • Mettre en place des éléments de surveillance et des consignes associées en collaboration avec le développeur • Exprimer des besoins d’automatisation de tâches techniques auprès de l’équipe Outils et Développement • Mettre en place les indicateurs d'observabilité et vérifier l'intégration des exigences de production et d’exploitation dans les développements Réaliser les actions de mise en production des solutions • Assurer les MEP et vérifier l'absence d'impact (y/c en HNO) • Évaluation des impacts des changements et la préparation des changements • Autorisation des changements en coordination avec l’entité cliente et les équipe Type de projet (support / maintenance / implementation /…) : Implémentation Type de prestation (Client / Hybrid / Remote) : Client Nombre de jours/semaine ou par mois chez le client : 3 jours / semaine
Freelance

Mission freelance
Data Engineer Expert données GPS

Publiée le
Databricks
GPS
SIG (Systèmes d'Information Géographique)

3 mois
Île-de-France, France
Télétravail 100%
📅 Démarrage : ASAP ⏳ Durée : 3 mois renouvelables 🔍 Nous recherchons un Data Engineer ayant une expérience indispensable sur des problématiques GPS pour renforcer immédiatement une équipe spécialisée. 🎯 Missions principales : ✅ Analyses et rapprochements de données GPS avec la voirie ✅ Détection, correction et nettoyage des points aberrants ✅ Rapprochement GPS ↔ adresses distribuées ✅ Analyse des parcours multi-mode (arrêts, transitions) ✅ Comparaison et analyse des trajectoires entre plusieurs journées
Freelance

Mission freelance
Consultant Technique SAP S/4HANA (Intégration & Data) H/F

Publiée le
API
Architecture
Idoc

6 mois
Montpellier, Occitanie
Télétravail partiel
Et si vous rejoigniez un programme S/4HANA qui compte vraiment ? Notre client, groupe industriel international , transforme en profondeur son écosystème IT autour de SAP S/4HANA. Un programme structuré, soutenu, avec une vraie vision long terme : qualité de la donnée, intégration inter-systèmes, alignement stratégique et excellence opérationnelle. Pour accompagner cette transformation, nous recherchons un Consultant Technique SAP S/4HANA passionné par l’intégration, la data et les architectures applicatives modernes. Ici, vous n’êtes pas une “ressource”. Vous devenez le référent technique d’un programme SAP à haute visibilité.
Freelance

Mission freelance
Master data management

Publiée le
Cybersécurité
Gestion de projet
Master Data Management (MDM)

3 mois
500-600 €
Yvelines, France
Télétravail partiel
Périmètre technique La Prestation s’inscrit dans le cadre du remplacement des outils Après-Vente et particulièrement sur les données à remplacer dans les nouveaux SI. Objet de la Prestation La Prestation consiste à - Concevoir, piloter et sécuriser l’architecture Master Data pour l’ensemble des données de l’après-vente (pièces de rechange, réseaux, client, pricing, logistique). - Garantir la qualité, la cohérence et la disponibilité des données afin de soutenir les processus métier (Order to Cash, Procure to Pay, Supply Chain, Customer Relationship Management). - Suivre et coordonner les projets de migration ou d’évolution (ex. passage à un MDM cloud). Missions Les livrables attendus du PRESTATAIRE sont : - Schéma d’architecture cible et roadmap de mise en œuvre (données, flux, référentiels, gouvernance). - Catalogue de données et dictionnaire des référentiels (produit, client, fournisseur, réseau) compatibles avec les standards RENAULT et l’écosystème digital (ERP, PIM, DMS, TMS, etc.). - Indicateurs de qualité (complétude, unicité, conformité) et rapports mensuels. - Vérification du respect RGPD et des exigences cybersécurité. - Mise en place la traçabilité et l’audit des données sensibles. - Plans de remédiation (nettoyage, dé-duplication, normalisation). - Mise en place des règles de gouvernance : ownership, rôles, workflow de validation. - Rédaction des spécifications techniques et fonctionnelles. - Tableau de bord sur l’état d’avancement des projets de migration ou d’évolution, avec point d’alerte en cas dysfonctionnement et solution proposée. - Dossier de capitalisation.
Freelance
CDI

Offre d'emploi
Data analyst

Publiée le
Microsoft Power BI
Microsoft SSIS
SQL

12 mois
40k-44k €
370-400 €
Toulouse, Occitanie
Télétravail partiel
Nous mettons à disposition de différentes équipes des dashboards Power BI. Nous sommes autonomes sur toute la chaîne de liaison, incluant : -Récupération des besoins -Récupération de la donnée -Modélisation -Intégration de la donnée à l'entrepôt de données -Dashboarding -Livraison -Administration du service Power BI -Support et formation des utilisateurs aux dashboards Nous cherchons quelqu'un d'organisé, rigoureux, logique et doté d'un bon sens de communication (écoute et restitution) pour intégrer le pôle BI de 4 personnes. Votre travail consistera à : -Concevoir et développer les rapports attendus sur Power BI -Intégrer de nouvelles données dans notre entrepôt de données -Concevoir et développer des bases de données agrégées -Récupérer les nouveaux besoins -Intégrer ces données -Suivre les tâches dans Jira -Assurer le support sur les dashboards et répondre aux interrogations des utilisateurs Les rapports sont des dashboards à destination des équipes supports informatique : -Cycle de vie des incidents -Flux d'incidents entre les différentes équipes -Source de données : ITSM, Service Now
Freelance

Mission freelance
Data analyst

Publiée le
SQL

12 mois
400-500 €
Paris, France
Télétravail partiel
Cherry pick est à la recherche d'un Data analyst pour l'un de ses clients dans le secteur de l'énergie. 🎯 Objectifs de la mission Travailler en collaboration directe avec le Data Lead TGP , les BPO , les Data Domain Owners et les équipes achats afin de : Développer et maintenir le backlog des cas d’usage Data Quality . Paramétrer l’outil Tale of Data pour identifier les anomalies, rapprocher les données provenant de différents systèmes achats et produire les outputs attendus. Suivre et améliorer en continu le niveau de qualité des données à l’aide d’indicateurs fiables et automatisés. Accompagner les équipes dans la conduite et le pilotage des campagnes de nettoyage . Être force de proposition sur l’amélioration des processus, formats et traitements des données. 📌 Responsabilités & Livrables attendus 1. Gestion des cas d’usage Data Quality Identifier et co-construire les cas d’usage avec les BPO et Data Domain Owners. Maintenir et prioriser le backlog (nouveaux besoins, évolutions, corrections). 2. Paramétrage de l’outil Tale of Data Configurer les règles de contrôle qualité (contrôles automatiques, seuils, business rules). Réaliser les rapprochements de données entre les différents outils achats. Produire les livrables opérationnels : listes d’erreurs, fichiers de référentiels, exports de données, emails d’alertes automatiques. 3. Production de KPI Data Quality Définir et documenter les indicateurs de qualité par périmètre. Construire des dashboards permettant le suivi régulier de la qualité des données. 4. Support aux campagnes de nettoyage Préparation et communication des jeux de données à nettoyer. Suivi de l’avancement et relances auprès des équipes concernées. Consolidation des résultats et reporting. 5. Amélioration continue & Expertise Recommander des améliorations sur la structuration des données, les processus de traitement ou la gouvernance. Proposer des optimisations sur l’utilisation de l’outil Tale of Data.
CDI
Freelance

Offre d'emploi
Data web analyst

Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Microsoft SQL Server

1 an
43k-45k €
430-500 €
Île-de-France, France
Télétravail partiel
L’équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Prestations attendues : Déroulement des analyses : - Être à l’écoute et comprendre les besoins métier, - Proposer des méthodes et des axes d’analyses pertinents pour y répondre, - Tirer des enseignements et faire des recommandations en se basant sur les résultats de l’analyse - Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l’oral aux équipes métier - Communiquer régulièrement sur les résultats des analyses réalisées à l’ensemble de la direction Analyses pour enrichir l’animation et la stratégie éditoriales : - Profiling utilisateurs : par catégories de contenus, programmes, par chaines, par device … - Analyses de parcours : programmes ou catégories recrutants, fidélisants - Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation, … Analyses pour enrichir la stratégie produit : - Audit des données issues des nouvelles fonctionnalités - Analyse de l’usage des fonctionnalités, profiling - Analyse de l’impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement - Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus, … Dashboards : - Être référent sur les dashboards de connaissance utilisateurs - Garantir la maintenance et la bonne mise à jour des dashboards existants - Ajustement des existants (nouveaux indicateurs, modifications de calculs,…) - Être force de proposition sur les évolutions des dashboards existants - Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI - Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos, … Expertises demandées pour la réalisation de la prestation : Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes : · Au moins 2 ans d’expérience sur des analyses de connaissance utilisateurs ou clients dans les secteurs de l’audiovisuel, du retail ou du ecommerce · Maîtrise avancée de SQL (au moins 2 ans d’expérience en SQL) · Maîtrise de Google Cloud Platform et maîtrise de Big Query · Connaissance de Power Bi · Connaissance des données issues de Piano Analytics · Connaissance de l’interface Piano Analytics · Connaissance de la mesure Mediametrie et des données Nielsen · Expérience dans le secteur audiovisuel sur des problématiques éditoriales · Expérience dans le secteur digital, ecommerce · Goût pour les contenus audiovisuels / vidéos · Capacité d’analyse, de synthétisation et de vulgarisation
Freelance

Mission freelance
Concepteur Développeur Big Data

Publiée le
Apache Spark
AWS Cloud
Azure

12 mois
400 €
Courbevoie, Île-de-France
Télétravail partiel
Mission Concepteur Développeur Big Data – Société de l'Énergie Localisation : Courbevoie (3 jours/semaine sur site) Tarif max : 400€/jour Démarrage : 05/01/2026 Durée : 12 mois (fin 04/01/2027) – prolongeable Expérience requise : 4-5 ans minimum Prestations principales : Analyse besoins RH/Finance + rédaction spécifications techniques Conception/développement pipelines ETL/ELT (Spark, Hadoop, Databricks, Snowflake) Intégration sources données/API + contrôle qualité Déploiement cloud (AWS/Azure/GCP) ou clusters Hadoop/Spark Optimisation performances (partitionnement, tuning clusters) Tests unitaires/intégration + revues code Maintenance évolutive, support incidents, veille techno Compétences obligatoires : Big Data, Hadoop, Spark, Python PostgreSQL, Databricks Livrables : Spécifications techniques + diagrammes Code source/scripts + tests complets Documentation exploitation + rapports performances Plan déploiement/rollback Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance . Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop) , les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP) , afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.
Freelance

Mission freelance
PRODUCT OWNER DATA SUPPLY

Publiée le
Snowflake

12 mois
560 €
Paris, France
Télétravail partiel
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
CDI
Freelance

Offre d'emploi
Responsable projets Data BI - CDI - Belgique - Bruxelles

Publiée le
BI

24 mois
70k-77k €
385-770 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Responsable Projet Data (H/F) - poste en CDI direct Liaisons fonctionnelles : À l'intérieur de l'entreprise : Le Directeur général et l'ensemble des salariés A l'extérieur : • Les squads Data, les squads en charge des données de référentiel, le service Etudes et Mesures • Les Direction Systèmes d'informations, les responsables des pays (Espagne / Pologne /Portugal / France / Slovénie / Luxembourg) • Prestataires : les intégrateurs, Ingénieur Data, Directeur de projet externe • Industriels (clients) Description générale du poste : Le Responsable projet Data (H/F) joue un rôle central dans la gestion des données, qui portent sur l'intégralité de la fiabilité des prestations vendues aux industriels. À ce titre, il doit définir et mettre en œuvre la stratégie globale de gestion des données disponibles, maintenir l'existant et identifier les opportunités, tout en s'inscrivant dans les modalités définies par le Mouvement. C'est un poste clé qui comporte les dimensions suivantes : - Techniques : manipulation de la donnée, utilisation approfondie des outils mis à disposition, - Stratégiques : enjeux, opportunité, sécurité, - Relationnelles : avec les pays, la DSI, une multitude d'acteurs variés - Une forte sensibilité sur la dimension gestion des systèmes d'informations est attendue Les missions principales : • assurer la qualité et la fiabilité des données en coordonnant avec des acteurs internes - externes • contrôler et mettre à jour les données référentiels spécifiques à notre client • construire, maintenir et faire évoluer les rapports mis à disposition • contrôler et valider la sécurité de l'accès aux données (rapports et données) • piloter la mise en qualité de l'ensemble des données, avec les pays • Participer au développement des services
Freelance

Mission freelance
Tech lead Data

Publiée le
API
Computer vision
IA Générative

12 mois
Saint-Denis, Île-de-France
Télétravail partiel
Client : Organisation de transport ferroviaire Poste : Responsable technique en Data Nombre de postes : 1 Expérience : > 7 ans Localisation : Commune de la banlieue parisienne Deadline réponse : 05/12/2025 Démarrage : 05/01/2026, mission d'un an Type de contrat : Salarié ou Freelance L’Ingénierie des équipements de l’organisation de transport a identifié de nombreuses zones d’usage des technologies d’intelligence artificielle pour son domaine d’activité. On peut notamment citer : La maintenance prédictive (séries temporelle et événementielles), L’aide à l’organisation de la maintenance (tri, priorisation et regroupement d’opérations, en gérant diverses contraintes d’exploitation), La vision artificielle pour le contrôle qualité ciblé, l’exploitation des véhicules… Mais aussi la gestion et l’utilisation de l’information, qui touchent l’aide aux techniciens (historique des pannes, préconisations de maintenance…) et encore plus les processus d’ingénierie : extraction d’information, comparaison, résumé, aide à la génération et à la transformation de documents. Missions : Au sein du département développement, le prestataire devra apporter une expertise en intelligence artificielle (IA) et en intégration de l’IA (IAG) pour répondre aux besoins de l’Ingénierie des équipements et de ses partenaires : Évaluation des solutions innovantes pour répondre à un cas d’usage précis : solutions open source ou propriétaires / disponibilité d’un ensemble de briques technologiques permettant de réaliser la fonction / développement spécifique nécessaire. Prototypage d’applications et briques applicatives simples, notamment pour l’accélération des processus documentaires (plus qu’un MVP, un prototype fonctionnel et au-delà). Aide à l’orientation stratégique pour le développement des capacités techniques en IA de l’Ingénierie. Il collaborera avec le responsable de la feuille de route IA, la communauté interne en intelligence artificielle, ainsi que divers chefs de projets.
Freelance

Mission freelance
Ingénieur Test et Validation Cloud / Data maitrisant Snowflake (H/F)

Publiée le
Snowflake

12 mois
380-420 €
La Ciotat, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur(e) Test et Validation Cloud & Data pour intervenir chez un de nos clients dans le secteur industriel sur La Ciotat Contexte : Pour renforcer l’équipe, nous recherchons un(e) Ingénieur(e) Test et Validation Cloud & Data capable de sécuriser les fonctionnalités et les flux de données, de la conception jusqu’à la production. Vos principales missions : - Vous concevez, planifiez et exécutez les campagnes de validation et de vérification tout au long des itérations. - Vous développez et faites évoluer des tests automatisés adaptés à des volumes de données importants. - Vous mettez en place des scénarios de test pour vérifier la qualité, la cohérence et l’intégrité des données, y compris en production. - Vous analysez les résultats, identifiez les anomalies, les qualifiez et les remontez de manière structurée. - Vous travaillez en étroite collaboration avec les équipes développement, produit et exploitation pour optimiser la couverture de tests. - Vous utilisez des outils d’investigation et de monitoring pour comprendre le comportement du système en conditions réelles. ⚙ Environnement technique du projet : - Maitrise indispensable de Snowflake - Tests unitaires et fonctionnels avec Mocha et Cypress - Bonnes connaissances Cloud AWS, voire Azure ou GCP
Freelance

Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote

Publiée le
Data quality
ETL (Extract-transform-load)
Linux

12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Freelance

Mission freelance
Data Analyst Senior – Contexte International (h/F)

Publiée le
Data analysis

1 an
400-550 €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Dans le cadre d’un programme international de déploiement de systèmes vente, un acteur majeur du secteur média recherche un Data Analyst expérimenté (h/f)pour accompagner les équipes IT et les Business Units. La mission s’inscrit dans un environnement complexe et international, avec un fort enjeu de maîtrise des flux de données end-to-end, de sécurisation des migrations de données et d’industrialisation des processus de chargement. Missions principales Comprendre et piloter les flux de données de bout en bout entre systèmes Corporate et locaux Analyser les sources de données des Business Units et en évaluer la qualité Organiser et piloter les actions de data migration dans le cadre des projets de rollout Définir et formaliser des stratégies de migration de données claires et robustes Piloter les chargements de fichiers dans le respect des délais projet Collaborer étroitement avec les équipes produit sur les aspects techniques Animer les comités de restitution (avancement, risques, plans de mitigation) Contribuer à l’industrialisation des processus de data loading Assurer un reporting régulier auprès des chefs de projet
Freelance
CDI
CDD

Offre d'emploi
Architecte calcul/Stockage et plateformes DATA

Publiée le
Architecture
Cloud

12 mois
40k-45k €
400-550 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Missions principales Architecture et trajectoire technologique • Concevoir des architectures de calcul, stockage et plateformes DATA (On-premise, Cloud ou hybrides). • Élaborer la cible d’architecture DATA : catalogage, gouvernance, sécurité, interopérabilité. • Formaliser les patterns d’architecture, standards et bonnes pratiques. 1. Collecte et formalisation des besoins métiers et techniques • Animer des ateliers avec les directions métiers et laboratoires pour recueillir et qualifier les besoins. • Réaliser des cartographies techniques et fonctionnelles. • Identifier les contraintes et les gains attendus. 2. Analyse et ingénierie des systèmes existants • Réaliser du reverse engineering sur les systèmes existants, y compris non gérés par la DTI. • Identifier les redondances, obsolescences et pistes d’optimisation. 3. Proposition et priorisation de projets • Construire un plan d’action priorisé des projets techniques. • Appuyer la priorisation stratégique en lien avec la gouvernance DATA et le SDSI 2030 (qui reste à construire). 4. Pilotage et accompagnement technique des projets • Coordonner les travaux techniques, tests de performance et intégration. • Contribuer directement à la mise en œuvre technique et au transfert RUN. 5. Contribution à la gouvernance DATA • Participer aux instances du Programme DATA et du SDSI. • Contribuer à la définition des standards techniques et à la documentation des services. 4. Missions secondaires • Participation à des projets de plateformes mutualisées (MFT, ETL, forges logicielles, calcul). • Étude et éventuel déploiement de solutions cloud ou hybrides selon arbitrages stratégiques. • Veille technologique sur les infrastructures et technologies data. • Capitalisation documentaire et accompagnement à la montée en compétence des équipes. 5. Compétences requises 5.1 Compétences techniques • Architecture des systèmes de stockage : NAS, SAN, Object Storage, archivage. • Environnements de calcul : clusters Linux/Windows, HPC, Slurm, conteneurisation (Docker, Singularity), GPU, orchestration.Systèmes et virtualisation : VMware, Hyper-V. • Réseaux et sécurité : segmentation, performance, supervision, monitoring. • Plateformes DATA/Analytics : architectures DATA, interopérabilité technique, …. • Outils de transfert et d’intégration : MFT, ETL, pipelines CI/CD (GitLab CI, Jenkins). • Cloud et hybridation : connaissance d’Azure, OVHcloud, Scaleway ou équivalents publics. • Outils de supervision et d’observabilité : Grafana, Prometheus. • Documentation technique : rigueur rédactionnelle, utilisation d’outils tels que PlantUML, Mermaid ou Visio. 5.2 Compétences transverses • Gestion de projet technique : planification, suivi, priorisation et reporting. • Capacité d’analyse et d’arbitrage technique, sens de la décision et de la fiabilité opérationnelle. • Aptitude à dialoguer avec des interlocuteurs variés (chercheurs, ingénieurs, équipes métiers, directeurs, CDO, RSSI). • Autonomie, curiosité, rigueur documentaire et esprit de synthèse. • Sens du service public et respect de la confidentialité scientifique.
CDI

Offre d'emploi
Chef de projet Data & BI H/F

Publiée le
IDT

39k-45k €
Auvergne-Rhône-Alpes, France
Télétravail partiel
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Chef de projet Data & BI H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la donnée, la BI et la conduite de projets décisionnels ? Ce poste est fait pour vous. En tant que Chef de projet Data & BI , vous êtes responsable du pilotage , du développement et du déploiement de notre écosystème : Côté build : Prendre en charge l’ensemble des phases projet : recueil & analyse des besoins métier, spécifications, développement et déploiement. Concevoir et modéliser les architectures décisionnelles (datawarehouse, datamarts, modèles relationnels). Développer et maintenir les dataviz dynamiques et intuitives (SAP BO, Need4Viz, Power BI, QlikSense). Mettre en œuvre et optimiser les flux d’alimentation ETL (SAP BODS souhaité). Réaliser les recettes techniques et fonctionnelles : TU, TNR, scénarios, tests de cohérence des données. Garantir la qualité, la cohérence et la sécurité des données dans le respect du RGPD Côté run : Assurer le suivi et la maintenance évolutive des solutions décisionnelles existantes. Diagnostiquer les problématiques data/BI et proposer des solutions pertinentes et performantes. Accompagner les utilisateurs dans l’appropriation des outils BI et assurer un support de proximité. Surveiller la qualité, la cohérence et l'intégrité des données dans le datawarehouse. Maintenir les plateformes BI : SAP BO 4.3, Need4Viz, 360Suite, Infoburst, Power BI, QlikSense. Optimiser les performances des requêtes SQL et des traitements décisionnels. C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements de chefferie de projet dans le domaine de la Data & BI exigeants. Vous aimez analyser, modéliser, concevoir et livrer des solutions décisionnelles de qualité , tout en innovant. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Maîtrise de SAP BusinessObjects 4.3 (WebI, IDT, CMC) et de Need4Viz . Très bonne maîtrise du SQL , des bases Oracle / SQL Server , et de la modélisation relationnelle. Expérience en ETL , idéalement SAP BODS, sur des flux complexes. Excellentes compétences en dataviz et en conception de tableaux de bord dynamiques. Connaissance de 360Suite , Infoburst , Power BI et QlikSense appréciée. C’est votre manière de faire équipe : Maîtrise de SAP BusinessObjects 4.3 (WebI, IDT, CMC) et de Need4Viz . Très bonne maîtrise du SQL , des bases Oracle / SQL Server , et de la modélisation relationnelle. Expérience en ETL , idéalement SAP BODS, sur des flux complexes. Excellentes compétences en dataviz et en conception de tableaux de bord dynamiques. Connaissance de 360Suite , Infoburst , Power BI et QlikSense appréciée. C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2j Salaire : De 39000€ à 45000€ (selon expérience) brut annuel Famille métier : Data & BI Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1228 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous