Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 463 résultats.
Freelance

Mission freelance
Chef de projet MOE

Etixway
Publiée le
Data analysis
Tableau software

1 an
Île-de-France, France
Recherche un chef de projet pour suivre la TMA du programme DATA-ATE. Ce programme se compose de deux applications Data-Ate Données et Data-ATE Reporting permettant à la direction métier d'assurer ses missions de pilotage des performances des préfectures. • DATA-ATE Données : o Contexte fonctionnel : Saisie de données élémentaires et d'indicateurs relatifs à des thèmes divers (Titres d'identité, de circulation, services de gestion des étrangers, domaine financier ..) au niveau local ou national. o Technologies employées : Java / React-JS / Postgresql o Mis en service en janvier 2024 sur un hébergement interne MI (CloudPI) o Principales missions ♣ Pilotage de la maintenance en relation avec la MOA, le prestataire en charge des développements, l'équipe interne d'intégration/exploitation (devsecops) et les services en support de la DTNUM (architecte, tests, etc.) ♣ Suivi du bon fonctionnement ♣ Maintenance corrective ♣ Maintenance évolutive ♣ Suivi financier o Complexité de l'application : Moyenne. • DATA-ATE Reporting : o Contexte fonctionnel : Infocentre et Outil de visualisation des données - Récupération des données via une API et la mise en place de flux provenant des SI partenaires o Technologies employées : Solution Entrepôt avec DSS (Python) /Vertica / Tableau (v 2021.4) o Mis en service en janvier 2024 sur un hébergement interne MI (CloudPI) o Principales missions ♣ Pilotage de la maintenance en relation avec la MOA, le prestataire en charge des développements, l'équipe interne d'intégration/exploitation (devsecops) et les services en support de la DTNUM (architecte, tests, etc.) ♣ Suivi du bon fonctionnement ♣ Maintenance corrective ♣ Maintenance évolutive ♣ Suivi des actions d'amélioration des performances ♣ Suivi financier o Complexité de l'application : Moyenne. Les compétences requises sont : • Maitrise des architectures projets (backend, frontend) • Bonnes connaissances des bases de données (PostgreSQL, requêtage SQL) • Bonnes connaissances du progiciel Tableau • Maitrise des outils de gestion de configuration : gitlab • Maitrise des étapes d'un projet informatique agile ou cycle en V : phases, cérémonies agile, planification • Maitrise de l'outillage projet : Jira, git, gestion de l'arborescence projet, formalisation documentaire • Maitrise dans l'animation de comité de projet et pilotage + capacités de reporting au près de sa hiérarchie et du métier • Maitrise des différents tests et audits nécessaires pour la mise en service d'un site : métrologie, audit de sécurité, RGGA, démarche d'homologation, RGPD • Pilotage d'équipe de développement Les missions attendues feront un temps plein. Spécificité : Expertise Tableau + Profil technique (idéalement ancien Dev/Tech Lead) orienté maîtrise d'oeuvre (pilotage de dev, gestion des risques, pilotage du budget, connaissance architecture, etc) Type de profil : Chef de projet MOE applicatif / Chef de projet TMA
Freelance

Mission freelance
Backend developer

Codezys
Publiée le
.NET
Azure
Azure Data Factory

6 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Vous rejoindrez une équipe IT internationale, composée d’architectes, de développeurs backend et frontend, d’ingénieurs QA et de spécialistes du run et du monitoring. Ensemble, nous concevons, développons et exploitons notre plateforme IoT cloud sur nos sites en France et en Europe. En tant que Backend Developer, vous intégrerez l’équipe backend basée dans la région lyonnaise. L’équipe bénéficie d’une grande expérience, d’une forte culture de partage des connaissances et d’une curiosité technique. Vous contribuerez au développement de nouvelles fonctionnalités, à l’évolution de la plateforme et à la fiabilité à long terme de nos services IoT. Objectifs et livrables Dans ce rôle, vous devrez : Développer des services backend et des API en C# / .NET en suivant les bonnes pratiques et les standards de qualité pour assurer la robustesse, la sécurité et la performance des solutions apportées. Participer aux rituels d’équipe tels que les estimations, les revues de sprint, les tests transverses et les rétrospectives, afin d’assurer une collaboration efficace et une amélioration continue. Contribuer à l’amélioration de notre plateforme cloud Azure en réalisant la mise à jour des frameworks, la gestion des composants en fin de vie, et en veillant à la conformité sécurité de l’ensemble de la plateforme. Soutenir nos méthodes de travail en adoptant une approche DevOps, Cloud et Agile, afin de garantir la livraison régulière de solutions innovantes et fiables. Explorer de nouvelles technologies et collaborer étroitement avec les architectes pour intégrer les innovations pertinentes dans notre plateforme IoT. Travailler avec un haut degré d’autonomie tout en collaborant avec l’équipe pour affiner les besoins, proposer des solutions adaptées et assurer leur implémentation efficace. Ce poste offre l’opportunité de contribuer au développement d’une plateforme IoT innovante, dans un environnement dynamique et international, en étant acteur de l’évolution technologique et de la fiabilité des services proposés.
Freelance

Mission freelance
Data engineer GCP

ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)

1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
CDI
Freelance

Offre d'emploi
Expert Google Workspace Data & IA

Management Square
Publiée le
BigQuery
Google Workspace
IA Générative

1 an
47k-55k €
480-530 €
Niort, Nouvelle-Aquitaine
Expert Senior Google Workspace, Data & IA Contexte de la mission : Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
Freelance
CDI
CDD

Offre d'emploi
AI / Data Engineer – IA Générative & Databricks (Python / ML / AWS) – H/F

SMARTPOINT
Publiée le
IA Générative
Large Language Model (LLM)
Pandas

1 an
50k-60k €
400-550 €
Île-de-France, France
Dans le cadre du développement de projets data innovants, nous recherchons un AI / Data Engineer spécialisé en Intelligence Artificielle Générative (H/F) . Vous interviendrez sur la conception et la mise en œuvre de solutions data avancées , avec un focus sur la plateforme Databricks et sur des cas d’usage en IA Générative (LLM, RAG, fine-tuning) . Votre rôle consistera à accompagner les équipes dans le cadrage, le développement et la mise en production de modèles d’intelligence artificielle , tout en contribuant à l’industrialisation des solutions et à l’évolution des plateformes data. Conseil et cadrage des cas d’usage IA Accompagner les équipes dans l’identification et le cadrage de cas d’usage data et IA Générative Conseiller sur les choix d’architecture, de modèles et de stratégies RAG ou fine-tuning Participer à la définition de solutions innovantes sur la plateforme Databricks Conception et développement de modèles IA Développer des modèles de Machine Learning et Deep Learning Concevoir des solutions basées sur LLM et architectures Transformers Implémenter des cas d’usage d’ IA Générative (RAG, fine-tuning, prompt engineering) Collecte et préparation des données Collecter, nettoyer et transformer les données nécessaires à l’entraînement des modèles Réaliser des analyses exploratoires et préparer les datasets pour l’entraînement Industrialisation et MLOps Mettre en production les modèles d’intelligence artificielle Mettre en place des processus de monitoring et de maintenance des modèles Contribuer à l’industrialisation des pipelines data et des modèles IA
Freelance
CDI

Offre d'emploi
DATA SCIENTIST NLP / IA GEN pour développement de projets IA Gen

SMILE
Publiée le
AI
API REST
Méthode Agile

3 mois
40k-57k €
400-500 €
Île-de-France, France
Bonjour, Dans le cadre du centre d'expertise de la direction Data & IA, nous recherchons un(e) data scientist de 3 à 6 ans d'expérience. Il s'agira d'intervenir sur divers sujets : contribuer à l'analyse des use cases remontés par les entités du groupe , contribuer potentiellement à des benchmarks, prendre en charge une application d'évaluation RAG , contribuer à l'évaluation de prompt (équipe Expertise Transverse du Centre d'Expertise Data Science composée de 9 data scientists dont les projets DS s'articulent autour des outils NLP, Search, IA Générative). Les tâches à réaliser sont : - Analyse des cas d'usages - Cadrage, participation aux développement et suivi des projets - Prompt engineering - recommandation méthodologique - Evaluation des performances liées à l'utilisation de LLM, RAG - Partage autour de la veille technologique -Classification des Prompt. -Mutualiser cas d’usage - analyse des verbatim. -Tester et challenger la solution interne Contexte : Vous allez intégrer l'équipe qui centralise l'analyse des besoins ou des cas d'usage IA Gen. Il faut soit analyser la faisabilité des cas remontés , soit contribuer à des tests sur un périmètre restreint. Par ailleurs, il faut suivre l'usage d'une application d'évaluation RAG afin de répondre aux sollicitations utilisateurs. Expertises : - expert python - containerisation - CICD/MLOPS - API REST - Méthodes agiles - éventuellement groovy - LLM, NLP - VLLM, TensorRT > Python, maching learning - LLM, TGI, Aphrodite Engine, etc. Une expérience dans le domaine bancaire serait un plus
CDI

Offre d'emploi
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le

50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
CDI
Freelance

Offre d'emploi
Expert Automation / RPA / Data (H/F)

OMICRONE
Publiée le
Automatisation
Data analysis
Python

2 ans
40k-45k €
400-500 €
Île-de-France, France
📢 Mission – Expert Automation / RPA / Data (H/F) Dans le cadre d’un projet d’automatisation à forte valeur ajoutée, nous recherchons un expert en automatisation et traitement de documents pour intervenir sur des sujets innovants mêlant RPA et Data. 🔹 Missions : Conception et développement de solutions d’automatisation Traitement et automatisation de documents (workflows) Optimisation des processus métiers via RPA Contribution à des cas d’usage mêlant data et automatisation 🔹 Stack / Compétences : UiPath, Python, Data Science, automatisation de processus, traitement documentaire 👤 Profil : Senior / Expert 🌍 Anglais professionnel requis ⚠️ Profils basés en France uniquement ❌ Sous-traitance non autorisée
Freelance

Mission freelance
Data Engineer – Scala / Spark - Solution digitale - Paris (H/F)

EASY PARTNER
Publiée le
Apache Airflow
Apache Kafka
Apache Spark

1 an
400-500 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes data, un acteur du secteur digital recherche un Data Engineer pour intervenir sur des problématiques de traitement et d’exploitation de données à grande échelle. Missions Concevoir et maintenir des pipelines de données (batch & streaming) Gérer l’ingestion, la transformation et la qualité des données Développer sur des environnements Big Data (Spark, Kafka) Mettre en place et optimiser les workflows (Airflow) Participer à l’industrialisation des traitements (CI/CD) Collaborer avec les équipes Data, DevOps et métiers Stack technique • Scala / Python / SQL avancé Spark / PySpark, Kafka Airflow (ETL / orchestration) Cloud : Azure et/ou AWS Git, CI/CD
Freelance

Mission freelance
INGENIEUR RESEAU DATACENTER (AMOA)

Groupe Aptenia
Publiée le
Data Center

6 mois
450 €
Île-de-France, France
🎯 Vos missions principales : Définir l’architecture réseau d’un bâtiment à partir des plans architecturaux Garantir le respect des normes et des exigences de sécurité Rédiger les cahiers des charges selon les standards groupe Contribuer aux appels d’offres : Dossiers de consultation Analyse des offres Participation au choix des prestataires Réaliser des visites de sites avec les opérateurs (optimisation des cheminements, suppression des SPOF) Participer aux réunions de chantier et suivre les déploiements Coordonner l’installation des équipements actifs et les opérations de brassage Piloter les opérations préalables à réception (OPR) Réceptionner les installations en fin de travaux Réaliser des audits techniques : Nouveaux bâtiments Mise à niveau d’infrastructures existantes Produire les livrables associés (rapports, recommandations, conformité) Intervenir en tant que référent / prescripteur groupe sur les infrastructures réseaux physiques
Freelance
CDI

Offre d'emploi
DATA ANALYST AZURE / POWER BI

UCASE CONSULTING
Publiée le
Azure
Microsoft Power BI

6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Data Analyst Azure / Power BI : ROLE ET RESPONSABILITE : La mission comprendra les tâches suivantes : · Créer et optimiser des bases de données (SQL Server principalement). · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production. FORMATION, PROFIL ET EXPERIENCE : · Expérience significative dans le domaine de trois années d’expérience · Connaissance approfondie de Azure Data Factory · Connaissance approfondie des bases de données relationnelles et du langage SQL · Connaissance de TFS / Git (ou à minima autre gestionnaire de code source) · Expérience en déploiement continu CI/CD (Azure Devops)
Freelance
CDI

Offre d'emploi
Directeur de projet - Risk Data Aggregation & Reporting (H/F)

STORM GROUP
Publiée le
ETL (Extract-transform-load)
Méthode Agile
Safe

3 ans
50k-70k €
500-700 €
Île-de-France, France
Dans un contexte de renforcement des exigences réglementaires imposées aux établissements bancaires, notre client DSI met en œuvre la norme RDAR ( Risk Data Aggregation & Reporting ), visant à garantir la fiabilité, la traçabilité et la gouvernance des données de risque. Ce programme stratégique de plus de 10 M€ s’inscrit dans la continuité des travaux BCBS 239 et couvre l’ensemble du cycle de vie du projet, depuis les phases de cadrage amont jusqu’à la mise en production et la clôture. Missions principales : Phases amont & cadrage du programme – fortement apprécié Piloter les phases de pré-cadrage et de cadrage : définition du périmètre, des objectifs et des enjeux réglementaires. Conduire les études de faisabilité et les analyses d’impact (organisationnelles, techniques, budgétaires). Élaborer le business case et le dossier de lancement soumis au sponsor et aux instances de décision. Définir la vision cible, la stratégie de mise en œuvre et la structure de gouvernance du programme. Rédiger les documents de référence : charte de projet, plan de management, matrice RACI. Structurer le découpage en workstreams et lots de travaux (WBS) en cohérence avec la roadmap réglementaire. Animer les ateliers de cadrage avec les parties prenantes métier (Risk, Compliance, Finance) et IT. Pilotage du programme RDAR Assurer le pilotage global d’un programme supérieur à 10 M€, avec pleine responsabilité budgétaire. Conduire les travaux de mise en conformité à la norme RDAR au sein de la DSI bancaire. Définir et piloter la roadmap du programme en lien avec les équipes Risk, Finance et IT. Assurer le reporting d’avancement auprès des instances de gouvernance (CODIR, Comité Risques). Coordonner les workstreams métier et technique, en veillant à la cohérence d’ensemble. Gestion budgétaire & financière du programme Élaborer et suivre le budget programme (>10 M€) : plan de charge, forecast, atterrissage. Piloter les coûts par workstream et assurer la maîtrise des écarts budgétaires. Gérer les relations contractuelles avec les prestataires externes (cabinets, ESN, éditeurs). Produire les reportings financiers à destination du sponsor et des instances de gouvernance. Anticiper les risques de dérive budgétaire et mettre en place les plans correctifs. Traçabilité & gouvernance des données de risque Mettre en place les référentiels de traçabilité des données de risque ( data lineage, data quality ). Définir les règles de gestion et les normes de qualité des données en lien avec les équipes Data Office. Superviser la mise en œuvre des dispositifs de contrôle et d’auditabilité des flux de données. Piloter les travaux de cartographie des données critiques ( CDE – Critical Data Elements ). Coordination technique & Data Collaborer avec les équipes Data Engineering et Architecture sur les pipelines de données (Big Data, datalake , entrepôts). Valider les choix d’architecture technique garantissant la conformité réglementaire. Assurer l’interface entre les équipes métier (Risk, Compliance) et les équipes IT. Gestion des parties prenantes & reporting réglementaire Préparer les livrables destinés au régulateur (BCE, ACPR) et aux auditeurs internes. Animer les comités de pilotage et rédiger les comptes rendus d’avancement. Identifier et gérer les risques programme, mettre en place les plans de mitigation. Manager une équipe pluridisciplinaire de chefs de projet, business analysts et experts techniques.
Freelance

Mission freelance
Développement (Power Apps, Dynamics 365, Azure,)

Codezys
Publiée le
.NET
Azure
Azure Data Factory

12 mois
Paris, France
Contexte de la mission Dans le cadre de la prestation de Conception-Développement sur le périmètre des actifs réels, notre objectif est de garantir la performance, la fiabilité et l'évolution continue des applications concernées. La mission inclut plusieurs volets essentiels afin d'assurer une gestion optimale des actifs réels et de leurs flux associés. Les différentes missions confiées sont : Participation aux développements conformément à la roadmap applicative Maintenance corrective et évolutive des applications et des flux entrants/sortants Support aux utilisateurs intervenant sur ce périmètre Fiabilisation technique des systèmes et processus Objectifs et livrables Les tâches et livrables à réaliser dans le cadre de cette mission comprennent : Analyse des demandes utilisateur et évaluation de leurs impacts techniques et fonctionnels Développement des évolutions et corrections nécessaires Conduite de tests unitaires pour valider les changements réalisés Support technique durant les phases d'homologation, en assurant la disponibilité et la cohérence des solutions Réalisation de diagnostics en cas d'incidents en production et mise en œuvre d'actions correctives adaptées Support aux utilisateurs pour le bon fonctionnement des applications et des flux Gestion des mises en production en respectant les processus et calendriers établis
Freelance
CDI

Offre d'emploi
Data Quality / VBA Developer (H/F)

OMICRONE
Publiée le
Microsoft Access
Microsoft Excel
Microsoft Power BI

2 ans
40k-45k €
400 €
Île-de-France, France
📢 Mission – Data Quality / VBA Developer (H/F) Dans le cadre d’un programme de transformation data au sein d’un grand groupe bancaire, nous recherchons un consultant confirmé en VBA / Data Quality pour intervenir sur des sujets de réconciliation de données et automatisation de processus . 🔹 Missions : Maintenance et évolution de scripts VBA (Excel / Access) Pilotage des processus de réconciliation de données Exécution et suivi de bulk data Administration et migration SharePoint Online Suivi des incidents et amélioration des processus 🔹 Environnement technique : VBA, Excel, Access, SQL, PowerShell, SharePoint Online, ServiceNow, Power BI 📍 Localisation : France (présentiel + télétravail) 📅 Démarrage : Avril 2026 👤 Expérience : 3 ans minimum
Freelance

Mission freelance
UI/UX Data Designer (H/F) - IDF + Remote

Mindquest
Publiée le
Databricks
Figma
Microsoft Power BI

3 mois
330-480 €
Roissy-en-France, Île-de-France
Le chantier Cockpit a pour objectif de construire des outils de pilotage afin d'assister dans la prise de décision. Dans ce chantier, le Design System DataViz a été construit avec l'objectif de rendre les informations complexes accessibles et exploitables grâce à une visualisation claire et intuitive. La construction du Design System DataViz est au coeur de la construction des outils de pilotage (chantier Cockpit). Il s'agit de construire un langage commun pour l’ensemble des métiers en standardisant les éléments design et les composants visuels Power BI. Contenu détaillé de la prestation : Vous allez travailler étroitement avec le directeur de projets Design System DataViz, les équipes Data et les métiers. Le but de la prestation consiste à l'accompagnement UX/UI design dans la production DIRECTION DES SYSTEMES D'INFORMATION Le but de la prestation consiste à l'accompagnement UX/UI design dans la production et livraison d'éléments design et graphiques, de composants Power BI dessinés dans le cadre du design system DataViz, de maquettes Power BI. - Comprendre les besoins et les enjeux à piloter - Comprendre les connaissances nécessaires pour le pilotage et la décision - Traduire les besoins/enjeux en conception et en design en s'appuyant sur le design system actuel Par exemple : o Mettre en place les scénarisations des KPI o Mettre en place la hiérarchisation visuelle par typographie et graphique o Mettre en place les filtres interactifs… - Concevoir / produire les éléments de design pour répondre au besoin conception - Produire / enrichir / standardiser le design system - les éléments design pour conception (ex: palette de couleurs contrastées, encadrés et pictogrammes, graphiques enrichis et dessinés…) - Produire / faire évoluer / enrichir / standardiser le design system es composants Power BI pour Dashboard - Maintenir / faire évoluer / produire la bibliothèque design system conception (éléments design) - Maintenir / faire évoluer / produire la bibliothèque design system Power BI (composants PBI dessinés) - Produire les maquettes Power BI Attentes pour la prestation • Conception / réalisation des outils de pilotage pour les différents enjeux / métiers • Réalisation des éléments design • Réalisation des éléments Power BI dessinés • Réalisation des maquettes / reportings PBI dynamiques • Enrichissement et gestion de nos dictionnaires design system • Rédaction des cahiers des charges, spécifications fonctionnelles et techniques nécessaires • Garant de la qualité de réalisation Le(la) consultant(e) va travailler sur les environnements (Figam, PowerBI, Azure, Databricks, SQL, …) co-managé par les équipes Data Factory ainsi que les équipes DCLD (direction client digital). Livrables • Design system – éléments de conception UIUX • Design system – composants Power BI dessiné • Reportings/Maquettes Power BI dynamique • Cahiers des charges / CR / Dictionnaires • Présentation / Documentation Technique • Figma • Power BI / DAX • Cloud Azure • Databricks • SQL • Python, Spark, Scala • Spyder…
Freelance

Mission freelance
Chef de projet Transverse Data/Reporting/Integration Layer/Référentiels

CRYSTAL PLACEMENT
Publiée le
SAP

12 mois
400-790 €
Roissy-en-France, Île-de-France
Dans le cadre d’un programme stratégique de transformation Data, nous recherchons un Chef de Projet Data transverse afin de piloter des sujets critiques liés à la Data, au Reporting, aux flux d’intégration et aux référentiels. Mission Vous interviendrez sur un rôle transverse visant à coordonner et sécuriser la livraison des activités Data & Reporting, tout en pilotant les flux d’intégration et les dépendances entre plusieurs streams projet. Vous serez également responsable de l’orchestration d’une roadmap Data sur le chemin critique du programme, en collaboration avec les équipes métiers et IT. Responsabilités Pilotage des structures de données, référentiels et sujets MDM Coordination des activités Data & Reporting (prérequis, mapping, qualité des données) Priorisation des besoins Reporting avec les équipes métiers Suivi des flux d’intégration (API / Integration Layer / environnement Cloud) et gestion des risques associés Coordination transverse avec les différentes équipes projets Gestion des dépendances multi-streams Animation de la gouvernance projet et consolidation des plannings

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1463 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous