Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Saint-Denis
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.
Offre d'emploi
Demande de prestation IT en Directeur de projets
Tâches à réaliser : Garantir la disponibilité, fiabilité et performance des applications budgétaires, en particulier lors des périodes critiques Maintenir un niveau conforme en matière de sécurité et conformité (RGPD, ISO 27001…) Gérer les évolutions applicatives et le support utilisateurs Traiter les anomalies et maintenir la documentation opérationnelle Identifier et mettre en œuvre des pistes d’industrialisation · Participer au projet de refonte EPM Pigment Optimiser et moderniser les processus de prévisions budgétaires (automatisation, rationalisation, modularité) Sécuriser et fiabiliser les interfaces et flux entre cycles de planification Renforcer l’agilité métier : ajout d’axes d’analyse, gestion d’organisations évolutives, restitution automatisée Participer à la conception de l’architecture Pigment (data hub, connecteurs, intégration SI, reprise de données)
Mission freelance
Data Engineer Databricks (F/H)
Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).
Mission freelance
Data Engineer | DevOps AWS (H/F)
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Offre d'emploi
Data Analyst Dataiku
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Analyst Dataiku Positionné auprès des Métiers ou de la DSI ou dans un pôle data transverse, il met en œuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d’organiser, synthétiser et traduire efficacement des données Métiers. Il produit et est responsable des indicateurs de performance qui permettent les prises de décision. Livrables • Accompagner les métiers dans l’interprétation des résultats et être force de proposition dans les pistes d'amélioration. • Proposer et/ou réaliser des analyses pertinentes et dashboard. • Créer de la documentation sur les données utilisées et les best practices. • Participer aux projets transverses de la direction (incrémentalité, MMO, data activation).
Mission freelance
POT8628-Un Chef de projet BI / Consultant BI/Data confirmé sur Saint Denis
Almatek recherche pour l'un de ses clients, un Chef de projet BI / Consultant BI/Data confirmé sur Saint Denis Description de la mission: Objectifs Grâce à une bonne maîtrise des applications BI, l’intervenant devra : Définir des solutions répondant aux enjeux applicatifs d’intégration dans les architectures de traitement de la donnée. Répondre aux besoins métier en assurant des phases de transition sans rupture de service et de recette sur la chaîne de traitement de la donnée, tout en prenant en compte les évolutions des architectures techniques et applicatives. Tâches principales: Suivi des expressions de besoins – Analyse des demandes internes : Consolider les besoins métier. Analyser en détail les solutions et scénarii possibles, incluant : Intégration dans l’urbanisme en lien avec les architectes et urbanistes. Intégration dans le SI global. Capacité et modalités de tests. Impacts fonctionnels sur la gestion de données bout en bout. Modalités de migration si nécessaire. Délais de construction et planification. Travailler avec les parties prenantes : équipes métier, urbanistes, équipes fonctionnelles, sous-traitants, etc. Suivi de la réalisation : Coordonner les travaux en appui du responsable de domaine. Produire et suivre les livrables (spécifications techniques, plans de tests, PV, reporting). Définir et superviser les plans de tests et leur déroulement. Assurer le respect du planning et le bon déroulement des phases de déploiement/migration en lien avec les acteurs concernés. Reporting : Suivi de l’avancement et communication des résultats auprès du responsable de domaine et des instances de gouvernance internes. Résultats attendus / Livrables: Pour chaque projet : Besoins consolidés et validés par les représentants métier. Propositions et conseils sur les solutions et scénarii possibles. Mise en œuvre des solutions retenues (réalisation, tests, déploiement). Expertise Expérimenté ou Senior dans l’expertise dans les outils BI et connaissances en architecture urbanisme de la data: Besoin d’expérience avérée dans le suivi projets orientés applications BI/fonctionnelles et urbanisme data / flux de données Très bon niveau de compréhension des outils BI et de l’urbanisme (cloud – On promise – Dataware House …) Très bon niveau de compréhension des enjeux fonctionnels Très bon niveau de synthèse Environnements techniques : Activité sur les environnements de recette et production Environnements Cloud AWS et Microsoft Applications décisionnel (Power BI, Cognos, Tableau Software … )
Offre d'emploi
Data Engineer Pyspark/AWS
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Pyspark/AWS Missions: Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d’architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l’équipe. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia
Offre d'emploi
Chef de Projet technique IA/MLOPS
Bonjour, Dans le cadre de ses projets clients Visian est à la recherche d'un Chef de Projet IA/MLOPS Tâches: - Garantir la cohérence technique et la qualité des produits Data & IA en collaboration avec les experts et les équipes de delivery. - Encadrer et faire grandir les équipes de développement Data/IA (DE , travailler avec des DS, MLOps, etc.) pour répondre aux enjeux business et techniques. - Définir et piloter la trajectoire de delivery (qualité, respect des engagements) pour assurer la mise en production fluide et sécurisée des solutions Data & IA. - Maintenir et développer les compétences clés des équipes dans un contexte technologique en forte évolution (cloud data platforms, IA générative, big data, MLOps). - Assurer la qualité de service en production des solutions Data & IA (robustesse, performance, monitoring, observabilité). Livrables 1. Constitution & maturité des équipes Data & IA - Recruter, staffer et faire monter en compétence les équipes Data/IA. - Assurer un équilibre entre roadmap produit et ressources Tech Data/IA. - Garantir l’adoption des bonnes pratiques (clean code, sécurité, data quality, éthique de l’IA, observabilité). 2. Management de proximité - Encadrer les développements Data & IA et promouvoir une culture de feedback. - Gérer la motivation, la cohésion et la montée en compétence des équipes. - Définir les objectifs individuels et collectifs, et suivre leur atteinte. 3. Delivery & Production - Piloter la qualité du delivery des solutions Data & IA (délais, coûts, engagements). - Mettre en place des standards et process de delivery adaptés (MLOps, CI/CD pour modèles IA, monitoring des données et modèles). 4. Collaboration avec les équipes Produits & Métier - Aligner les équipes Data/IA avec les enjeux produits et métiers. - Travailler avec les responsables produit, data owners et business stakeholders pour transformer les besoins en solutions concrètes. 5. Contribution technique - Participer à la définition des solutions Data & IA en gardant un rôle de facilitateur technique (sans être sur le chemin critique). - Challenger les choix technologiques (data architecture, frameworks IA, cloud) et favoriser l’innovation. - Développer une vision long terme sur la gouvernance et la stratégie Data & IA. Si vous êtes actuellement à l'écoute du marché, n'hésitez pas à m'envoyer votre candidature. Bien à vous, Nadia
Mission freelance
ALSL - Tech Lead Senior Python / FastAPI / AWS
Dans le cadre d’un programme stratégique de digitalisation et d’outillage décisionnel, notre client recherche un Tech Lead Senior Python pour piloter la conception et la cohérence technique de deux applications web à fort enjeu métier. Ces applications participent à la planification et à l’optimisation d’opérations complexes à l’échelle nationale, intégrant une forte dimension data, cartographique et d’optimisation de scénarios. L’environnement est agile, collaboratif et techniquement exigeant, au cœur d’un projet de transformation numérique d’envergure. Missions : Définir et garantir l’architecture technique du projet Encadrer les développeurs backend et frontend Superviser la qualité, la performance et la documentation du code Piloter les déploiements sur les environnements (dev, recette, prod) Participer à la roadmap technique et aux cérémonies agiles Être moteur sur la veille technologique et l’amélioration continue Assurer la cohérence globale entre les différentes briques applicatives Environnement technique Backend : Python 3.11 FastAPI, SQLAlchemy 2, Pydantic 2, Alembic PostgreSQL 14 + PostGIS DevOps & Cloud : AWS (S3, RDS) Jenkins, Ansible, Helm, Docker, Kubernetes Datadog Outils & Autres : GitLab, Pytest Jira ou équivalent Méthodologie Agile / Scrum
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres