Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Saint-Denis
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Offre d'emploi
Data Analyst Dataiku
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Analyst Dataiku Positionné auprès des Métiers ou de la DSI ou dans un pôle data transverse, il met en œuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d’organiser, synthétiser et traduire efficacement des données Métiers. Il produit et est responsable des indicateurs de performance qui permettent les prises de décision. Livrables • Accompagner les métiers dans l’interprétation des résultats et être force de proposition dans les pistes d'amélioration. • Proposer et/ou réaliser des analyses pertinentes et dashboard. • Créer de la documentation sur les données utilisées et les best practices. • Participer aux projets transverses de la direction (incrémentalité, MMO, data activation).

Mission freelance
Architecte Applicatif SI
Poste : Architecte Applicatif SI Localisation : Saint-Denis Démarrage : 24/09/2025 Durée : 6 mois renouvelables (12 mois possibles) TJM max proposé : 700 € Statut : Freelance Deadline : 12/09/2025 à 12h Nous recherchons un Architecte Applicatif SI confirmé (minimum 6 ans d’expérience en architecture applicative). Contexte : Le consultant interviendra au sein d’une DSI sur des applications métiers (Achats/Logistique, RH, Gestion Finance, Concessions Territoires et SI Transverse). Il s’agira d’assurer la cohérence de l’architecture applicative, d’accompagner les projets et de guider les choix d’implémentation dans le respect des cadres de cohérence, schémas directeurs, règles de sécurité et politiques IT/SI. Missions principales : Conception d’architectures applicatives cohérentes et évolutives Accompagnement des projets (exigences non fonctionnelles, macro-architectures, spécifications techniques, validation des choix) Refactorisation et modernisation des SI Architecture d’applications distribuées, d’API et de services Contribution à la définition des standards et modèles du cadre d’architecture Support aux phases de mise en œuvre et de recette technique Compétences attendues : Solide expérience en intégration de progiciels et solutions SaaS Maîtrise des architectures distribuées, API, microservices, data, cloud-native Bonne connaissance des middlewares (BPM, ESB, MOM, API Gateway, GED), BDD (Oracle, PostgreSQL, MySQL…), frameworks (Java, PHP, Angular), serveurs d’applications (Apache, J2EE, IIS) Compréhension des problématiques sécurité, green IT, big data, supervision et CI/CD Connaissance du domaine de l’énergie appréciée Bac+5 en informatique (école d’ingénieur ou université) Profil recherché : Architecte applicatif généraliste, à l’aise sur les échanges inter-applicatifs et la modernisation de SI, avec idéalement une expérience sur SAP.

Offre d'emploi
Data Engineer Pyspark/AWS
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Pyspark/AWS Missions: Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d’architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l’équipe. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia

Mission freelance
Développeur :PostgreSQL, Oracle, ETL Talend OpenStudio for Data Integration/ko
Développeur : PostgreSQL, Oracle, ETL Talend OpenStudio for Data Integration, Windows Server, scripting Localisation : Saint Denis La mission porte sur la mise en disposition d’un consultant sénior intégré dans les équipes TAF de la DGNUM, ayant une parfaite maitrise technique des technologies suivantes : PostgreSQL, Oracle, ETL Talend OpenStudio for Data Integration, Windows Server, scripting DOS, Ansible, Jenkins, Gitlab, SVN 2.1 Description détaillée des tâches qui constituent la mission • Administrer et maintenir en conditions opérationnelles les bases de données Oracle 11g (hors-PROD et PROD), hébergées sur des serveurs Windows Server 2008 R2 ; • Développements d’évolutions ou de corrections sous base de données Oracle 11g et PostgreSQL, ainsi que l’ETLTalend Open Studio for Data Integration ; • Assister le chef de projet SNCF dans les projets de décommissionnements et prendre une part active dans les actions de ces décommissionnements ; • Assister le chef de projet SNCF dans le projet de migration d’EDIREF (base de données Oracle vers PostgreSQL et l’ETL Talend Open Studio for Data Integration) et prendre une part active dans les actions de cette migration ; • Assister le chef de projet SNCF dans le projet de migration de Transco Budget VVIFI1 VVIFI2 (base de données source Oracle et cible à définir ; ETL source Talend Open Studio for Data Integration et cible à définir) et prendre une part active dans les actions de cette migration ; • Assister les conducteurs de projet et responsables d’application sur les aspects technico fonctionnels des bases dedonnées ; • Assurer un rôle de conseil et de pilotage technico-fonctionnel pour l’optimisation des processus opérationnels ; • Réaliser les nouvelles fonctionnalités demandées par le chef de projet lors des ateliers de recueil des besoins et à leur formalisation. • Réaliser et/ou prendre part à la rédaction des livrables de cadrage, conception fonctionnelle, conception technique, plans de tests. 2.2 Résultats attendus et/ou livrables : • Devis • Eléments de Pilotage (dont Comptes-rendus de réunions de pilotage, Tableaux de bord de pilotage, risques) • Plan de Management de Projet • Documents de suivi créés ou mis à jour : suivi des plans d’actions, des livrables, des risques, des décisions…(RIDA) • Tableaux de bord de pilotage pour chaque périmètre incluant : o Planning initial, révisé, actuel, écarts o Budget initial, révisé, actuel, écarts o Avancement, reste à faire, écarts o Consommé, reste à faire o Risques (délais, budgets, coûts, qualité, ressources, environnement) o Indicateurs projet, indicateurs de maintenance o Supports et comptes rendu de comités

Offre d'emploi
Chef de Projet technique IA/MLOPS
Bonjour, Dans le cadre de ses projets clients Visian est à la recherche d'un Chef de Projet IA/MLOPS Tâches: - Garantir la cohérence technique et la qualité des produits Data & IA en collaboration avec les experts et les équipes de delivery. - Encadrer et faire grandir les équipes de développement Data/IA (DE , travailler avec des DS, MLOps, etc.) pour répondre aux enjeux business et techniques. - Définir et piloter la trajectoire de delivery (qualité, respect des engagements) pour assurer la mise en production fluide et sécurisée des solutions Data & IA. - Maintenir et développer les compétences clés des équipes dans un contexte technologique en forte évolution (cloud data platforms, IA générative, big data, MLOps). - Assurer la qualité de service en production des solutions Data & IA (robustesse, performance, monitoring, observabilité). Livrables 1. Constitution & maturité des équipes Data & IA - Recruter, staffer et faire monter en compétence les équipes Data/IA. - Assurer un équilibre entre roadmap produit et ressources Tech Data/IA. - Garantir l’adoption des bonnes pratiques (clean code, sécurité, data quality, éthique de l’IA, observabilité). 2. Management de proximité - Encadrer les développements Data & IA et promouvoir une culture de feedback. - Gérer la motivation, la cohésion et la montée en compétence des équipes. - Définir les objectifs individuels et collectifs, et suivre leur atteinte. 3. Delivery & Production - Piloter la qualité du delivery des solutions Data & IA (délais, coûts, engagements). - Mettre en place des standards et process de delivery adaptés (MLOps, CI/CD pour modèles IA, monitoring des données et modèles). 4. Collaboration avec les équipes Produits & Métier - Aligner les équipes Data/IA avec les enjeux produits et métiers. - Travailler avec les responsables produit, data owners et business stakeholders pour transformer les besoins en solutions concrètes. 5. Contribution technique - Participer à la définition des solutions Data & IA en gardant un rôle de facilitateur technique (sans être sur le chemin critique). - Challenger les choix technologiques (data architecture, frameworks IA, cloud) et favoriser l’innovation. - Développer une vision long terme sur la gouvernance et la stratégie Data & IA. Si vous êtes actuellement à l'écoute du marché, n'hésitez pas à m'envoyer votre candidature. Bien à vous, Nadia
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres