Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Offre d'emploi
Lead Data Engineed Snowflake
Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

Offre d'emploi
Lead Data Engineer Azure – Data Gouvernance & Plateformes Modernes
Dans le cadre d’un renfort stratégique, notre client recherche un Lead Data Engineer Azure pour intervenir sur des projets de transformation autour de la data, dans un environnement technique et fonctionnel exigeant. Le poste implique un rôle central dans la mise en place de plateformes data modernes et de pratiques de gouvernance des données. Missions : Définir et piloter l’ architecture data autour de concepts modernes : data mesh, data catalog , gouvernance des données. Participer à la mise en place de plateformes de data modeling et de catalogues de données dans un cadre de data gouvernance . Concevoir et implémenter des solutions techniques avec des outils tels que Databricks , Snowflake , Azure Synapse , etc. Collaborer étroitement avec les équipes métier pour comprendre les besoins fonctionnels et produire une documentation technico-fonctionnelle claire. Accompagner les équipes projet sur les bonnes pratiques d’ingénierie data , assurer une vision transverse et contribuer à l’ acculturation data au sein de l’organisation.

Mission freelance
Data Scientist
Nous cherchons un(e) Data Scientist H/F pour un de nos clients situé en région Hauts de France Contexte de la mission Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Ton rôle : Concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM , RAG , agents et chatbots . Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de développement : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (RGPD) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.

Offre d'emploi
Data Manager (H/F)
CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos talents au service d’un groupe de renom dans le secteur hôtelier ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Data Manager (H/F) pour rejoindre une équipe dynamique et internationale. 👈 Vous serez en charge de définir les politiques de gestion des données, de modéliser et de garantir l'architecture fonctionnelle de la plateforme de données utilisée pour satisfaire les besoins métier. 🙌🔽 Vos principales missions seront les suivantes : 🔽🙌 🔸 Soutenir le cadrage, la conception et la livraison des produits de données ‒ Clarifie les exigences ‒ Trouve les lacunes en matière de données et évalue la faisabilité ‒ Collabore avec les Product Owners et les Data Engineers ‒ Co-conçoit les solutions de données ‒ Valide les choix de modélisation des données ‒ Assure la cohérence avec les normes ‒ Garantit l'évolutivité et la maintenabilité 🔸 Co-définit et partage/éduque les normes de gestion des données ‒ Collabore avec les parties prenantes de la gouvernance, de l'architecture et des produits ‒ Définit les conventions de nommage ‒ Définit les exigences de documentation ‒ Établit les règles de modélisation et assure la conformité ‒ Organise des formations, des ateliers et des sessions de support ‒ Fournit des conseils pratiques et répond aux questions 🔸 Gère le portefeuille et les actifs de données au niveau de la tribu ‒ Assure la qualité et l'exhaustivité des métadonnées ‒ Décrit les tables, les champs et les processus ‒ Met à jour la lignée et le glossaire métier ‒ Vérifie l'application cohérente des normes ‒ Crée et partage les rapports sur le portefeuille de données ‒ Met en évidence les lacunes, les risques et les opportunités

Mission freelance
Data Scientist
Objectif global :Développer des solutions IA GCP / Software engineering / Python Compétences techniques Machine learning - Expert - Impératif IA generative - Expert - Impératif MLOps/LLMOps - Confirmé - Important Chatbot - Confirmé - Important Connaissances linguistiques: Anglais Courant (Impératif) Description détaillée Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Ton rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots Traitement de données non structurées PDF & documents : parsing, OCR, extraction de tables et de structures. Images : prétraitement, détection/segmentation, compréhension multimodale (image+texte).

Mission freelance
DATA ANALYST SENIOR LOOKER
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
Offre d'emploi
Dev Python Data (anglophone)
Nous recherchons pour notre client dans le secteur du textile un developpeur python data pour une mission longue a Ruel Malmaison Vos taches : • Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…) • Compétences : >> Requises • Modélisation objet (MCD,MPD,UML…) • Architecture logicielle N-tiers, micro-batches et NRT • Développement Python + pandas + pytest + pyodbc + reques ts • SQL avancé (de préférence SQL Server) • Authentification déléguée: Oauth, SAML • Application Lifecycle Management + Unit testing • Anglais courant, écrit et parlé (conversations quotidiennes permanentes avec des équipiers non-francophones) >> Souhaitées • Administration Snowflake • Administration Linux • Administration Windows • Développement pyarrow , duckdb, pyiceberg • Sécurité: cryptographie basique (chiffrement symétrique, hashage en python ; gestion de certificats et clés privées avec openssl) ; gestion des secrets en vault

Offre d'emploi
Lead data (H/F)
Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github

Offre d'emploi
Data Engineer
Nous recherchons un(e) Data Engineer Senior / Expert pour renforcer notre équipe et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste requiert un profil expérimenté, capable d’allier expertise technique, bonnes pratiques de développement logiciel et accompagnement des équipes. Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d’architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l’équipe.

Offre d'emploi
Data scientist
Nous sommes à la recherche d'un(e) : Data Scientist - Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. - Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). - Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). - Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. - Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. - Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. - Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.

Offre d'emploi
INGENIEUR CLOUD DATA AZURE DEVOPS (H/F)
ACCROCHE SI TU ADORES TRAITER DES TERRITOIRES DE DONNÉES XXL, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à la gestion de données massives et distribuées Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur du retail, tu participeras à la mise en place de projets data et big data, à déployer les projets dans le cloud, à apporter des solutions autour de la sécurité et des API Web, à construire et à industrilaiser des architectures cloud : Les pipelines Big Data, tu concevras et développeras Les traitements batch et temps réel, tu industrialiseras La qualité et la fiabilité des données, tu sécuriseras L’architecture des flux de données, tu mettras en œuvre Les performances et la scalabilité, tu optimiseras Les solutions cloud ou on-premise, tu intégreras Ton équipe projet, tu accompagneras Aux instances data et techniques, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 4 à 10 ans minimum en ingénierie Big Data Expert(e) en BigData Az DataLake, Az EventHub, Databricks, ADF, Microsoft Cloud Azure, Infrastructure as a code (ARM, YAML), Intégration/déploiement continu (Git, Az DevOps) Habile avec AZURE AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !

Mission freelance
DATA ENGINEER Scala/Spark
CONTEXTE L'entité a donc également un but humain en assurant la réussite des développeurs en reconversion. La mission consiste à renforcer une équipe de Data Engineers pour réaliser des projets Scala/Spark pour le compte de l’un de nos clients. MISSIONS Vous assurerez le pilotage de plusieurs projets basés majoritairement sur les technologies Python sur le périmètre de la filiale Energie. Le pilotage concerne l’ensemble des projets de cette filiale confiés à D2D. Les engagements de l’entité D2D envers la filiale sont assurés grâce à un plateau projet composé de 2 à 4 développeurs, un ops et un architecte. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : Le profil recherché pour la mission est celui d’un chef de projet SI/Data. Une expérience significative est requise pour ce poste. Il bénéficiera d’un accompagnement du responsable de domaine / directeur de mission sur le périmètre et du responsable de l’équipe Chefs de Projets Data pour les aspects outillage et méthodologie. Ce soutien sera plus important au début de la mission, notamment pour la prise en main des outils indispensables mais peu répandus comme TimePerformance. Qualités requises - Excellent relationnel - Capacité rédactionnelle - Capacité d’adaptation et de travail en équipe - Rigueur et esprit de synthèse - Esprit d’initiative - Autonomie

Offre d'emploi
Data Engineer Sénior (Secteur Finance)
Nous recherchons actuellement un data engineer sénior ayant une expérience dans le secteur de la finance (équipe global market ou compliance par exemple). Aspects contractuels de la missions : - Démarrage de la mission ASAP - Les locaux se situent dans le 13eme arrondissement de Paris - La mission sera de longue durée (3 ans). - Client dans le secteur bancaire. - Télétravail prévu 2 jours par semaine, présence demandée 3 jours par semaine - L'anglais fait partie de la mission : Communication avec des membres de l'équipe à Porto - Des astreintes seront mises en place pour la maintenance évolutive, avec 3 ou 4 nuits par mois, réparties sur tous les membres de l'équipe selon un planning determiné un mois en avance. Les week-ends tombent tous les 1 mois et demi pour tous les membres de l'équipe. L’équipe : - Adresse des sujets des différents métiers comme Global Market (rentabilité commerciale et performance des équipes de vente), trading (pour la demande de prix ur les plateforme éléctroniques), compliance (fournir des alertes en post trade pour les informations clients). - L'équipe travaille sur de l'on premise sur des datas centers (raisons de coûts et de sécurité). La mission consiste à mettre en place, gérer et modifier les pipelines de livraison. La partie maintenance évolutive reste une part importante de la mission, et comprends également une partie support niveau 2.
Mission freelance
Data Analyst expert
Métiers : Data Management, Data Analyst Spécialités technologiques : BI, ETL Type de facturation : Assistance Technique (facturation avec un taux journalier) Compétences : Technologies et Outils : SQL, Qlik Sense, Power BI Soft skills : Autonomie Secteurs d'activités : Administration Publique Description de la prestation : Le Data Analyst sera chargé de structurer les bases méthodologiques et techniques pour produire des indicateurs fiables pour le département « Recherche Candidature et Rapprochement » (RCR). Sa mission inclut : Centraliser les données de multiples sources et assurer leur transformation. Industrialiser leur traitement via des pipelines performants. Visualiser les données avec Power BI, Qlik Sense, etc. Gérer plusieurs domaines de données en lien avec l’architecte/expert data et les métiers. Assumer la chaîne complète de traitement et valorisation des données, de la compréhension des besoins à la mise en production et maintenance des applications décisionnelles. Structurer les flux, optimiser les performances, garantir la qualité, la cohérence et la disponibilité des données. Le poste requiert une forte autonomie et une capacité à travailler en lien étroit avec les équipes data et les métiers pour assurer la qualité des livrables.

Offre d'emploi
Ingénieur.e DataOps & Azure
Au sein de la Direction Digital & Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data du Groupe. En tant qu'ingénieur.e DataOps & Azure, vous jouerez un rôle clé dans le déploiement et l’industrialisation des projets data à l’échelle du Groupe. Votre rôle Conception & Déploiement Cloud · Construire et configurer les infrastructures Cloud Public (principalement sur Azure) · Dimensionner les plateformes en fonction des performances attendues · Participer aux phases de validation technique lors des mises en production ou des évolutions · Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Industrialisation & Automatisation · Mettre en place et améliorer les chaînes CI/CD · Industrialiser les architectures cibles et automatiser la configuration des environnements Supervision & Maintenance · Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures · Maintenir en condition opérationnelle les infrastructures virtualisées en diagnostiquant les pannes et les dysfonctionnements · Veiller à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées Sécurisation des environnements · Organiser des ateliers, suivre et rendre compte de l'avancement des sujets liés aux résultats d'audit · Proposer des solutions adaptées en matière de sécurité Cloud Azure, notamment sur la mise en place d'applications Web et d'API
Offre d'emploi
Architecte Data H/F
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : 0m5vzimlvd
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres