Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Offre d'emploi
Consultant(e) Data Analyst
Mission Vous avez une forte appétence au Marketing et le monde de la Data vous passionne ? Rejoignez Consortia en qualité de consultant(e) Data Analyst / Gestionnaire de campagnes marketing. Votre mission principale consiste à participer à l'application de la stratégie marketing multicanal de votre client : du recueil des besoins aux déploiements des ciblages en passant par la coordination des besoins et la gestion des échéances ou au suivi de la délivrabilité Vous participez à la mission de communiquer au bon client au bon moment à travers le meilleur canal, avec pour objectif l'augmentation des conversations (achats, trafic, branding, ...) et/ou la limitation de l'attrition Vous analysez la performance des campagnes à travers nombres d'indicateurs permettant d'optimiser les ciblages des campagnes futures Vous recommandez des axes d'améliorations en vous appuyant sur la pertinence de vos analyses et votre force de proposition

Mission freelance
Développeur Java / Big Data
A ce titre, nous cherchons un profil possédant la double compétence Data engineer et développeur backend Les activités attendues sont: - Ecrire les jobs spark de manipulation des collections de données pour des pipelines d'ingestion, de nettoyage, de preparation, d'enrichissement, de croisement des données - Développer des µService d'accès au données (API REST, serveur graphQL) pour mettre à disposition des applications internes ou directement à des clients externe - Développer jusqu'à la mise en production les traitements Big Data - Assurer la maintenance corrective des solutions Big Data développées - Collaborer avec l’ensemble des interlocuteurs concernés, transverses et métier Compétences attendues Java (J2EE / Jdk 21) Scala Spark / Spark Streaming Parquet Trino Delta Lake Kafka Docker – Kubernetes – Helm - Argo Workflow Web Services Rest / graphQL TU (JUnit / Mockito / PowerMock / ScalaMock) Git / Maven Les capacités d'innovation et de proposition seront appréciées. La maitrise de l'anglais est indispensable. La mission est prévue sur le reste de l'année 2025
Offre d'emploi
Architecte Data H/F
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : 4zx35ctzb4
Offre d'emploi
Data Engineer H/F
Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : ahorcmz9jc
Offre d'emploi
Architecte DATA/IA
En tant qu'Architecte Data & Analytics pour un cabinet du Big Four, votre rôle consistera à développer des solutions robustes et pérennes autour de la transformation numérique et des projets en Intelligence Artificielle en collaboration avec la DSI. Vos principales missions incluent : Architecture Fonctionnelle et Urbanisation du SI : Structurer les architectures data fonctionnelles et techniques selon les besoins métiers. Etudes des besoins métier et chiffrage des solutions : Analyser les demandes en lien avec les équipes métiers et proposer des solutions techniques chiffrées. Architecture Solution : Assurer l'architecture des solutions, de la conception à la mise en production, pour garantir leur intégration fluide dans le SI. Catalogue Technologique : Maintenir et enrichir les stacks techniques et outils utilisés. Vous interviendrez aussi sur : La proposition d’architectures techniques en réponse aux besoins d’analyse et de traitement des données, avec estimation détaillée des coûts. La définition des frameworks, standards, et principes de modélisation des données de référence. L’amélioration continue des solutions en termes de performance, capacité, coût, sécurité. La mise en place de bonnes pratiques de développement et collaboration avec les équipes DSI dans une démarche DevOps. La veille technologique pour optimiser l’efficacité du SI.
Offre d'emploi
Senior Cloud Data Engineer
Les équipes Data Systems de notre client recherchent un Senior Cloud Data Engineer passionné, basé à Paris, pour accompagner la forte croissance de leurs activités. En rejoignant l'équipe : Vous intégrerez une équipe autonome, impliquée dans un programme de transformation autour de projets de Data Engineering. Vous apporterez votre expertise sur la stratégie data, serez impliqué dans l’architecture et l’implémentation, et aurez l’opportunité d’expérimenter de nouvelles technologies. Vous jouerez un rôle clé en guidant les bonnes pratiques, en garantissant la fiabilité, la maintenabilité et la scalabilité des solutions que nous proposons à nos clients. Vos missions Concevoir, développer et déployer des solutions data sur le cloud (principalement AWS, mais aussi Azure ou GCP). Construire et maintenir des pipelines de données performants, sécurisés et automatisés. Travailler sur des architectures modernes type Lakehouse (Hudi, Iceberg, Delta) et appliquer des optimisations (Compaction, Z-Order, etc.). Orchestrer des pipelines avec Airflow et exploiter des environnements Hadoop / Spark. Développer en Python, SQL, Docker, avec mise en place de CI/CD et principes DevOps. Garantir la performance, la disponibilité et la sécurité des applications. Accompagner les membres moins expérimentés de l’équipe et partager les bonnes pratiques. Participer à des projets innovants et contribuer à l’évolution de notre offre Cloud Data Engineering. Profil recherché 5 ans minimum d’expérience pratique dans la construction de pipelines de données sur le cloud (AWS de préférence, Azure ou GCP acceptés). 3 ans minimum en architecture, conception, développement et support de solutions data. Connaissance des bases de données, ETL, BI, Big Data, Machine Learning et Advanced Analytics. Maîtrise des environnements Hadoop, Spark, Airflow. Expérience des architectures Lakehouse. Solides compétences en Python, SQL, CI/CD, automatisation et gestion de conteneurs (Docker). Connaissances de base en services cloud (réseau, sécurité, stockage, IAM). Bonne compréhension des méthodologies Agile et DevOps. Esprit ouvert, curieux et orienté apprentissage continu. Bon relationnel et capacité à collaborer avec des équipes pluridisciplinaires. Excellente communication écrite et orale en français et en anglais. Expérience souhaitée : infrastructures Linux, applications conteneurisées. Ce que nous offrons Participation à des projets data innovants et stratégiques. Un environnement stimulant, multiculturel et orienté partage de connaissances.

Offre d'emploi
Concepteur/Développeur Front Confirmé (H/F)
Dans le cadre de l’évolution de notre application métier dédiée à la signature électronique, nous recherchons un développeur PHP confirmé afin de renforcer notre équipe projet. La mission consiste à apporter une expertise technique pour accélérer la phase de développement et assurer la réussite des évolutions prévues. Missions principales : Le développeur interviendra sur la conception, le développement et l’intégration de solutions logicielles, en conformité avec les spécifications fonctionnelles et l’architecture technique définie. Ses responsabilités incluront notamment : Participer à l’analyse détaillée des besoins fonctionnels et techniques, Développer et coder les évolutions de l’application (logiciel, système, interfaces), Rédiger et maintenir la documentation technique associée, Implémenter les solutions avec les technologies retenues, Réaliser les tests et la qualification des systèmes, d’un point de vue fonctionnel et technique, Contribuer à la validation des spécifications fonctionnelles détaillées, Coordonner et accompagner les prestataires impliqués dans le développement. Livrables attendus Évolutions de l’application iAudience, Mise en place d’un nouveau mode d’authentification.

Offre d'emploi
Lead Data Engineed Snowflake - DBT
Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.
Offre d'emploi
Chef de projet Data
Nous recherchons un Chef de Projet Data Senior Le candidat sera en charge de piloter les projets stratégiques Data de bout en bout, en garantissant la qualité, la cohérence et le respect des délais et budgets. Missions principales : Mettre en place et suivre la démarche de pilotage projet (jalons, livrables, comités de pilotage) Accompagner la transformation agile et proposer des solutions techniques et fonctionnelles adaptées Participer aux phases de cadrage, d’étude et de conception avec les différentes parties prenantes Maintenir les référentiels documentaires et assurer la qualité des livrables, internes ou externes Collaborer étroitement avec les équipes métiers et DSI pour aligner les projets avec les enjeux business

Offre d'emploi
Data Scientists IA
Nous recherchons deux Data Scientists IA (Junior & Senior) passionnés par l’intelligence artificielle et les grands modèles de langage pour rejoindre notre équipe sur une mission longue. Missions Concevoir, entraîner et déployer des modèles IA/ML avancés. Travailler sur des cas d’usage innovants autour du RAG (Retrieval Augmented Generation) et des LLM (Large Language Models). Développer en Python des solutions performantes et scalables. Exploiter la puissance du cloud Azure pour industrialiser et mettre en production les modèles. Collaborer avec les équipes Data, Produit et Tech pour maximiser l’impact métier.

Mission freelance
Data Engineer & Ops (DevOps) F/H
Au sein de cette DSI, la Direction Data Infra Cloud Workplace Operations (DIWO) a pour mission: De créer les synergies nécessaires entre l’ingénierie, le run des infrastructures, le poste de travail et les outils des développeurs, D’accélérer l’intégration des usages data et mise en place des socles transverses groupe, De renforcer la sécurité opérationnelle du SI, D’assurer un suivi de la qualité de service transverse au SI à partir des différents services Ce profil combine les compétences d'un « Analytics engineer » (ingénieur analytique) et d'un data (ou system) « Reliability engineer » (ou une expérience dans la gestion de RUN type SRE/DRE), le tout appliqué spécifiquement dans l'environnement Dataiku (personne pour opérationnaliser les projets de données et d'IA développés dans Dataiku).
Mission freelance
Data scientist
Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots

Offre d'emploi
Consultant Data Engineer (H/F)
À ce poste, vous serez une référence technique dans le domaine du Big Data, aussi bien vis-à-vis des clients pour lesquels vous interviendrez, que de l'équipe de réalisation à laquelle vous appartiendrez. Vos missions : Participer aux processus d'avant-vente et à l'élaboration des propositions commerciales ; Diriger la conception et la mise en oeuvre de projets Big Data ; Concevoir et développer des solutions de traitement de données massives (Hadoop, Spark, Kafka, Python, Scala, Hive...) ; Mettre en place des pipelines de traitement de données ETL et assurer la qualité des données (NiFi, Talend, Airflow, SQL...) ; Assurer la gestion et l'optimisation des bases de données distribuées et NoSQL (Cassandra, MongoDB, ElasticSearch...). Plus largement, vous pourrez?enrichir nos bonnes pratiques en matière d'architecture et de développement dans le domaine du Big Data, effectuer de la veille technologique, élaborer des supports de formation technique pour nos clients et nos consultants, ou encore contribuer à l'animation du pôle technique

Offre d'emploi
(H/F) Product Manager Data
Adsearch, cabinet de conseil en recrutement, vous propose un poste de Product Manager Data & IA chez un client final. Poste : Vous rejoignez la BU Transformation et Data composée de 15 profils cosmopolites (Chefs de projet, développeurs, Ingénieur Data…). En tant que Product Manager Data vous garantissez la valeur délivrée par les applicatifs Data & IA adressés aux utilisateurs internes et externes. Vous travaillez activement avec les équipes Data, DSI et métier pour concevoir et livrer des solutions à forte valeur ajoutée, tout en manageant équipe de 4 développeurs en environnement international (Anglais requis). Connaissance du domaine du transport et/ou logistique est un plus. Vos missions dans le détail : - porter la vision produit des applicatifs Data & IA et la décliner en roadmap - gérer le backlog produit suivant les besoins clients et métiers - rédiger les besoins métiers pour l’équipe de développement - animer les rituels Agile (sprint plannings, reviews, rétrospectives…) - interagir avec les différents acteurs (internes, clients, partenaire, équipe technique…) - manager l’équipe de 4p et suivre leurs performances.

Offre d'emploi
Analyste d'exploitation / Domain Data - MLOps - Data Platform
Analyste d'exploitation / Domain Data - MLOps - Data Platform Un leader dans le domaine des solutions de leasing est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Projet à mener pour une application de ciblage commercial permettant aux commerciaux une approche de vente proactive du crédit-bail pour des clients déjà équipés de contrats cadres. Responsabilités Mise en œuvre des Pipelines Machine Learning : • Concevoir, déployer et maintenir des pipelines de machine learning automatisés, intégrant l'ensemble des étapes du cycle de vie des modèles, de l'entraînement à la mise en production. • Assurer l'intégration des modèles de machine learning dans les environnements de production, en s'assurant de la scalabilité, des performances et de la fiabilité des solutions mises en œuvre. • Collaborer étroitement avec les data scientists et ingénieurs data pour faciliter la transition des modèles depuis les phases d'expérimentation jusqu'à l'industrialisation, tout en optimisant les pipelines de bout en bout. Automatisation et industrialisation des modèles : • Mettre en place des processus d'industrialisation des modèles de machine learning pour garantir une gestion continue et fiable des modèles en production, avec des mécanismes de surveillance automatique. • Automatiser les tâches critiques, telles que l'entraînement, le déploiement, la gestion des versions, et la surveillance des performances des modèles. • Intégrer des solutions de monitoring pour garantir que les modèles en production respectent les critères de performance, de dérive et de précision définis. Adaptation de l'infrastructure et des environnements de production : • Participer à la mise en place d'une infrastructure (Cloud / DMZR) robuste et évolutive qui soutient l'entraînement et l'inférence des modèles à grande échelle. • Optimiser l'utilisation des ressources (GPU, CPU) pour l'entraînement et la mise en production des modèles, en fonction des besoins spécifiques du projet. Surveillance, maintenance et gestion du cycle de vie des modèles : • Mettre en œuvre des systèmes de monitoring pour suivre les performances des modèles en production, détecter les dérives, et initier les actions correctives automatisées. • Assurer une maintenance continue des modèles en production pour garantir leur conformité avec les objectifs métiers, en supervisant la mise à jour des modèles et la gestion de leurs versions. • Gérer le cycle de vie complet des modèles, de la phase d'entraînement initiale à la mise à jour et dépréciation des modèles obsolètes. Collaboration et documentation des processus : • Collaborer étroitement avec les data scientists, les ingénieurs data et les DevOps pour assurer l'intégration fluide des pipelines de machine learning dans l'infrastructure IT existante. • Documenter de manière exhaustive les processus et les pipelines mis en place, incluant les workflows automatisés, les architectures, et les pratiques de surveillance des modèles. • Assurer une communication continue avec les équipes métiers et techniques pour garantir l'alignement sur les besoins et objectifs du programme.

Mission freelance
Chef de Projet Data - BI
Objectifs et livrables : En étroite collaboration avec le Chef de Service, les architectes fonctionnels, les ingénieurs Data, la MOA et les métiers, la mission est garante de la bonne réalisation de certains projets transverses. Mission : Piloter et assurer la mise en œuvre des évolutions/projets dont vous aurez la charge dans le respect de la qualité, coûts et délais définis avec les intervenants, des process et normes Travailler sur les différents templates projets, la roadmap fonctionnelle, l'optimisation des interactions avec les autres services Mettre en place un plan de communication autour des différents projets et instances Mettre en oeuvre et piloter le planning des travaux de l'équipe et des contributions Coordonner les différents prestataires Effectuer un reporting régulier et rigoureux vers son responsable
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres