Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Mission freelance
Lead QA PLM F/H
CONTEXTE Experience : 7 ans et plus Métiers Fonctions : Etudes & Développement developpement Spécialités technologiques : Data Visualisation, Restitution, PLM Test Management, QA, API Besoin QA Senior Equipe : • Développements produits : Phase de création des produits MISSIONS Rôle : • Pas d’automatisation • Mettre de l’ordre dans les process • Connaitre les outils QA • Etre capable de réagir à une demande du métier si cela n'est pas compatible avec le projet actuel Experience en développement produit Experience dans le Luxe Création de poste, unique QA de l’équipe Outils: • PLM CENTRIC, MASTER DATA, JIRA, XRAY Expertise souhaitée Experience en développement produit Experience dans le Luxe Création de poste, unique QA de l’équipe

Mission freelance
Expert Sécurité Opérationnelle – N2
Objectif de la mission Renforcer l’équipe Data Protection du département Cloud, Application, Data et Expertise Sécurité dans le cadre d’un projet de prévention contre la fuite de données (Data Leak Prevention – DLP). Missions principales Recueillir les besoins métiers en matière de protection des données sensibles Définir, paramétrer et optimiser les règles DLP Améliorer les solutions de détection et réduire les faux positifs Participer au choix et à l’intégration de nouveaux outils DLP Analyser les événements de sécurité et suivre les rémédiations Mettre en place et suivre les indicateurs d’activité Créer et maintenir des tableaux de bord (PowerBI, PowerApp) Contribuer à la mise en application et au contrôle de la Politique de Sécurité Assurer la supervision, le maintien en conditions opérationnelles et la résolution d’incidents/problèmes Participer aux audits et à la mise en conformité post-audit Rédiger des guides et standards de sécurité Assurer une veille technologique et proposer des améliorations Compétences techniques indispensables Outils DLP (Trellix DLP, Netskope) – confirmé Splunk – confirmé Développement/Scripting : Python, PowerApp, PowerBI – confirmé Culture solide en cybersécurité et gestion des risques liés aux fuites d’informations Connaissances techniques générales en systèmes et réseaux

Mission freelance
Senior DevOps Engineer (kub, terraform, Azure cloud)
Organisation publique qui développe une plateforme technologique sécurisée pour faciliter l’accès à des données à des fins de recherche et d’innovation. Ce projet vise à soutenir des initiatives d’intérêt général en lien avec la santé publique, en garantissant un haut niveau de sécurité et de confidentialité. 🔧 Missions principales Au sein de l’équipe en charge de l’environnement sécurisé, vos responsabilités incluent : Infrastructure as Code (IaC) : conception, déploiement et maintenance via Terraform, Terragrunt, Packer et Ansible Orchestration Kubernetes : gestion des clusters, création et maintien des charts Helm, déploiement des applications Automatisation CI/CD : mise en place et optimisation des pipelines d’intégration et déploiement continus Sécurité : respect des normes de sécurité liées aux données sensibles, mise en œuvre des contrôles d’accès et protection des données Veille technologique : suivi des évolutions cloud, DevOps et sécurité Collaboration : travail en interaction avec les équipes produit, architecture, data science et opérations

Mission freelance
ARCHITECTE TECHNIQUE ON PREMISE & CLOUD AZURE ET GCP
Nous recherchons plusieurs Architectes Technique OnPrem & Cloud pour une mission longue chez l'un de nos clients. Niveau expérimenté à senior requis. CONTEXTE DE LA MISSION Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation - Accompagnement de la stratégie Move2Cloud - Co-construction des solutions - Accompagnement des équipes d'exploitation et de développement Environnement général - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION - Etude des besoins issus des équipes de développement - Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services - Rédaction des documents d'architecture et d'intégration générale et détaillée - Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition - Contribution à l'évaluation budgétaire des solutions mises en œuvre - Support N3 des équipes d'exploitation Démarrage souhaité : au plus tôt Durée de la mission : Longue Paris

Mission freelance
Chef de Projet Monétique H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Chef de Projet Monétique H/F à Paris, France. Les missions attendues par le Chef de Projet Monétique H/F : Nous recherchons un Chef de Projet Supervision Monétique pour piloter les principaux projets gérés par l'équipe et nous accompagner dans les évolutions prévues pour cette application au cours des prochaines années. Le Chef de Projet sera directement rattaché à l'équipe et sous la responsabilité du Product Owner Supervision. À ce jour, nous avons plusieurs échéances importantes à gérer : Les travaux de migration de la supervision vers une nouvelle solution technique. L'arrimage au nouveau processeur monétique Contexte de la mission : Au sein de la division Tech & Data Monétique, l'équipe produit Supervision est responsable de la supervision fonctionnelle dans les domaines de la monétique et des flux de paiements. Objectifs de la mission : Gérer, en collaboration avec le PO Supervision, le suivi des projets de l'équipe. Rédiger les notes de cadrage, les spécifications générales et, le cas échéant, les spécifications détaillées. Coordonner les interventions des acteurs externes, y compris la production applicative et les systèmes d'information externes. Assurer le suivi budgétaire, préparer et animer les différents comités de pilotage internes. Animer les réunions et les groupes de travail, non seulement avec les métiers, mais aussi avec nos clients externes et les différents systèmes d'information

Mission freelance
DataOps Platform Engineer
Notre client recherche un DataOps expérimenté pour concevoir, déployer et maintenir l’infrastructure data sur AWS, automatiser les déploiements et garantir la performance, la sécurité et l’optimisation des flux de données. Ce rôle s’inscrit dans un programme stratégique de transformation data visant à déployer des architectures avancées pour supporter des cas d’usage variés tels que l’IA, la personnalisation de contenus et le partage de données partenaires. Environnement technique : Cloud & Infrastructure : AWS (S3, Kinesis, DMS, ECS, Lambda, IAM, VPC, CloudWatch), Linux, Docker, shell scripting Outils & Orchestration : Terraform, GitLab CI/CD, Datadog, PagerDuty Big Data & Analytics : Snowflake, Spark, Dataiku, Python, Power BI Volumes traités : ingestion de +100 To/jour, architectures event-driven et streaming Missions Déployer et maintenir l’infrastructure data sur AWS via Terraform . Mettre en place et optimiser les pipelines GitLab CI/CD . Gérer la sécurité, le monitoring, la journalisation et l’alerting des composants cloud. Assurer le suivi de la consommation et de la performance des ressources AWS. Produire et maintenir la documentation technique et les référentiels. Mettre en place des pratiques FinOps pour optimiser les coûts cloud. Contribuer à la convergence des données et au bon fonctionnement des plateformes data.

Mission freelance
Directeur de projet _Data Finances & Risques
Au sein de l'équipe Finances, Risques et Recouvrement , et plus précisément Comptabilité et États Réglementaires est responsable : de la collecte de la comptabilité mensuelle, de la production d’indicateurs comptables/finance/risques, de la gestion des pistes d’audit, et de la production des états et flux réglementaires. Dans ce cadre, le Directeur de projets accompagnera la transformation du SI Finance & Risques , où la DATA est au cœur des enjeux. Piloter les projets de bout en bout : cadrage, recueil des besoins, suivi, mise en production et déploiement. Être l’interlocuteur principal des chefs de projet métier et des équipes associées. Coordonner l’ensemble des acteurs internes et externes (équipes SNI, éditeurs, fonctions support). Animer les comités projets et assurer le suivi budgétaire. Produire et garantir les livrables : dossiers de cadrage, plan de déploiement, dossiers sécurité, bilans projets, reporting, etc
Mission freelance
Ingénieur Openstack
Bonjour, Je suis à la recherche d’un Ingénieur Openstack : Tâches : Ø Build de nouvelles offres d’infrastructure pour les projets Data et Cloud Privé Ø Assurer le maintien en conditions opérationnelles (MCO) des plateformes existantes Ø Réaliser le capacity planning et anticiper les besoins d’évolution Ø Fournir un support technique aux consommateurs internes Ø Participer aux astreintes 24/7 pour garantir la continuité de service Ø Contribuer à l’industrialisation des déploiements via GitOps et Ansible Ø Surveiller et analyser les performances via les outils de monitoring (ELK, Grafana, Sensu)

Offre d'emploi
Business Analyst / Reporting règlementaire (H/F)
Contexte de la mission Au sein d’une équipe transverse et globale (Run, Change, Data Quality), vous interviendrez sur le périmètre Change . La mission couvre l’ensemble des classes d’actifs (actions, obligations, taux, FX…) et un contexte cross-réglementaire (Europe, US, Asie, UK). Vos principales responsabilités Vous serez impliqué sur trois volets majeurs : 1. Remédiation réglementaire Analyser et résoudre les anomalies liées aux reportings réglementaires (EMIR, MIFID, FATCA, etc.). Investiguer les rejets régulateurs et anomalies business via la chaîne provider. Proposer et mettre en œuvre des plans d’action en lien avec les recommandations des régulateurs (AMF, etc.). Assurer un rôle de coordination avec les équipes IT et métiers. 2. Nouveaux produits Accompagner le business dans le lancement de nouveaux produits. Identifier et anticiper les impacts sur la chaîne existante et les process de reporting. 3. Migration et évolution des systèmes Conduire l’analyse d’impact des projets de migration (notamment sur les systèmes de booking Front). Contribuer à l’uniformisation du booking des trades et à la mise en place de nouveaux identifiants pour répondre aux obligations réglementaires. Garantir la qualité des données et éviter les régressions lors des évolutions. Profil recherché Expérience confirmée en tant que Business Analyst en conformité réglementaire et activités de marché . Bonne maîtrise des réglementations financières (EMIR, MIFID, Dodd-Frank, etc.). Compétences en analyse de transactions et investigation . Bonne compréhension des chaînes de booking Front-to-Back. Connaissances SQL appréciées pour l’analyse de données. Excellentes capacités de coordination entre IT et métiers. Très bon niveau d'anglais Autres informations : Contrat CDI Poste basé en IDF, à Saint-Quentin-en-Yvelines (2 à 3 jours de présence sur site par semaine) Mission longue (1 an renouvelable) Poste à pourvoir ASAP

Mission freelance
Formation Pulsar & Kubernetes
Contexte client Notre client, une scale-up SaaS spécialisée dans la data marketing (CDP – Customer Data Platform), traite plus d'1 milliard d’événements par jour pour des clients grands comptes. Dans le cadre d’un projet de densification de son infrastructure, il a migré vers Kubernetes et Apache Pulsar (34 000 topics) pour remplacer Kafka. Objectif de la mission Mener un audit technique et animer des ateliers pratiques afin de : Valider les choix d’architecture Kubernetes/Pulsar Anticiper les risques liés à la volumétrie (scaling, mémoire, monitoring) Partager les bonnes pratiques de mise en production Attente forte sur les aspects concrets : pas de théorie, 80 % d’ateliers, 20 % de restitution

Offre d'emploi
Consultant Microsoft 365 / Exchange / Entra ID / Copilot
Missions principales : Conseil et migration Exchange Online hybride (Exchange 2016/2019) Implémentation Entra ID Governance et authentification forte FIDO2 Déploiement et adoption de Microsoft Copilot (Security & Standard) Industrialisation de GitHub Copilot et contribution à la revue Zero Trust Architecture Mise en place d’un modèle d’hybridation Cloud RAMP et industrialisation DLP (Data Loss Prevention) Onboarding et intégration de 5 entités dans le tenant principal Microsoft 365 Environnement technique : Exchange Online, Azure AD, Microsoft 365 E5, Intune, GitHub, PowerShell

Offre d'emploi
Business Analyst Digital Marketing (FH)
Contexte Client Notre client, acteur de référence du secteur assurantiel et membre d’un grand groupe mutualiste, protège plusieurs millions d’adhérents, majoritairement issus de la fonction publique. Son activité couvre la santé, la prévoyance, la prévention et le bien-être, avec un fort engagement autour de valeurs mutualistes. Dans le cadre d’une réflexion stratégique sur l’amélioration de l’expérience adhérent, la direction marketing souhaite structurer une cartographie complète des parcours adhérents afin de renforcer la satisfaction et l’engagement. Mission Rattaché(e) à la Responsable Marketing Adhérents, vous interviendrez en tant que Business Analyst spécialisé(e) en parcours et marketing digital pour structurer, analyser et formaliser les parcours clients clés. Vos responsabilités : Concevoir la cartographie des parcours adhérents : identification des points de contact, des canaux, des segments, formalisation des parcours types. Réaliser une analyse des irritants et des leviers de satisfaction à chaque étape du parcours. Mener des benchmarks sur les bonnes pratiques sectorielles (mutuelles, assurances, banques). Définir les KPI de pilotage (NPS, churn, taux d’engagement, effort score). Produire des livrables visuels clairs : schémas, matrices, cartographies. Travailler en transverse avec les équipes data, CRM, marketing, digital et réseau commercial. Accompagner le sponsor métier dans la mise en œuvre progressive des cas d’usage prioritaires.
Offre d'emploi
Ingénieur Cloud Azure
En tant qu'Ingénieur devOps, votre mission principale sera de participer au déploiement des projets data. La plate-forme utilisée est le Cloud Microsoft Azure. Vous êtes polyvalent et savez communiquer avec les différentes équipes. Afin d'assurer un niveau de sécurité conformes aux exigences du groupement sur les applications du Datalab, vous savez organiser des ateliers, suivre et rendre compte de l'avancement des sujets de sécurisation liés aux résultats d'audit, et apporter des solutions ou des pistes de réflexion en accords avec votre expertise de sécurité de la plateforme cloud Azure, notamment sur la mise en place d'applications Web et d'API. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Le contexte vous plaît ? Découvrez votre quotidien au sein de votre future équipe. Vos missions - Construire des infrastructures Cloud Public (principalement sur Azure) - Industrialiser les architectures cibles et configurer les équipements (CI / CD) - Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures. - Participer aux phases de validation technique lors des mises en production ou des évolutions. - Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation La connaissance de ces langages de programmation serait un plus : Spark et Scala.

Offre d'emploi
Développeur BI Senior (MSBI/GCP)
Contexte: Nous recherchons un Data Analyst / Développeur BI Senior afin de renforcer l’équipe existante. Le profil attendu doit avoir une expertise confirmée dans les environnements GCP et Power BI Online, avec une forte capacité à produire des développements BI robustes, scalables et maintenables. Missions principales: - Réaliser les reportings et tableaux de bord. - Assurer la maîtrise et la modélisation des données. - Concevoir, développer et maintenir des solutions BI performantes, optimisées et réutilisables. - Réaliser des tests fonctionnels et des recettes métiers. - Garantir l’application des bonnes pratiques de développement BI. - Produire la documentation technico-fonctionnelle en fin de sprint. - Conseiller et accompagner les équipes métiers (devoir de conseil). - Collaborer étroitement avec le Product Owner et l’équipe de développement. - Concevoir des maquettes en lien avec le Product Owner. - Participer à l’assistance utilisateurs (formation, transmission de connaissances, support niveau 3). - Débloquer et accompagner les autres développeurs si nécessaire. Environnement technique & compétences attendues Environnement GCP (Google Cloud Platform) : - BigQuery - PySpark - Dataflow - Airflow / DAG - Cloud Storage - Administration de plateforme (IAM, gestion des droits, monitoring, etc.) BI & Data Visualisation : - Power BI Desktop & Online - Modélisation BI - DevOps / CI/CD - Bonnes pratiques BI (scalabilité, performance, maintenabilité). Profil recherché Expérience : minimum 7 ans dans le développement BI et l’exploitation de données. Compétences techniques : maîtrise confirmée de GCP et Power BI Online, avec une bonne pratique des outils de traitement et d’orchestration des données (BigQuery, PySpark, Airflow, Dataflow).

Mission freelance
Ingénieur Intégration de données
Vous interviendrez au sein de notre équipe en tant qu'ingénieur intégrateur de données autour des solutions modernes. Vos missions consisteront à contribuer à/au (x): Mise en place d'un DATA HUB ainsi qu'au développement, Mise en place des intégrations de données, Assurer le maintien des usecases existants de la Data Plateform: Ingestions, transformation, exposition, Assurer la migration vers le Data Hub, Apporter une expertise et un support technique pour définir et développer les intégrations de données des applications, Pour mener à bien ce projet, vous devrez justifier de: Expertise technique en matière d'intégration de données autour de solutions modernes, Avoir déjà travaillé sur des projets de mise en place de DATA HUB, Etre en capacité de s'appuyer sur le travail fourni par les : data architectes, des centres d’expertise Kafka et API Capacité à offrir des solutions adéquates sur les environnements Cloud GCP. Contexte International: ANGLAIS Lu parlé et écrit, Bonne capacité relationnelle et rédactionnelle Compétences techniques obligatoires : Kafka (KSQLDB, Kafka Stream, Flink) et GCP

Mission freelance
Développeur, Chef de projet domaine Réseau - Telecom
Objectif :Déploiement d’un logiciel d’inventaire réseau mobile et fixe Nous recherchons un Chef de Projet Technique expérimenté pour piloter la réalisation technique du projet. Gestion des spécifications et coordination des équipes techniques. Une bonne connaissance du réseau Telecom Mobile et Fixe est indispensable. Objectifs et livrables - Définir et rédiger les spécifications fonctionnelles et techniques du logiciel d’inventaire réseau, en collaboration avec les parties prenantes. - Garantir la cohérence entre les besoins métiers du client et les solutions techniques proposées. - Superviser la conception, le développement, et les tests du logiciel. - Animer et coordonner une équipe pluridisciplinaire (développeurs, architectes, testeurs, etc.). - Assurer le suivi des livrables, des délais. - Identifier et résoudre les blocages techniques ou organisationnels. - Être l’interlocuteur privilégié du client pour les aspects techniques. - Organiser et animer les réunions de suivi. - Garantir la satisfaction client et la qualité des livrables. Vous avez minimum 5 ans d’expérience en gestion de projets techniques, idéalement dans le secteur des télécoms ou des réseaux. Une expérience avérée dans la rédaction de spécifications techniques et la gestion de logiciels d’inventaire ou de supervision réseau. Compétences techniques : - Expérience dans la gestion de projets logiciels complexes, idéalement dans le secteur Télécom - Connaissance des outils de gestion de projet (Jira, Confluence, etc.). - Expérience avec des bases de données (SQL, NoSQL) et des APIs. - Connaissance du logiciel d’inventaire réseaux NI2 ou d’un logiciel similaire de gestion d’inventaire réseaux Compétences : data migration Confirmé inventaire du réseau Confirmé XML Confirmé Front End / Back End Confirmé JAVA Confirmé API Confirmé
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres