Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Saint-Denis

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 17 résultats.
Freelance

Mission freelance
249593/Product Owner DATA SUR DES DONNEES RH - Expertise dans la création de Datalake RH

WorldWide People
Publiée le
Data Lake

9 mois
Saint-Denis, Île-de-France
PO DATA SUR DES DONNEES RH - Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP • Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Sénior PRO_OWN-3 Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP • Compétences demandées Compétences Niveau de compétence donnée rh : GA / PAIE / GT / FORMATION Confirmé standard adp Confirmé Power BI Confirmé datalake rh Confirmé
CDI

Offre d'emploi
POT9085 - Un Agile Master Data Sur Plaine Saint Denis

Almatek
Publiée le
Méthode Agile

Saint-Denis, Île-de-France
Almatek recherche pour l'un de ses clients, Un Agile Master Data Sur Plaine Saint Denis. Contexte : Au sein de la direction des technologies, les équipes Data Services ont pour raison d’être de fournir une plateforme et des services data fiables, sécurisés et industrialisés, permettant aux équipes produit et métiers des différentes BU d’exploiter la donnée en toute autonomie. Elles agissent comme un enabler transverse, en séparant clairement les responsabilités (infrastructure, gouvernance, usages) et en mettant à disposition des données de qualité, accessibles et exploitables à l’échelle de l’entreprise. Par leur expertise, elles valorisent la donnée pour soutenir la prise de décision, le pilotage de la performance et l’innovation, au service des enjeux business et stratégiques Activités : Au sein des équipes Data Services, le consultant sera amené à avoir : Un rôle d’agile master au sein d’une équipe pluridisciplinaire œuvrant sur un produit Un rôle d’agile master à l’échelle du domaine Data Fabric ( 30 personnes), A animer les cérémonies et faciliter les ateliers collaboratifs A Mettre en place les artefacts (Indicateurs, Burndown, HealthCheck...), utiles, utilisés et utilisables au suivi de l’efficience du collectif et élaborer le plan d’amélioration continue Identifier les dysfonctionnements et points d’amélioration Analyser proactivement les obstacles, éléments bloquants, interférences extérieures, et de tout ce qui peut détourner le collectif de ses objectifs et le ralentir Alerter sur les éléments bloquants et obstacles qui ne peuvent être traités localement Compétences attendues : Capacité à analyser et à comprendre un système complexe (techniquement, fonctionnellement et organisationnellement). Capacité à résoudre des problématiques. Esprit d’analyse et de synthèse. Organisation. Rigueur. Bonne capacité à travailler en équipe.
Freelance

Mission freelance
Data Engineer

Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API

1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Freelance

Mission freelance
249595/DATA Q Ingenieur - Snowflake , Dataiku , 'ELT ou ETL, Python et SQL

WorldWide People
Publiée le
Snowflake

6 mois
Saint-Denis, Île-de-France
DATA Q Ingenieur - Snowflake Confirmed, Maitrise de Dataiku Confirmed, Familier avec le concept d'ELT ou ETL Expert, Modélisation de données Confirmed, Expertise SQL, Python Expert, Connaissance technique de l'environnement Data (architecture medaillon, principe des data mesh) Confirmed , Votre rôle axé Analytics Engineer sera de : - Transformer, modéliser et documenter les données brutes pour les rendre exploitables - Développer des modèles et produits de données axés conformité pour alimenter la base graphe en partant des données brutes des applications - Maintenir en condition opérationnel nos flux d'ingestion vers la base de données graphes - Améliorer des processus de traitement des données pour gagner en rapidité et en efficacité. - Créer et mettre à jour de la documentation pour aider à l’utilisation des produits de données. - Automatiser des tests de contrôle et surveillance de la qualité pour garantir l’intégrité des données traitées. - Produire des analyses à destination de nos métiers pour le calibrage de scénarios de fraude ou vigilance LCB-FT - Collaborer avec les différentes parties prenantes (notamment les Data Engineers et les métiers de la fraude et LCB-FT) pour enrichir les données de la base de données graphes en fonction de leur besoin - Collaborer avec l'équipe Data Plaform en mettre en production les différents produits de données"
Freelance
CDI

Offre d'emploi
Chef de Projet Data sénior décommissionnement et migration BO vers Power BI sur Saint Denis

EterniTech
Publiée le
Business Object
Microsoft Power BI
Microsoft SSIS

1 an
Saint-Denis, Île-de-France
Je cherche pour un de mes client un Chef de Projet Data sénior décommissionnement et migration BO vers Power BI sur Saint Denis Séniorité : 7 à 10 ans Démarrage : Asap Anglais correct (pro) Télétravail : 3j par semaine Localisation : Saint Denis Connaissance du monde Assurance/Assistance mandatory Résultats attendus de la mission À partir d’une liste prédéfinie d’environ 1 200 rapports Business Objects existants, l’objectif est de challenger les métiers propriétaires afin de : Décommissionner et arrêter un maximum de rapports BO non utilisés ou obsolètes. Orienter les métiers vers des rapports Power BI existants lorsque ceux-ci répondent déjà au besoin couvert par les rapports BO. En dernier recours, lorsque les deux points précédents ne sont pas applicables, migrer le nombre limité de rapports BO restants vers de nouveaux rapports Power BI. L’objectif principal est donc de réduire significativement le parc de rapports BO, de favoriser l’usage des rapports Power BI existants, et uniquement lorsque le besoin métier est avéré, de développer de nouveaux rapports Power BI en remplacement des rapports BO concernés. Formation requise De formation Bac + 5, École d'ingénieur ou cursus universitaire en informatique, statistique ou data/IA Compétence – Nice to have : Connaissance du monde de l’assurance/Assistance Qualités humaines : Être force de proposition et capacité de comprendre des problématiques techniques et construire des solutions S’intégrer dans une équipe existante Nouer une relation de confiance avec les équipes métiers Capacité à anticiper et intégrer les contraintes projet
Freelance

Mission freelance
[SCH] Analytics Engineer / Data Engineer Conformité – Lutte contre la fraude - 1413

ISUPPLIER
Publiée le

10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre de la plateforme SPIDER, dédiée à la lutte contre la fraude, le blanchiment et le financement du terrorisme, notre client recherche un Analytics Engineer / Data Engineer orienté conformité. Intégré à la squad compliance de solutions cognitives, le consultant interviendra sur une plateforme d’investigation s’appuyant sur des technologies graphes comme Neo4j et Linkurious, permettant de centraliser les données issues de multiples applications internes et d’offrir une vision 360° des personnes et de leurs interactions. La mission porte plus particulièrement sur le socle d’ingestion de données alimentant la base graphe, avec un fort enjeu de qualité, de modélisation, d’industrialisation et de collaboration avec les métiers fraude et LCB-FT. Missions : -Transformer, modéliser et documenter les données brutes pour les rendre exploitables -Développer des modèles et produits de données orientés conformité pour alimenter la base graphe -Maintenir en condition opérationnelle les flux d’ingestion vers la base de données graphe -Améliorer les processus de traitement des données afin de gagner en rapidité et efficacité -Créer et mettre à jour la documentation des produits de données -Automatiser les contrôles et tests de qualité pour garantir l’intégrité des données -Produire des analyses à destination des métiers pour le calibrage de scénarios de fraude et de vigilance LCB-FT -Collaborer avec les Data Engineers et les métiers de la fraude / conformité pour enrichir la base graphe -Participer à la mise en production des produits de données avec l’équipe Data Platform -Contribuer à la structuration des flux dans une logique ELT / ETL et architecture data moderne Profil attendu : -Expérience confirmée en Analytics Engineering / Data Engineering -Très bonne maîtrise de SQL et Python -Bonne connaissance des concepts ETL / ELT -Expérience en modélisation de données -Connaissance de Snowflake et Dataiku -Bonne compréhension des architectures data modernes (médaillon, data mesh) -Capacité à travailler sur des sujets de qualité, documentation et industrialisation -Aisance à collaborer avec des équipes techniques et métiers -Sensibilité aux enjeux de fraude, conformité et LCB-FT appréciée -Rigueur, autonomie et bon niveau d’analyse
Freelance

Mission freelance
[FBO] Product Owner Data sur des données RH - Saint Denis - 1419

ISUPPLIER
Publiée le

9 mois
300-430 €
Saint-Denis, Île-de-France
Contexte de la mission Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP •
CDI
Freelance

Offre d'emploi
Responsable technique

Signe +
Publiée le

24 mois
50k-55k €
358-550 €
Saint-Denis, Île-de-France
MISSION : EDF est le premier producteur et fournisseur d'électricité en France et en Europe. Le nucléaire représente 86,8 % de la production d'électricité en France. Pour que cette production demeure sûre et performante, il est vital que la maintenance du parc soit effectuée avec précision et minutie. Au sein de la DPN (Division Production Nucléaire), les agents du pôle « Méthodes de Maintenance et d'Exploitation » ont notamment en charge la valorisation des données liées à la maintenance du parc afin de piloter au plus près l'entretien et l'exploitation des infrastructures nucléaires, et le respect des processus établis. Dans ce contexte, Capgemini met l'expertise de ses Data Analysts à la disposition de la DPN pour accompagner ses agents dans la valorisation et l'exploitation de ses données. Objectif : Produire et automatiser les dashboards qui permettent et/ou améliorent la maintenance et l'exploitation du parc nucléaire 2J TT/semaine Compétences techniques requises : Microsoft Power Apps Microsoft Power Platform Dataverse Microsoft Power BI + Tableau
CDI

Offre d'emploi
Développeur/Développeuse Analyste Python - Référentiels Métier (H/F)

█ █ █ █ █ █ █
Publiée le
Python

44 500-59k €
Saint-Denis, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
EXPERT NEO4J - Administrateur DevOps Senior

TLTI Informatique
Publiée le
Neo4j
Python

1 an
100-550 €
Saint-Denis, Île-de-France
Projet : SPIDER – Plateforme de lutte contre la fraude et le blanchiment (LCB-FT) Contexte de la mission Dans le cadre de ses enjeux de conformité réglementaire et de lutte contre la fraude, le client développe SPIDER , une plateforme d’investigation basée sur des technologies de graphes. Cette solution permet de : Centraliser et connecter les données issues de multiples systèmes internes Offrir une vision 360° des clients et de leurs interactions Détecter des schémas complexes de fraude via des algorithmes de graphes Accélérer les investigations grâce à des visualisations avancées (Linkurious) Vous intégrerez la squad Compliance – Solutions Cognitives , en charge de cette plateforme stratégique. Vos missions principales En tant qu’ Expert Neo4j , vous interviendrez à la croisée des rôles de Data Engineer, Data Analyst et DBA : Administration & Performance Administrer la base de données Neo4j (hébergement IaaS) Optimiser les performances (requêtes Cypher, modélisation) Gérer les sauvegardes, la maintenance et les habilitations Diagnostiquer et résoudre les incidents Analyse & Conception Recueillir et analyser les besoins métiers autour de la donnée graphe Concevoir des modèles de données adaptés aux cas d’usage fraude / conformité Participer aux chiffrages et estimations des projets Delivery & Production Développer des requêtes et composants (Cypher, Python) Participer aux phases de tests et de validation Accompagner les mises en production Assurer la maintenance corrective et évolutive Outils d’investigation Administrer et configurer Linkurious Gérer les fonctionnalités d’investigation (case manager, visualisation) Environnement technique Base de données : Neo4j Langages : Cypher, Python Outils : Linkurious, GitLab CI/CD Scripting : Shell Complémentaires : Node.js, Angular Méthodologie : Agile (Scrum à l’échelle)
Freelance

Mission freelance
Développeur DevSecOps / Python (H/F) - 93

Mindquest
Publiée le
DevSecOps
Python

3 mois
290-400 €
Saint-Denis, Île-de-France
Contexte : Notre client recherche un Développeur DevSecOps et Python confirmé. L’intervenant travaillera sous la supervision du Tech Lead transverse et devra monter en compétences pour en devenir le backup opérationnel. Mission Les missions couvrent deux périmètres : DevSecOps : mise en place de pipelines CI/CD, conteneurisation, identification et résolution de failles de sécurité, monitoring des performances, automatisation des tâches de développement, test et déploiement. Python / Data : élaboration de reportings métiers, parsing de données, alimentation du Datastore DOAAT, réalisation d’IHM métier, MCO des utilitaires Python existants, support Tableau / Power BI, aide à la mise en place d’un modèle de prévision thermique.
Freelance
CDI
CDD

Offre d'emploi
Développer Back end Kotlin Confirmé (4/6 ans d'experiences)

ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Java
Kotlin

1 an
10k-57k €
100-500 €
Saint-Denis, Île-de-France
Rejoins un acteur majeur du numérique qui transforme la mobilité de demain Ici, on ne fait pas que développer du code — on conçoit des solutions digitales à fort impact, utilisées à grande échelle, pour simplifier les déplacements et améliorer l’expérience de millions d’utilisateurs. Le défi : faire parler la mobilité avec intelligence. Tu travailleras sur un chatbot conversationnel nouvelle génération qui accompagne les utilisateurs au quotidien : Informations temps réel (statuts, horaires, parcours…) Détails de voyage (quai, placement, desserte…) Services proposés Gestion des modifications et annulations Accessible via web et messageries instantanées, ce produit est un pilier de l’expérience utilisateur. Une stack technique moderne et ambitieuse Chatbot Open Source : framework conversationnel en Kotlin (TOCK) NLP & IA : services de machine learning managés Cloud & Data : AWS (S3, Sagemaker), MongoDB Infra : Kubernetes Front : React Tools : GitHub, GitLab CI, Sonar, Datadog Collaboration : Confluence, Jira, Teams, Miro Ton rôle : builder, améliorer, fiabiliser Intégré·e à une équipe agile, tu interviens sur tout le cycle de vie produit : Développement de nouvelles fonctionnalités (Kotlin) Mise en place de tests (unitaires, intégration, end-to-end) Code review & amélioration continue Monitoring, performance & stabilité en production Analyse d’anomalies & troubleshooting Conception technique & documentation Participation aux rituels agiles (daily, sprint, rétro…) Contribution à la qualité, sécurité et résilience
Freelance
CDI
CDD

Offre d'emploi
Développeur Backend Senior (H/F)

ASAP TECHNOLOGIES
Publiée le
Java
Kotlin
Kubernetes

3 ans
10k-60k €
100-550 €
Saint-Denis, Île-de-France
Dans le cadre du renforcement d’une équipe en charge d’un moteur d’itinéraires et d’orchestration de recherches , nous recherchons un développeur backend senior . Vous intégrerez une équipe agile d’une dizaine de personnes (PO, développeurs, testeur, Scrum Master, Ops), travaillant sur une plateforme de services dédiée à la distribution de solutions de mobilité . Ce périmètre fonctionnel couvre des sujets complexes tels que le calcul d’itinéraires et l’orchestration de recherches, dans un environnement à forte volumétrie et à forte criticité. Vos missions Participer activement à la vie de l’équipe dans un cadre agile Concevoir, développer et livrer des solutions robustes, performantes et sécurisées Traduire des besoins fonctionnels complexes en solutions techniques pertinentes Développer et faire évoluer les fonctionnalités backend Travailler en autonomie sur des sujets techniques variés Garantir la qualité et la stabilité en production (tests, monitoring, incidents) Contribuer aux pipelines CI/CD et aux déploiements Jouer un rôle de référent technico-fonctionnel au sein de l’équipe Collaborer avec les équipes produit, architecture et les équipes transverses Monter en compétence sur les enjeux métier liés à la mobilité et aux systèmes complexes Vos livrables Développements backend robustes, testés et documentés Contributions à l’optimisation et à l’automatisation des pipelines CI/CD Documentation technique et fonctionnelle Amélioration continue de la qualité logicielle (tests, performances, monitoring) Support technique et accompagnement des membres de l’équipe Participation à l’évolution fonctionnelle et technique du produit Environnement technique Langages & frameworks : Java 21 (expertise requise) Kotlin (apprécié) C++ (apprécié) Spring / Spring Boot Cloud & Data : AWS (Lambda, API Gateway, S3, DynamoDB) MongoDB, DynamoDB, S3 Redis Messaging : ActiveMQ AWS SQS / SNS Tests : JUnit, Mockito, Cucumber Wiremock, Postman Kotest, Mockk CI/CD & Infra : GitLab CI Gradle, Maven, Bash Terraform Kubernetes (avec évolution vers GitLab CI + ArgoCD + Helm) Monitoring : Datadog AWS CloudWatch
CDI
Freelance

Offre d'emploi
Développeur Fullstack Senior – Kotlin / React – La Plaine Saint-Denis

ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Dart (langage)
Kotlin

1 an
55k-60k €
550-600 €
Saint-Denis, Île-de-France
Dans le cadre du renforcement d’une équipe tech intervenant sur des sujets stratégiques autour de la data , du tracking digital et de la performance marketing , nous recherchons un Développeur Fullstack Senior pour rejoindre une équipe agile déjà composée de 3 développeurs. L’équipe intervient sur la mise en place et l’évolution du tracking des parcours digitaux , l’alimentation d’outils analytiques et marketing, ainsi que sur des sujets liés au consentement RGPD sur le site et l’application. Le besoin s’inscrit dans un contexte de changement d’outil d’attribution marketing , avec un fort enjeu de fiabilité de la donnée , de qualité des intégrations et de collaboration transverse avec les équipes Produit et Tech. Vos missions Faire évoluer le datalayer existant Assurer la transmission de la donnée via Tealium vers la solution d’attribution Concevoir et développer les évolutions back-end , front-end et contribuer à la CI/CD Mettre en place des tests d’intégration afin de garantir la qualité et la fiabilité des données Collaborer avec d’autres équipes techniques, notamment Produit Apporter votre expertise sur les sujets de tracking et de robustesse technique Échanger avec les équipes techniques du partenaire de la solution d’attribution Proposer des solutions pérennes pour fiabiliser les flux de données Participer aux cérémonies agiles et remonter les alertes si nécessaire Environnement technique Back-end : Kotlin Spring Boot AWS Front-end web : TypeScript React Mobile : Dart Flutter
Freelance

Mission freelance
[SCH] Administrateur Azure / Microsoft Fabric / Power BI - 1410

ISUPPLIER
Publiée le

10 mois
400-500 €
Saint-Denis, Île-de-France
Dans le cadre de la construction de la nouvelle BI d’entreprise, notre client recherche un Administrateur Azure / Microsoft Fabric afin de participer à la mise en place d’une nouvelle offre de Self-BI reposant sur Power BI, Microsoft Fabric et des Gateways On-Premises. Le consultant interviendra à la fois sur la co-construction de l’architecture avec les équipes internes et sur son implémentation, dans un environnement hybride mêlant cloud Azure et infrastructures on-premises. La mission nécessite une forte maîtrise des sujets d’administration, de sécurité, de DataOps et d’automatisation, ainsi qu’une bonne compréhension des enjeux de performance, de migration BI et de gouvernance. Missions : -Co-construire l’architecture BI cible avec les équipes internes -Assurer le build et l’administration de l’environnement Microsoft Fabric / Power BI / Azure -Configurer et administrer les capacités Fabric et les Workspaces -Gérer les sujets de tenant administration, sécurité, identités et service principals -Mettre en place et administrer les Gateways On-Premises -Gérer les Azure KeyVaults et les secrets techniques -Mettre en œuvre les pratiques DevOps / DataOps (CI/CD, automatisation, industrialisation) -Automatiser les tâches via API, PowerShell ou Python -Participer aux sujets de monitoring, performance, incidents et optimisation des coûts (FinOps) -Accompagner les problématiques de migration BI et d’évolution de la plateforme -Contribuer à l’industrialisation de la plateforme via Terraform et Azure DevOps -Collaborer avec les équipes techniques sur les sujets dbt, Airflow et intégration data Profil attendu : -Expertise confirmée sur Microsoft Fabric, Power BI et Azure -Expérience en design & build d’architectures data / BI -Bonne maîtrise des environnements hybrides cloud / on-premises -Compétences solides en administration, sécurité, identités et gouvernance -Expérience avec Azure DevOps, Terraform et les pratiques IaC -Bonne compréhension des enjeux DataOps / DevOps / CI-CD -Capacité à automatiser les tâches via PowerShell, Python ou API -Connaissance de dbt, Airflow et migration BI appréciée -Sensibilité aux problématiques de FinOps, monitoring et performance -Autonomie, rigueur et capacité à travailler en co-construction avec les équipes
Freelance

Mission freelance
249600/EXPERT NEO4J Python, Cypher - Saint Denis

WorldWide People
Publiée le
Neo4j

6 mois
Saint-Denis, Île-de-France
EXPERT NEO4J ( Certification Neo4j) Python, Cypher - Saint Denis Expérience significative sur un projet en entreprise sur une base de données graphe Certification Neo4j Modélisation de données graphes Gitlab Linkurious Shell" "Connaissances environnement Node JS, Angular Développement et gestion de CI/CD" "Connaissance du domaine de l'assurance et de ses enjeux réglementaires Principe de l'agilité à l'échelle : Scrum Soft skills : - Esprit analytique - Sens de la communication - Collaboratif - Autonome - Rigoureux" Une première expérience sur la partie LCB-FT de l'assurance (KYC, processus de déclaration, criblage et vigilance LCB-FT, fraude à l'assurance) "Vous rejoindrez la squad compliance de solutions cognitives. "Au sein de l'équipe vous serez l'expert de notre base de données graphes neo4j Votre rôle entre un data analyst et un administrateur de base de données sera de : - Administrer et optimiser les performances de la base, gérer les backups, les opérations de maintenance et les habilitations (bdd hébergé en IaaS), problème de QDD - Collecter les besoins relatifs à la base graphe et les analyser fonctionnellement - Fournir des chiffrages pour nos différents projets - Suivre les mises en production avec les équipes métiers - Gérer et administrer le serveur et les fonctionnalités Linkurious

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

17 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Saint-Denis, Île-de-France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous