Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.
Mission freelance
Machine Learning Engineer Lead Expert
Métier : Data Management, Machine Learning Engineer Spécialités technologiques : Cloud, Deep Learning, Machine Learning, Big Data, Simulation Type de facturation : Assistance Technique (facturation avec un taux journalier) Compétences : Technologies et Outils : GIT, CI/CD, Pytorch, Python (5 ans), Xarray, AWS (5 ans), Docker Soft skills : Bonne pédagogie pour accompagner/coach l’équipe Secteur d'activité : Assurance Description de la prestation : Projet dans le secteur de l’assurance pour un Machine Learning Engineer Lead Expert spécialisé en recherche appliquée sur les événements climatiques extrêmes utilisant des modèles d’IA. Travail sur des simulations météo pour identifier les risques de catastrophes et développer des modèles de Machine Learning avec gestion de big data et code Python. Responsabilités principales : Fournir et gérer du code et des données de qualité pour l’équipe R&D. Refactoriser, structurer et documenter la bibliothèque Python pour les simulations, inférence et analyse. Développer des pipelines robustes pour la simulation, la détection d’événements extrêmes, l’entraînement et l’évaluation des modèles, notamment sur GPU. Appliquer les meilleures pratiques de développement logiciel scientifique : tests, CI/CD, conception modulaire, reproductibilité. Optimiser l’utilisation de serveurs multi-GPU pour des entraînements IA à grande échelle. Former et accompagner l’équipe sur les bonnes pratiques de développement scientifique et l’utilisation des GPU.

Mission freelance
PRODUCT OWNER DATA BI (Pilotage opérationnel & Vision de transformation BI)
CONTEXTE Dans le cadre de la transformation data de l’entreprise, l’équipe BI & Analytics est en cours de réflexion sur l’adaptation et la modernisation de son offre de service BI avec l’adoption potentielle de nouvelles solutions d’ici à fin d’année 2025. Actuellement, les outils sont SAS Guide, SAS VIYA, BO et Qlik sense. Dans sa transformation, l’entreprise a fait le choix d’un data hub GCP. Recherche Product Owner BI (Pilotage opérationnel & Vision de transformation BI) MISSION Dans le cadre d’un remplacement de 6 mois, nous recherchons un Product owner BI expérimenté capable d’assurer le pilotage produit en garantissant la livraison continue des cas d’usage fonctionnels et poursuivant la transformation des outils et usages BI (vision cible, montée en compétences, expérimentation d’outils). L’équipe se compose de 3 personnes au support outils BI, 3 Tech Leads, 3 Data Analystes et 1 Responsable d’équipe aussi SM. La mission reposera sur le : • Pilotage produit des besoins BI (backlog, cas d’usage, priorisation, validation produit) • Vision stratégique BI (choix d’outils BI, plan de transformation, montée en compétences) Périmètre de la mission 1. Pilotage produit & backlog BI • Recueillir, analyser et formaliser les besoins métier en lien avec les directions utilisatrices • Prioriser les cas d’usage BI selon leur valeur, urgence et faisabilité • Rédiger et maintenir un backlog BI clair et structuré (user stories, critères d’acceptation, jeux de test) • Suivre l’avancement des développements et valider les livrables avec les utilisateurs et BL 2. Animation agile & coordination fonctionnelld • Préparer et co-animer les rituels agiles avec le Scrum Master (affinements, plannings, revues) • Travailler au quotidien avec les développeurs, Tech Leads et Data Analystes • Porter la voix du métier et des business line au sein de l’équipe 3. Qualité fonctionnelle et validation métier • Garantir la cohérence et la qualité des tableaux de bord, rapports et datamarts livrés • Valider les livrables BI avec les utilisateurs finaux • Documenter les solutions de manière claire et accessible 4. Vision stratégique & transformation BI • Apporter son expérience aux équipes data et à la hiérarchie sur une vision stratégique et transformation de la BI • Identifier les cas d’usage pertinents pour tester de nouveaux outils BI en coordination avec les métiers et Business Line • Piloter les POCs : cadrage, expérimentation, retour d’expérience • Construire un plan de montée en compétences pour l’équipe (formations, coaching, accompagnement) • Contribuer à la stratégie de gouvernance et de self-service BI 5. Interface métier & conduite du changement • Animer les ateliers de cadrage fonctionnel avec les métiers • Présenter les livrables de façon claire, orientée valeur • Être ambassadeur de la transformation BI auprès des directions utilisatrices • Suivre les retours utilisateurs et les indicateurs d’adoption

Offre d'emploi
Ingénieur(e) Cloud DEVOPS
Cherchons un profil confirmé (minimum 5 ans d'expérience) pour intégrer l'équipe BI et Data de notre client en tant qu'Ingénieur(e) DEVOPS afin de participer au déploiement des projets data COMPETENCES REQUISES - pré-requises - BigData Az DataLake, Az EventHub, Databricks, A - Confirmé - Impératif - Infrastructure as a code (ARM, YAML) - Intégration/déploiement continu (Git, Az DevOps) La plate-forme utilisée aujourd'hui est le Cloud Microsoft Azure. Vous êtes polyvalent et savez communiquer avec les différentes équipes. Afin d'assurer un niveau de sécurité conformes aux exigences du groupement sur les applications du Datalab, vous savez organiser des ateliers, suivre et rendre compte de l'avancement des sujets de sécurisation liés aux résultats d'audit, et apporter des solutions ou des pistes de réflexion en accords avec votre expertise de sécurité de la plateforme cloud Azure, notamment sur la mise en place d'applications Web et d'API. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Vos missions -Construire des infrastructures Cloud Public (principalement sur Azure) -Industrialiser les architectures cibles et configurer les équipements (CI / CD) -Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures. -Participer aux phases de validation technique lors des mises en production ou des évolutions. -Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Vous devez disposer des connaissances sur les outils et méthodologies suivants : -Cloud Azure -Infrastructure as a code (ARM, YAML) -Intégration et déploiement continu (Git, Azure DevOps) -Services Big Data : Azure DataLake, Azure EventHub, Azure Databricks, Azure Data Factory, Power BI -Services Web : Azure FunctionApp, Azure WebApp -Micro-services/containers (AKS) -Base de données : SQL DB, CosmosDB La connaissance de ces langages de programmation serait un plus : Spark et Scala.

Offre d'emploi
Expert Openstack (H/F)
🎯 Objectif de la mission Rejoindre la Squad IAAS en charge du cloud privé du Groupe et contribuer à la gestion et à l’évolution de l’infrastructure OpenStack supportant les projets Data et Cloud Privé . Vous interviendrez principalement sur le Run (MCO, supervision, support utilisateurs), tout en participant ponctuellement au Build de nouvelles plateformes et à l’industrialisation des environnements. 📌 Vos responsabilités Assurer le maintien en conditions opérationnelles des infrastructures OpenStack et des services associés. Participer au Build de nouvelles offres et plateformes (Cloud privé et Data). Gérer les capacités et contribuer au capacity planning . Fournir un support technique aux équipes consommatrices et projets internes. Automatiser et industrialiser les opérations via GitOps et Ansible. Mettre en place et exploiter la supervision (ELK, Grafana, Sensu). Participer aux astreintes 24/7 pour garantir la continuité de service.

Mission freelance
Consultant BI
Nous recherchons actuellement un Consultant BI pour accompagner les équipes métiers et IT dans des projets de valorisation et de mise à disposition de la donnée, de la collecte jusqu’à la restitution sous forme de tableaux de bord et de rapports décisionnels Identifier et comprendre les besoins métiers, assurer le dialogue avec les utilisateurs pour traduire leurs attentes en solutions BI. Vérifier et garantir la bonne alimentation des données dans les systèmes décisionnels, en collaboration avec les équipes en charge des systèmes sources. Concevoir et modéliser les solutions adaptées, en tenant compte de l’existant, des normes de développement et des bonnes pratiques BI. Développer les flux ETL avec SSIS et Oracle Data Integration , modéliser les données et produire des restitutions avec SSRS et Power BI . Entamer une démarche d’optimisation et de rationalisation des indicateurs et rapports existants (nettoyage des doublons, suppression des obsolètes, harmonisation). Réaliser la mise en œuvre technique (développements, tests unitaires) et assister les métiers lors des phases de recette

Offre d'emploi
Architecte Cloud GCP
Missions principales Concevoir et déployer la Landing Zone GCP en respectant les bonnes pratiques Google Cloud et les standards de sécurité. Définir et implémenter l’architecture cible : Organisation & Gouvernance : hiérarchie des projets, IAM, gestion des rôles et permissions. Sécurité : politiques de sécurité, gestion des identités, conformité (CIS, ISO, RGPD). Réseaux : VPC, interconnexions hybrides (VPN, Interconnect), firewall, segmentation. Observabilité : logging, monitoring, alerting (Cloud Logging, Cloud Monitoring). FinOps : mise en place des bonnes pratiques de suivi et d’optimisation des coûts. Automatisation & IaC : Terraform, GitOps, CI/CD pour la gestion des ressources. Assurer la mise en place des services clés : compute, stockage, bases de données, data/AI. Travailler en collaboration avec les équipes Sécurité, Réseau, DevOps et Data pour aligner les besoins business et techniques. Accompagner et former les équipes internes dans l’adoption de GCP. Être force de proposition sur les choix technologiques et les évolutions de la plateforme.

Mission freelance
Expert Alteryx
Mission principale Concevoir, optimiser et maintenir des workflows complexes dans Alteryx afin de répondre aux besoins de transformation, d’automatisation et de fiabilisation des données au sein des équipes métiers et IT. L’expert Alteryx sera également chargé d’accompagner les utilisateurs dans l’adoption de la plateforme et la mise en place des bonnes pratiques. Responsabilités Analyser les besoins métiers et traduire les exigences en solutions dans Alteryx. Concevoir, développer et maintenir des workflows et macros complexes (préparation, transformation et automatisation des données). Optimiser la performance et la robustesse des processus existants. Mettre en place des standards et bonnes pratiques pour l’utilisation d’Alteryx au sein des équipes. Former et accompagner les utilisateurs (analystes, risk managers, contrôle de gestion, etc.). Participer à l’intégration d’Alteryx avec d’autres systèmes (bases de données, BI, cloud). Assurer la documentation et la traçabilité des workflows. Contribuer à la veille technologique autour des outils d’automatisation et de data preparation. Compétences techniques Maîtrise approfondie de Alteryx Designer et Alteryx Server . Excellentes connaissances en manipulation et modélisation de données. Bonne maîtrise du SQL (optimisation de requêtes, jointures complexes). Connaissance d’outils complémentaires : Tableau, Power BI, Python ou R (serait un plus). Compréhension des architectures data (ETL, API, entrepôts de données). Connaissance des environnements cloud (Azure, AWS ou GCP) appréciée. Compétences fonctionnelles Compréhension des activités et produits des marchés financiers (actions, taux, dérivés, change, etc.). Sensibilité aux problématiques de conformité, risque et reporting réglementaire. Capacité à dialoguer avec des interlocuteurs variés : métiers, IT, data engineers, contrôleurs.

Mission freelance
Architecte technique / Expert réseau sécurité Datacenter
PROPULSE IT Recherche pour un de ses clients grands comptes : Un Architecte technique / Expert réseau sécurité Datacenter L'objectif est d'assister le client dans la conception, mise en œuvre et industrialisation Infra réseau et sécurité au sein des datacenters. L'intervenant doit obligatoirement avoir des compétences avancées en : ▪ Conception d'architecture réseau complexe en datacenter ▪ Déploiement de projet d'envergure en réseau et sécurité ▪ Etudes de faisabilité technique et financière (DAT et Chiffrage des propositions) ▪ Support N2 et N3 sur des infras critiques en production ▪ Maitrise technique avancée les technologies Cisco Nexus/VXLAN, firewall Fortinet, Checkpoint et Palo Alto, F5 LTM et APM, Proxy ZScaler Mission : Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité Mise en œuvre de projets d'infras réseau & sécurité Support technique sur les technologies réseau & sécurité

Mission freelance
CONSULTANT APACHE SUPERSET
Dans le cadre d'un renfort d'équipe chez l'un de nos clients : Nous recherchons un consultant Data / BI / Dataviz avec une expertise sur "Apache Superset" Missions principales : Configuration de dashboards superset : Création de dashboards dynamiques et interactifs pour répondre aux besoins spécifiques de l'entreprise Intégration de données provenant de différentes sources Mise en forme des données pour une visualisation claire et efficace Développement de plugins : Création de plugins personnalisés pour étendre les fonctionnalités de Superset Intégration de nouvelles sources de données Automatisation des tâches de reporting Informations complémentaires : Type de contrat : Prestation de service Début de mission : Immédiat Lieu de travail : Castres / Full Remote

Offre d'emploi
Ingénieur Réseau N3
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui, nous recherchons un(e) Ingénieur Réseau N3 en CDI pour intervenir sur une mission stratégique au sein de l’un de nos clients Grands Comptes. Ce que vous ferez : Vous interviendrez dans le cadre d’un projet de migration et de déploiement massif d’infrastructures réseau (LAN & Wi-Fi) pour le compte de notre client, acteur majeur des télécommunications. Avec plusieurs milliers de magasins à déployer, ce projet comporte plusieurs dizaines de milliers d’équipements réseau à migrer (Cisco, Aruba, Huawei). Vos principales missions : Conception et déploiement d’architectures réseau adaptées aux besoins . Support et troubleshooting avancé sur des incidents complexes (LAN, Switching, Wi-Fi). Participation à la gestion de crise et interactions directes avec les parties prenantes. Contribution au support hyper-care post-déploiement (N2/N3). Qualification de nouveaux équipements et rédaction de documentation technique. Participation active aux projets de modernisation, segmentation et automatisation réseau. Précision : disponibilité pour des interventions en horaires décalés (minimum 1 nuit par semaine et/ou vérification de sites très tôt le matin suivant les déploiements). Votre positionnement vous permettra de mettre en œuvre une expertise technique de haut niveau et de jouer un rôle clé dans la réussite d’un projet national de transformation réseau.
Offre d'emploi
Développeur Full stack - Python (Django) / React
Métiers: Développeur Fonctions Etudes & Développement Spécialités technologiques Type de facturation Assistance Technique (Facturation avec un taux journalier) Compétences Technologies et Outils Python; TypeScript; React; Django; GCP; Kubernetes; AWS; SQL; Azure Méthodes / Normes Agile Secteurs d'activités Services Informatiques Description et livrables de la prestation UN TEST TECHNQIUE ET PREVU PAR LE CLIENT AVANT LES ENTERTIENS. SEUL LES CVs AVEC UNE EXPERTISES DJANGO ET REACT SERONT ETUDIES. L'ANGLAIS ORAL EST UN PREREQUIS, LE BUDGET POUR CE BESOIN EST ENTRE 400€ et 450€. Pour l'un de nos clients dans le secteur bancaire, nous recherchons un développeur full stack pour intégrer l'équipe de développement de leur plateforme maison. Cette plateforme, une All Data Platform, a été conçue pour répondre aux enjeux de la data de demain dans le domaine de l’Asset Management. Basée sur les principes du Data Mesh, elle facilite l’ingestion et l’exploitation des données tout en offrant aux Citizen Developers un écosystème sécurisé, modulable et évolutif. Missions principales En tant que membre du lab, le/la prestataire sera responsable de : - Répondre à diverses demandes de POC (Proof of Concept) et de MVP (Minimum Viable Product) sur des sujets variés, toujours en lien avec la chaîne de valeur, - Participer à des missions annexes, courtes, pour réaliser des prototypes ou fournir un accompagnement technique à la cellule produit et aux Data Scientists, - Contribuer à l'amélioration continue des produits et services proposés par l'entreprise, - La prestation nécessitera du développement de prototypes et de l’accompagnement technique, - La prestation réalisera les missions en équipe et nécessitera une communication efficace et adaptée aux différents acteurs du projet, - Création d’applications cloud native sur des systèmes distribué pour les outils dédié à l’IA générative, - Construction d’outils pour aider à automatiser plusieurs processus métier, - Participation au support et à l’onboarding des business case sur la plateforme, - Création de services d’intégration de données, - Prise en charge des outils internes basés sur des systèmes distribués cloud natifs et proposition d’évolution, - Intégrations de solutions IA aux outils existants, - Participation à l’analyse des données et à la rédaction des spécifications fonctionnelles et techniques, - Intervention dans le projet (méthodologie AGILE), - Gestion des incidents post-production et correction du code, - Enrichissement de l’automatisation des tests, - Respect des délais impartis. - ANGLAIS ORAL NECESSAIRE

Mission freelance
Dynasys (QAD DSCP) Application Specialist (h/f)
Vous êtes un spécialiste expérimenté des applications Dynasys (QAD DSCP) avec une solide expérience dans la gestion des données et le support système? emagine a une opportunité pour vous de soutenir le bon fonctionnement et l'amélioration continue de la plateforme logicielle Dynasys au sein d'une équipe internationale. Are you an experienced Dynasys (QAD DSCP) Application Specialist with a strong background in data management and system support? emagine has an opportunity for you to support the smooth operation and continuous improvement of the Dynasys software platform with a global team. Key Tasks & Deliverables: User Access Management (10%) : Handle user access requests and permissions, ensuring timely and appropriate access. Interface Issue Resolution (20%) : Collaborate with SAP teams to troubleshoot and resolve interfacing issues. Scope Adjustments (30%) : Implement scope changes to reflect organizational shifts and maintain accurate data visibility. Mass Data Uploads (40%) : Execute large-scale data uploads and updates to support forecasting, budgeting, and data clean-up initiatives. You’ll play a pivotal role in maintaining and enhancing a critical business platform, working remotely with collaborative and enabling teams. Your contributions will directly support business continuity and decision-making processes. Key Skills & Experience: Proven experience with Dynasys (QAD DSCP). Strong attention to detail and troubleshooting capabilities. Effective communication with both technical and business stakeholders. Autonomous and comfortable working in remote environments. Nice to Have: Experience with SAP systems. Background in business process management. Familiarity with forecasting and budgeting workflows. Remote role for consultants based in Europe, ideally France. Teams are collaborative and enabling, with a need for autonomous/self-starting candidates. Apply with your latest CV or reach out to Brendan to find out more.
Mission freelance
CP/BA DATA-BI
Bonjour, Pour le compte de l'un de mes clients situé sur Paris, je suis à la recherche d'un chef de Projet / Business Analyst Data BI. Contexte du poste : Dans le cadre du renforcement du dispositif projet Dataplatform, nous recherchons un(e) Chef de Projet / Business Analyst Data pour piloter les activités de delivery, structurer les besoins métiers et accompagner les équipes techniques dans la mise en œuvre de la plateforme data. Vos missions : Pilotage projet : Suivi du planning, des charges, des livrables et des risques Animation des comités projet et reporting auprès du management Coordination des équipes internes et partenaires Business Analysis : Recueil et formalisation des besoins métiers (ateliers, interviews) Rédaction des spécifications fonctionnelles et des cas d’usage Élaboration du dictionnaire de données et des modèles conceptuels Delivery & Qualité : Suivi des développements et des tests Définition de la stratégie de recette et accompagnement des utilisateurs Garantie de la qualité des livrables et de la satisfaction client
Mission freelance
Machine Learning Engineer Lead Expert
Métiers et Fonctions : Data Management Machine Learning Engineer Spécialités technologiques : Cloud Big Data Machine Learning Simulation Deep Learning Type de facturation : Assistance Technique (facturation au taux journalier) Compétences clés : Technologies et outils : AWS (5 ans), Docker, Pytorch, GIT, CI/CD, Xarray, Python (5 ans) Soft skills : Bonne pédagogie pour accompagner/coach l’équipe Langues : Anglais (courant / professionnel) Secteur d'activité : Assurance Description et livrables de la prestation : Projet dans le secteur de l'assurance visant à développer des modèles d'IA pour analyser les événements climatiques extrêmes, notamment par la simulation météo pour évaluer les risques de catastrophes. La mission implique : Produire, gérer et optimiser le code et les données pour l'équipe R&D Refactoriser, structurer et documenter une bibliothèque Python existante pour simulations, inférence et analyse Développer des pipelines pour la simulation, la détection d’événements extrêmes, l’entraînement et l’évaluation des modèles, y compris sur GPU Appliquer les bonnes pratiques de développement logiciel scientifique (tests, CI/CD, conception modulaire, reproductibilité) Optimiser l’utilisation de serveurs multi-GPU pour les simulations et entraînements IA à grande échelle Former et accompagner l’équipe sur le développement scientifique et l’usage des GPU

Mission freelance
Expert en Conteneurisation (full remote) Anglais mandatory
Compétences techniques et expérience Expérience avérée dans des projets d’architecture de données à grande échelle (national ou multi-sources), de préférence impliquant des données sensibles ou critiques (sécurité, souveraineté des données). Maîtrise approfondie des concepts de conteneurisation et d’orchestration , incluant : Conteneurisation des données et des charges de travail (Docker, Kubernetes ou équivalents). Gestion du cycle de vie des données en environnement conteneurisé (stockage, migration, sauvegarde, reprise après sinistre). Connaissance solide des architectures de données (data lakes, entrepôts de données nouvelle génération), avec une compréhension des enjeux de gouvernance, métadonnées, catalogage et traçabilité . Compétences en modélisation des coûts et estimation financière IT , incluant : Capex/Opex, coût total de possession (TCO), scénarios de migration et de montée en charge. Modèles de coûts pour les infrastructures cloud et/ou hybrides sur site. Connaissance des exigences de sécurité et de conformité , notamment : Protection des données, chiffrement, gestion des identités et des accès (IAM), segmentation, auditabilité et traçabilité. Maîtrise des cadres réglementaires pertinents (RGPD, normes nationales de sécurité des données, ISO/IEC 27001, etc.). Expérience en gouvernance des données et gestion de données sensibles : Politiques de conservation, classification des données, gestion des métadonnées et cadres de gouvernance. Expertise en migration et transformation de données , couvrant : Planification, nettoyage, transformation, validation et post-validation des migrations. Capacité à développer et justifier des modèles financiers et des BOQ (Bill of Quantities) pour des projets IT/data. Expérience avérée en dimensionnement et chiffrage de solutions à mettre en œuvre. Qualifications professionnelles et certifications Diplôme en Informatique, Ingénierie, Data Science, Géomatique ou dans un domaine connexe (un Master constitue un atout). Certifications pertinentes (liste non exhaustive) : Conteneurisation / Orchestration : Certified Kubernetes Administrator (CKA) ou équivalent. Cloud : AWS Certified Solutions Architect, Azure Solutions Architect, Google Professional Cloud Architect (selon l’environnement cible). Sécurité : CISSP, CISM ou certifications équivalentes. Une certification en gestion de projet (PRINCE2, PMP ou équivalent) est un plus.

Mission freelance
Paramétreur Activ'Infinite – Santé- Cotisations
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Expertise Spécialités technologiques : Data Visualisation, Restitution, Gestion des contrats Reporting, Progiciel Le projet vise à mettre en place les solutions de gestion des contrats collectifs Santé dans le cadre de la mise en œuvre de la PSC (Protection Sociale Complémentaires de la fonction publique) et permettre de répondre aux appels d'offres des ministères et autres collectivités. Les livrables sont : Documents de conception de paramétrage Spécifications fonctionnelles Plan de tests - cahiers de recette - bilan des tests
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres