Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Offre d'emploi
(H/F) Product Manager Data
Adsearch, cabinet de conseil en recrutement, vous propose un poste de Product Manager Data & IA chez un client final. Poste : Vous rejoignez la BU Transformation et Data composée de 15 profils cosmopolites (Chefs de projet, développeurs, Ingénieur Data…). En tant que Product Manager Data vous garantissez la valeur délivrée par les applicatifs Data & IA adressés aux utilisateurs internes et externes. Vous travaillez activement avec les équipes Data, DSI et métier pour concevoir et livrer des solutions à forte valeur ajoutée, tout en manageant équipe de 4 développeurs en environnement international (Anglais requis). Connaissance du domaine du transport et/ou logistique est un plus. Vos missions dans le détail : - porter la vision produit des applicatifs Data & IA et la décliner en roadmap - gérer le backlog produit suivant les besoins clients et métiers - rédiger les besoins métiers pour l’équipe de développement - animer les rituels Agile (sprint plannings, reviews, rétrospectives…) - interagir avec les différents acteurs (internes, clients, partenaire, équipe technique…) - manager l’équipe de 4p et suivre leurs performances.

Offre d'emploi
Analyste d'exploitation / Domain Data - MLOps - Data Platform
Analyste d'exploitation / Domain Data - MLOps - Data Platform Un leader dans le domaine des solutions de leasing est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Projet à mener pour une application de ciblage commercial permettant aux commerciaux une approche de vente proactive du crédit-bail pour des clients déjà équipés de contrats cadres. Responsabilités Mise en œuvre des Pipelines Machine Learning : • Concevoir, déployer et maintenir des pipelines de machine learning automatisés, intégrant l'ensemble des étapes du cycle de vie des modèles, de l'entraînement à la mise en production. • Assurer l'intégration des modèles de machine learning dans les environnements de production, en s'assurant de la scalabilité, des performances et de la fiabilité des solutions mises en œuvre. • Collaborer étroitement avec les data scientists et ingénieurs data pour faciliter la transition des modèles depuis les phases d'expérimentation jusqu'à l'industrialisation, tout en optimisant les pipelines de bout en bout. Automatisation et industrialisation des modèles : • Mettre en place des processus d'industrialisation des modèles de machine learning pour garantir une gestion continue et fiable des modèles en production, avec des mécanismes de surveillance automatique. • Automatiser les tâches critiques, telles que l'entraînement, le déploiement, la gestion des versions, et la surveillance des performances des modèles. • Intégrer des solutions de monitoring pour garantir que les modèles en production respectent les critères de performance, de dérive et de précision définis. Adaptation de l'infrastructure et des environnements de production : • Participer à la mise en place d'une infrastructure (Cloud / DMZR) robuste et évolutive qui soutient l'entraînement et l'inférence des modèles à grande échelle. • Optimiser l'utilisation des ressources (GPU, CPU) pour l'entraînement et la mise en production des modèles, en fonction des besoins spécifiques du projet. Surveillance, maintenance et gestion du cycle de vie des modèles : • Mettre en œuvre des systèmes de monitoring pour suivre les performances des modèles en production, détecter les dérives, et initier les actions correctives automatisées. • Assurer une maintenance continue des modèles en production pour garantir leur conformité avec les objectifs métiers, en supervisant la mise à jour des modèles et la gestion de leurs versions. • Gérer le cycle de vie complet des modèles, de la phase d'entraînement initiale à la mise à jour et dépréciation des modèles obsolètes. Collaboration et documentation des processus : • Collaborer étroitement avec les data scientists, les ingénieurs data et les DevOps pour assurer l'intégration fluide des pipelines de machine learning dans l'infrastructure IT existante. • Documenter de manière exhaustive les processus et les pipelines mis en place, incluant les workflows automatisés, les architectures, et les pratiques de surveillance des modèles. • Assurer une communication continue avec les équipes métiers et techniques pour garantir l'alignement sur les besoins et objectifs du programme.

Mission freelance
Chef de Projet Data - BI
Objectifs et livrables : En étroite collaboration avec le Chef de Service, les architectes fonctionnels, les ingénieurs Data, la MOA et les métiers, la mission est garante de la bonne réalisation de certains projets transverses. Mission : Piloter et assurer la mise en œuvre des évolutions/projets dont vous aurez la charge dans le respect de la qualité, coûts et délais définis avec les intervenants, des process et normes Travailler sur les différents templates projets, la roadmap fonctionnelle, l'optimisation des interactions avec les autres services Mettre en place un plan de communication autour des différents projets et instances Mettre en oeuvre et piloter le planning des travaux de l'équipe et des contributions Coordonner les différents prestataires Effectuer un reporting régulier et rigoureux vers son responsable

Offre d'emploi
Lead Data Analyst (H/F)
En bref : Lead Data Analyst (H/F) - Cavaillon - CDI - Rémunération selon profil et expérience Notre client, belle PME vauclusienne, recherche son futur Lead Data Analyst (H/F) à Cavaillon. Vos missions : - Référent opérationnel des données sur différents périmètres - Réaliser des extractions de données, les traduire - Documenter les modèles de données - Vérifier la la conformité des données selon les règles de gestion métier - Suivre les indicateurs de qualité et les remonter aux data analysts - Coordinateur de la gouvernance des données - Piloter les processus CRUD - Prioriser les demandes - Identifier les erreurs récurrentes et proposer des plans d’amélioration - Produire et diffuser les KPI de suivi des données

Offre d'emploi
Concepteur/Développeur Front Confirmé (H/F)
Dans le cadre de l’évolution de notre application métier dédiée à la signature électronique, nous recherchons un développeur PHP confirmé afin de renforcer notre équipe projet. La mission consiste à apporter une expertise technique pour accélérer la phase de développement et assurer la réussite des évolutions prévues. Missions principales : Le développeur interviendra sur la conception, le développement et l’intégration de solutions logicielles, en conformité avec les spécifications fonctionnelles et l’architecture technique définie. Ses responsabilités incluront notamment : Participer à l’analyse détaillée des besoins fonctionnels et techniques, Développer et coder les évolutions de l’application (logiciel, système, interfaces), Rédiger et maintenir la documentation technique associée, Implémenter les solutions avec les technologies retenues, Réaliser les tests et la qualification des systèmes, d’un point de vue fonctionnel et technique, Contribuer à la validation des spécifications fonctionnelles détaillées, Coordonner et accompagner les prestataires impliqués dans le développement. Livrables attendus Évolutions de l’application iAudience, Mise en place d’un nouveau mode d’authentification.
Mission freelance
Architecte de Solutions en IA Générative
Contrainte forte du projet : Le livrable est une étude comparative des solutions technologiques pour Agents GenAI. Description détaillée : Contexte et objectifs de la mission : Dans le cadre de sa stratégie d’innovation digitale, le client souhaite accélérer le déploiement d’agents d’IA générative pour différents cas d’usage métiers. Afin d’assurer une intégration efficace, pérenne et sécurisée, il est indispensable d’identifier, d’évaluer et de préconiser les technologies socles les plus adaptées au contexte du groupe. Cette mission vise donc à réaliser une étude de choix comparant les différents outils et frameworks disponibles pour : Le développement d’agents IA avancés (framework dédié, SDK, bibliothèques, etc.). La mise à disposition de solutions low-code/no-code pour le prototypage ou le déploiement rapide d’agents simples. L’indexation, la gestion et la sécurisation des données nécessaires au fonctionnement des agents, notamment via des bases vectorielles (vector DB). L’assurance d’un environnement répondant aux exigences de sécurité (sécurité des accès, confidentialité des données, conformité réglementaire), de scalabilité (montée en charge et performance) et d’observabilité (monitoring, traçabilité, gestion des incidents). Périmètre de l’étude : L’étude doit impérativement couvrir les volets suivants : Recensement des besoins métiers et techniques auprès des équipes du client impliquées dans l’IA générative. Cartographie de l’existant et identification des contraintes d’intégration avec le SI du client. Benchmark des frameworks de développement pour agents AI (exemples : Semantic Kernel, LangChain, LlamaIndex, etc.). Comparaison des solutions low-code/no-code pour la création d’agents (exemples : Microsoft Copilot Studio, Pipedream, etc.). Analyse des solutions d’indexation de données textuelles et multimodales (notamment bases vectorielles comme Azure AI Search, Databricks, Pinecone, Weaviate, Qdrant, etc.). Étude des dispositifs existants ou à mettre en place pour la sécurité, la conformité, la scalabilité et l’observabilité des technologies retenues. Préconisations argumentées sur l’architecture cible et le schéma directeur de déploiement. Livrables attendus : Document de synthèse présentant l’état de l’art des solutions évaluées. Analyse comparative (forces/faiblesses, coûts, niveau de maturité, etc.). Proposition d’architecture cible et recommandations d’implémentation. Tableau de sélection des technologies et justification des choix proposés. Schéma de gouvernance technique et principes d’intégration. Critères de réussite : Adéquation des préconisations avec les besoins métiers du client. Respect des exigences de sécurité et de conformité du groupe. Capacité de la solution cible à évoluer et à s’intégrer dans l’écosystème SI du client. Niveau de documentation et de transférabilité des livrables. Ce descriptif de mission constitue le cadre de référence pour l’étude à mener, afin de garantir le choix de technologies innovantes, robustes et alignées avec les ambitions stratégiques du client en matière d’IA générative.

Mission freelance
QA Technico-fonctionnel Data ( H/F)
Au sein de la Direction Digital et Data, vous intégrerez le département Data Lab, en charge des projets BI et Data pour différentes entités du groupe. En tant que QA Data , vous rejoindrez le pôle Qualité Data dont la mission est de garantir la fiabilité et la cohérence des données tout au long de leur cycle de vie. Missions principales Participer aux ateliers et rituels agiles. Définir et mettre en œuvre la stratégie de tests. Identifier et réceptionner les environnements de test. Analyser et évaluer les User Stories/cas d’usage. Rédiger les plans de tests et définir les jeux de données nécessaires. Exécuter les cas de tests (manuels ou via outils). Détecter, remonter et suivre les anomalies avec les différentes parties prenantes. Construire et maintenir le référentiel de tests. Élaborer les procès-verbaux (PV) de recette.
Mission freelance
Senior Data Consultant / Architecte Fonctionnel
Contexte Dans le cadre du développement d’une Data Platform (Data as a Service) , nous recherchons un Senior Data Consultant / Architecte fonctionnel afin de piloter la phase d’ assessment / étude et d’accompagner ensuite le passage en exécution du projet. Responsabilités Organiser et animer les ateliers de cadrage avec les métiers. Recueillir et formaliser les besoins business. Réaliser la modélisation de données (conceptuelle & physique – Silver layer). Documenter l’architecture fonctionnelle et la valeur de la solution. Coordonner les contributeurs techniques (architectes, Data Engineers, BI Engineers). Préparer budget, planning et “Go to project” proposal.

Offre d'emploi
Data Engineer (Spark-Scala-Azure Devops) H/F
Contexte et objectifs de la prestation : Dans ce cadre, la prestation consiste à contribuer à/au(x) : 1. Projets de migration vers notre nouveau Datalake sur infra “Azure” 2. Projets de maintenance évolutive des Use Cases Data déjà existants 3. Cadrage et chiffrage du projet (et validation) et assistance et expertise dans la définition de la stratégie et solution technique. 4. L'assistance et l'expertise sur l’architecture technique (design et conception) des couches datalake et des moyens de restitutions, 5. La conduite du changement dans la mise en œuvre et l’uniformisation des pratiques Craft 6. La définition des normes et standards de qualité édictés sur le périmètre (qualité de code, sécurité, performance, build automatique, analytics) 7. La définition du bon niveau de la documentation technique et mise à jour associée Diverses étapes de développements notamment sur les développements complexes : chiffrage, conception, spécifications techniques,mise en place, tests, déploiement, revue de code 8. Challenge des choix techniques pour qu’ils soient en adéquation avec : le besoin du client, les normes et standards des entités d’architectures, l’innovation et les principes de la transformation digitale de la banque Expertises : 1. Spark Scala 2. Cloudera, Azure 3. Mode Agile (Scrum) 4. Environnement anglophone.

Offre d'emploi
Data Engineer (Hadoop-Scala) Junior H/F
Contexte et objectifs de la prestation : Le département informatique aligné avec les métiers en charge du pilotage financier du groupe. Cette tribu est en charge de la maitrise d'ouvrage, de la maitrise d'oeuvre et du support des produits (applications) nécessaire à la bonne exécution de ces processus financiers. Le Bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de certains de ses produits dédiés au pilotage opérationnel des directions centrales (BASYCOUT) et retail (AGENOR) mais aussi de la facturation interne (FI) et des expenses (Expenses Engagement), basés sur des technologies Datalake et cube OLAP, dans un cadre d'agilité à l'echelle (SAFE). Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre, la Prestation consistera à contribuer à/au(x) : - Code livré sous GIT - Tests unitaires développés et joués - Monitoring des traitements de production - Tickets JIRA & Unity mis à jour

Mission freelance
Développeur AWS (Data Lake / Python / Terraform)
Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .

Offre d'emploi
Tech Lead DATA - PUY DE DOME
Pour un gros client industriel nous cherchons, un Tech Lead Data. Il devra maitriser Azure Data Bricks, et avoir de bonnes connaissances sur Power BI. En terme de langages, Python et SQL sont indispensables. Il devra comprendre l'anglais technique au minimum. Mission sur Clermont-Ferrand, démarrage dès que possible, 2 jours de télétravail possibles par semaine. Compétences transverses Niveau d'expérience : 3 à 5 ans minimum Compétences : Azure Data Bricks ; Power BI ; Python ; SQL Langues : Anglais requis Profil : Tech Lead Data ou Ingénieur Data expérimenté Démarrage de mission : ASAP Durée de mission : Longue durée Télétravail : Partiel (2 j par semaine)
Mission freelance
Architecte Data - Gouvernance des données
Contexte : Au sein d'une équipe d'architecture dédiée à une solution applicative stratégique dans le domaine des paiements, l'architecte data aura pour mission de concevoir et mettre en œuvre la gouvernance des données de la solution applicative du client. Lieu : Toulouse Missions principales : Étudier l'existant de la solution applicative Proposer une gouvernance data utile et efficace, en cohérence avec l'organisation et la structure de l'entreprise Définir l'architecture data de la solution Collaborer avec les équipes métiers, techniques et sécurité pour garantir l'alignement des pratiques data Définir ou faire évoluer les référentiels de données, dictionnaires de données et règles de gestion Participer à la mise en place d'outils de gouvernance : Data Catalog, Data Quality, MDM, etc. Accompagner les équipes dans l'adoption des bonnes pratiques de gestion des données Assurer une veille technologique et réglementaire sur les sujets liés à la data Compétences requises : Expérience avérée dans la mise en place ou le pilotage d'une gouvernance data Maîtrise des architectures data Connaissance des outils de gouvernance de données Bonne compréhension des normes de sécurité et de conformité (RGPD, PCI DSS…) Autonomie, rigueur, esprit d'équipe Anglais professionnel Les plus : Certification en gouvernance des données (ex : DCAM, CDMP) Expérience dans le domaine de la monétique Connaissance du cloud IBM (gros plus)

Offre d'emploi
BUSINESS DATA ANALYSTE
Je recherche pour un de mes clients un consultant Business Data Analyste : Missions : a. Participer aux réunions de cadrage et de suivi avec le chef de projet et les équipes internes. b. Participer aux tests et à la recette fonctionnelle (vérification des données, complétude, cohérence par rapport à l’existant). c. Contribuer à la mise à jour des documentations internes (Operating model, procédures si besoin). d. Suivre l’avancement des actions liées à son périmètre et remonter les points de blocage éventuels. Assurer une bonne coordination des actions. Contribution aux projets de migration en cours : e. Participer aux ateliers de convergence avec les équipes internes dans le cadre des projets en cours. f. Contribuer aux nettoyages de données pour faciliter les transferts, avec un objectif de gain d’efficacité et de réduction des coûts. g. Assurer la coordination avec les équipes Front Office pour éviter les divergences. h. Réaliser des extractions de données et collaborer avec les équipes IT / Data pour préparer les étapes suivantes (automatisation) en fonction des besoins. i. Assurer la remontée des informations et des éventuels points de blocage. Livrables attendus : Documentation des processus et procédures opérationnelles. Documentation des changements. Checklists de recette fonctionnelle. Fiches de suivi des anomalies / points ouverts. Comptes rendus de réunion (PowerPoint, Word, PDF). Vérification de la non régression des données en production après livraison des évolutions. Handover réalisé à l’équipe Data Management Operations pour assurer le bon fonctionnement en mode BAU et suivi. Travail en proximité avec les autres équipes (Regulatory Reporting, IT, Data Management, etc.) pour garantir la transparence de la communication et le respect du calendrier des livrables. Durée et modalités : Mission longue à démarrer dès que possible. Langues : Français et Anglais. Compétences techniques : Connaissance de l’environnement réglementaire de la gestion d’actifs en France, en Europe et au Royaume-Uni. Une connaissance de la réglementation bancaire et assurance est un plus. Bonne compréhension des enjeux de qualité de données. Maîtrise des outils Pack Office, VBA, SQL, Python, Neoxam Data Hub, Tableau Desktop, Databricks est un plus. Forte capacité à documenter précisément les processus, contrôles et anomalies. Expérience : Expérience dans un rôle de Business/Data Analyst, idéalement dans l’Asset Management ou en cabinet de conseil. Expérience en support fonctionnel dans un environnement Front, Middle ou Back Office. Compétences personnelles : Orientation résultat et client. Esprit structuré, rigueur, autonomie, et orientation process. Bonne communication et capacité à maintenir des relations étroites avec les parties prenantes. Capacité d’analyse et de résolution de problèmes. Travail en équipe et sens du service. Esprit d’initiative, réactivité et gestion de plusieurs tâches en parallèle.
Mission freelance
Product Owner H/F
Contexte de la mission 1) Le département des données du groupe apporte leadership, expertise et gestion de la communauté dans 4 domaines : • Stratégie de données et d'IA, comme le cadre général, à travers la gouvernance impliquant les directeurs des données et de l'analytique, les leaders d'entreprise, les COO/CIO, la conformité/le risque/la sécurité ; • Culture des données et de l'IA, à travers une collaboration avec les fonctions des ressources humaines et de la communication ainsi que les leaders d'entreprise, tirant parti de la communauté des responsables locaux de la culture des données ; • Gestion de l'information, couvrant la gouvernance des données et de l'IA, la qualité des données, la documentation des données, la modélisation des données, les risques liés aux données et à l'IA, en s'appuyant sur les responsables locaux des bureaux de gestion des données ; évoluant pour intégrer l'IA et l'IA générative et une utilisation croissante des données externes et non structurées ; • Produits de données et d'IA, couvrant la conception, l'orchestration et la livraison de produits de données et d'IA à travers les entités et le groupe, débloquant l'accès aux données et à l'IA à travers les domaines (par conception cloisonnée). Objectifs et livrables 2/Description du service :Le service doit avoir une expertise en propriété de produit et en analyse commerciale pour servir les usages des données commerciales, un service pour soutenir diverses initiatives commerciales, principalement la diffusion de données partagées et de solutions d'IA à travers le Groupe pour les réclamations et la souscription P&C. Le service : • Fournira, en s'engageant avec les parties prenantes du Groupe et des Entités, une analyse et une formalisation de la compréhension des initiatives commerciales, liées à la chaîne de valeur des réclamations et de la souscription P&C ; • Apportera une contribution à la définition des exigences en matière de données couvrant toutes les dimensions des données (définitions commerciales, qualité des données, produits de données, gouvernance des données, gestion des données non structurées, plateformes de données, architecture, etc.), en fonction des exigences du Groupe et du travail de certaines Entités ayant développé des solutions locales à l'échelle. • Fournir une contribution à la définition de l'évaluation de la qualité des données et de la préparation associée pour mesurer la maturité des Entités ; • Fournir le développement (en co-développement) et l'avancement des définitions commerciales, des meilleures pratiques et des cadres pour assurer la cohérence entre les Entités et soutenir les progrès locaux. • Fournir une contribution à la définition, la conception et la livraison d'un tableau de bord pour faire rapport sur la qualité des données et la préparation des données des Entités, avec l'engagement des parties prenantes au sein du Groupe et des Entités, en alignement avec les normes Groupe et Locales ; • Fournir une contribution à la définition et à la mise en œuvre d'un plan de remédiation de la qualité des données pour progresser vers les objectifs commerciaux attendus ; • En collaboration avec l'équipe du Bureau des Données du Groupe pour l'architecture des données, la gestion des données, la gouvernance des données, l'expertise en matière de données non structurées (liste non exhaustive), y compris l'alignement avec les responsables d'initiatives commerciales dans d'autres domaines et la livraison du tableau de bord de la qualité et de la préparation des données. 3/ Livrables de service :Service à fournir : • La définition d'un cadre des exigences en matière de données et l'évaluation, le suivi et l'avancement des Entités

Mission freelance
Data Engineer Power BI
Notre client, recherche un Consultant Expert Power BI (H/F) dans le cadre d'une longue mission. Accompagner les équipes dans la montée en compétences sur Power BI et piloter la transformation d’un périmètre de rapports existants vers une architecture moderne, pérenne et performante. - Accompagner les équipes internes dans la maîtrise des pratiques avancées Power BI (modélisation, optimisation, dataviz). - Assurer la migration et la refonte d’un périmètre de rapports vers Power BI. - Concevoir et optimiser des modèles de données complexes. - Développer et maintenir des formules DAX et des requêtes Power Query. - Assurer la publication, la gestion de la sécurité et la gouvernance sur le service Power BI. - Apporter un support pédagogique : coaching, documentation, bonnes pratiques. - Transformer du code SAS en SQL, optimiser des programmes et mettre en place des solutions algorithmiques robustes. - Collaborer avec l’équipe pilotage opérationnel pour garantir la qualité des livrables. Livrables - Rapports migrés et optimisés sous Power BI. - Documentation technique et fonctionnelle (guides utilisateurs, bonnes pratiques). Plan de montée en compétences et accompagnement des équipes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres