Trouvez votre prochaine offre d’emploi ou de mission freelance Tableau software

Mission freelance
Data Engineer (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Les missions attendues par le Data Engineer (H/F) : En tant qu'Analytic Engineer, votre rôle principal sera d'apporter une expertise technique approfondie sur les données métiers et de garantir leur parfaite adéquation avec les besoins opérationnels. Vous travaillerez en étroite collaboration avec les différents acteurs de l'équipe Data – notamment les Data Analysts, les Techleads GCP et les équipes d'Exposition – sur les domaines suivants : la supply chain, le référencement produit, le B2C, le transport et la logistique. Parallèlement, vous assurerez une veille technologique proactive sur l'intelligence artificielle et les outils Data (par exemple, Tableau, Looker ML) afin de continuellement enrichir notre expertise technique et proposer des solutions innovantes."

Mission freelance
Expert BI / Migration Dashboards
Nous recherchons pour l’un de nos clients, acteur majeur du secteur des médias et de la communication, un Expert BI afin d’assurer la migration de dashboards Tableau vers Power BI . Vous interviendrez dans un contexte stratégique autour de la datavisualisation B2B et Datech. La mission consiste à : Analyser les dashboards existants sous Tableau. Reconcevoir et migrer ces dashboards vers Power BI. Garantir la qualité, la performance et la cohérence des rapports livrés. Collaborer avec les équipes Data et métiers pour répondre aux besoins opérationnels.

Offre d'emploi
Ingénieur Poste de Travail
Nationalité Française obligatoire Compétences techniques attendues : Windows 10 LTSC durci (CIS, GPO avancées) AppLocker, Defender, Firewall Windows, Yara, Sysmon, Wazuh agents Chiffrement : Prim’X (Cryhod, Zone Central, Zed) Authentification forte (Yubikey), certificats, PKI Microsoft Active Directory 2022, GPO MECM / WSUS Office 2021 LTSC, navigateur Edge durci VPN : Stormshield PowerShell, packaging PSADT Missions : Maintien en condition opérationnelle et sécurisation des postes de travail Administration et supervision des outils de sécurité (chiffrement, authentification, durcissement) Packaging applicatif via MECM Gestion des incidents N3 Suivi de la conformité via des indicateurs sécurité Participation au tableau de bord sécurité
Mission freelance
Expert IAM Projet & Run (H/F)
🎯 Contexte et objectifs Dans le cadre d’une montée en charge de l’activité, notre client recherche un Expert IAM pour renforcer son équipe dédiée à la gestion des identités et des accès. Le poste couvre à la fois le RUN (exploitation et amélioration continue) et les projets stratégiques en cours autour de la gouvernance des identités. 🧩 Périmètre de la mission Volet Projet L’expert interviendra sur trois chantiers majeurs : Projet SoD (Segregation of Duties) : intégration d’applications métier dans le processus SoD, accompagnement des équipes applicatives pour la définition des profils et règles d’accès, configuration des campagnes de revue et mise à jour de la matrice SoD. Migration IAM/IAG : accompagnement du remplacement de la solution RSA par Saviynt (tests fonctionnels, documentation, mise à jour des workflows et processus). Intégration Groupe : participation à la mise en place de l’interface avec la solution de centralisation des identités du Groupe, réalisation des tests et adaptation de la documentation. Volet RUN Maintien et enrichissement de la base de connaissance IAM (processus, workflows, cycle de vie des identités). Amélioration continue des processus (automatisation, dashboards, simplification). Contrôles qualité sur les données et les droits d’accès (validation de tickets, gestion des comptes inactifs ou orphelins, cohérence des référentiels). Suivi des campagnes de revue d’accès et des remédiations. Pilotage du processus SoD : suivi des anomalies, analyse et mise à jour régulière des matrices de séparation des tâches. 🏁 Livrables attendus Documentation complète et à jour des processus, workflows et tests fonctionnels. Suivi et mise à jour des règles SoD et des campagnes de revue d’accès. Rapports de qualité et de cohérence des données IAM. Propositions d’amélioration et tableaux de bord opérationnels. Base de connaissance consolidée et maintenue. 🧠 Compétences recherchées Maîtrise approfondie des concepts IAM/IAG et de leurs enjeux métiers. Animation d’ateliers fonctionnels avec les équipes applicatives. Expérience confirmée sur des outils IAM (RSA, Saviynt, SailPoint, etc.). Excellentes capacités d’analyse, de documentation et de résolution de problèmes. Pratique d’outils de BI / reporting (Power BI, Tableau) et maîtrise avancée d’Excel (TCD, formules, Power Query). Sens de l’organisation, rigueur, et aisance en communication écrite/orale. Aptitude à la modélisation de rôles et profils d’accès et à la cartographie des droits.

Offre d'emploi
DATA ENGINEER SNOWFLAKE / DBT / Service Now ITSM
Bonjour, Pour le compte de notre client, nous recherchons un consultant Data Analytics Engineer – Intégration ServiceNow ITSM → Snowflake Contexte de la mission Dans le cadre du renforcement de ses capacités analytiques autour des processus ITSM, Accor recherche un consultant Data Analytics Engineer autonome pour mettre en œuvre une connectivité entre ServiceNow et Snowflake. Cette mission vise à exploiter les données de ServiceNow ITSM (incidents, demandes, changements, problèmes…) pour alimenter des cas d’usage analytiques à destination de plusieurs départements internes (IT, qualité, gouvernance, opérations…). Objectifs de la mission Établir et sécuriser une connexion technique entre ServiceNow ITSM et Snowflake Extraire et charger les données des modules ITSM suivants : Request Management, Incident Management, Change Management, Problem Management Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et exploitable à des fins analytiques Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité Documenter le pipeline, les schémas de données et les points de reprise Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake (data warehouse cloud) Orchestration : Airflow ou solution équivalente Transformation : DBT Core / SQL (si besoin pour structuration analytique) Modélisation : DrawIO ou autre support outil libre. Visualisation : Tableau CI/CD / versioning : GitLab Documentation : Confluence, Jira,
Offre d'emploi
Data Scientist
En tant que Data Scientist Senior , vous participerez à des projets complexes de traitement et d’analyse de données afin de générer des insights exploitables. Vous travaillerez en étroite collaboration avec les équipes métiers, IT et Data Engineering pour construire des modèles prédictifs et des solutions analytiques robustes. Responsabilités principales Concevoir, développer et déployer des modèles de machine learning pour résoudre des problématiques business complexes. Manipuler, transformer et analyser de grands volumes de données provenant de différentes sources (bases relationnelles, Snowflake, APIs…). Garantir la qualité et la cohérence des données en collaboration avec les équipes Data Governance et en utilisant des outils comme Collibra . Développer et maintenir des pipelines ETL et scripts Python pour automatiser le traitement des données. Présenter les résultats et insights de manière claire aux parties prenantes, en français et en anglais. Encadrer et partager vos connaissances avec des profils moins expérimentés (mentorat). Contribuer à la définition des bonnes pratiques Data Science et à l’amélioration continue des processus analytiques. Profil recherché Diplôme supérieur en Statistiques, Informatique, Mathématiques, Data Science ou domaine similaire. Expérience significative (minimum 5 ans) en Data Science, idéalement dans un environnement international. Maîtrise avancée de Python pour le traitement de données et le développement de modèles ML (pandas, scikit-learn, TensorFlow, etc.). Maîtrise de SQL et expérience sur Snowflake pour l’interrogation et l’exploitation des données. Expérience avec des outils de Data Governance , en particulier Collibra . Solide compréhension des statistiques, de l’algorithmique et des méthodes de machine learning. Capacité à travailler en autonomie et à gérer des projets complexes. Excellente communication écrite et orale en français et anglais . Compétences appréciées Expérience avec des outils de visualisation (Tableau, Power BI, Plotly…). Connaissance des bonnes pratiques DevOps/DataOps appliquées à la Data Science. Expérience avec des environnements cloud (AWS, Azure, GCP). Ce que nous offrons Un environnement stimulant et innovant avec des projets à fort impact. Opportunités d’évolution et formation continue. Flexibilité et équilibre vie professionnelle/vie personnelle. Travail dans une équipe dynamique et collaborative.

Mission freelance
Architecte Technique
🎯 Objectif de la mission : Définir une solution technique orientée data, administrer la plateforme sous-jacente et la mettre en œuvre. 🛠️ Outils & Technologies : Tableau Software Alteryx Snowflake Matillion Azure Data Factory Airflow MS Fabric – Power BI Denodo 📌 Responsabilités : Conception de solutions techniques pour la gestion de gros volumes de données Industrialisation et amélioration continue des traitements Implémentation et opération des projets Data & Analytics Assurer le run en second niveau Veille technologique et contribution à la roadmap Data & Analytics ✅ Compétences requises : Maîtrise des outils cités Très bon niveau d’anglais Capacité à formaliser des solutions techniques Esprit collaboratif, rigueur, autonomie Pilotage de prestataires Aisance en environnement international

Mission freelance
Data Scientist – Secteur Public (H/F)
Dans le cadre de projets de transformation et de modernisation du secteur public, nous recherchons un(e) Data Scientist freelance pour intervenir sur des missions de valorisation et d’exploitation des données. L’outil Dataiku est au cœur de l’environnement technique, et sa maîtrise est indispensable. Vos missions Développer et maintenir des modèles de data science dans Dataiku (exploration, apprentissage automatique, analyses prédictives et prescriptives). Identifier, intégrer et exploiter des données hétérogènes tout en garantissant la conformité réglementaire (RGPD, sécurité des données). Concevoir et automatiser des flux de données avec Dataiku et/ou Talend . Construire des tableaux de bord et visualisations avec Tableau ou Power BI pour répondre aux besoins métiers. Collaborer étroitement avec les équipes internes afin de traduire les besoins métiers en solutions data-driven.

Mission freelance
Expert Data Scientist – Secteur Public (H/F)
Compétences clés : Dataiku • Microsoft Power BI • MySQL • Talend Dans le cadre de projets stratégiques de transformation et de modernisation du secteur public, nous recherchons un(e) Expert Data Scientist H/F freelance pour accompagner nos clients dans la valorisation et l’exploitation avancée de leurs données. Vous interviendrez en tant qu’expert(e) sur des problématiques complexes, avec un rôle clé dans la définition et la mise en œuvre de solutions data-driven à forte valeur ajoutée. La maîtrise de Dataiku est indispensable. Vos missions : Piloter le développement de modèles de data science complexes dans Dataiku : exploration, apprentissage automatique, analyses prédictives et prescriptives. Définir les stratégies de collecte, d’intégration et d’exploitation de données hétérogènes en garantissant leur qualité et leur conformité réglementaire (RGPD, sécurité des données). Concevoir et automatiser des pipelines de données robustes avec Dataiku et/ou Talend. Construire et superviser la réalisation de tableaux de bord et visualisations avancées avec Tableau ou Power BI, en réponse à des enjeux métiers variés. Jouer un rôle de référent(e) technique auprès des équipes internes et des interlocuteurs métiers, en les accompagnant dans la formalisation des besoins et la diffusion d’une culture data. Contribuer activement aux choix d’architecture et à la mise en place des bonnes pratiques data science au sein des projets.

Offre d'emploi
Chef de Projet - SLA Manager (Luxembourg)
L’objectif du SLA Manager du département IT est de renforcer le pilotage opérationnel, garantir la qualité des services rendus et assurer la conformité avec les engagements contractuels et organisationnels. 1.1. Pilotage des SLA et des KPI • Définir, formaliser et faire évoluer les SLA avec les parties prenantes (internes et externes) • Mettre en place, maintenir et améliorer un tableau de bord de suivi des SLA et des KPI • Produire des rapports réguliers à destination des équipes IT, de la direction et des clients internes/externes • Alerter et déclencher les plans d’actions en cas de dérive ou de non-conformité 1.2. Gouvernance ITSM • Participer activement à la gouvernance des processus ITSM (Incident, Problème, Change, Demande, etc.) • Veiller à l’alignement des SLA/KPI avec les processus ITIL en place • Collaborer avec les Process Owners et les équipes techniques pour assurer la cohérence des mesures 1.3. Amélioration continue • Identifier les pistes d'amélioration des services à travers l'analyse des indicateurs • Proposer des recommandations et participer à leur mise en oeuvre • Contribuer à la montée en maturité ITSM de l’organisation 2.1 Compétences techniques attendues • Maîtrise des concepts ITSM (ITIL v4 ou v3) – certification ITIL obligatoire • Expérience significative en pilotage de SLA/KPI dans un contexte IT • Connaissance de l’outil de gestion ITSM : ServiceNow • Maîtrise d’Excel avancée et outils de data visualization (Power BI, Tableau, etc.) • Capacité à produire des reportings clairs, automatisés et exploitables 2.2 Savoir-faire et qualités • Capacité d’analyse, de synthèse et de restitution • Excellente communication orale et écrite • Rigueur, autonomie, sens du service et esprit de collaboration 2.3 Compétences transversales • Savoir montrer, transmettre et partager ses connaissances, ses idées et ses méthodes de travail. • Agir de manière intègre, conformément aux attentes de l'organisation, respecter la confidentialité et les engagements et éviter toute forme de partialité. • S’impliquer et démontrer de la volonté et de l’ambition afin de générer des résultats et assumer la responsabilité de la qualité des actions entreprises.

Mission freelance
Consultant Power Query - Excel H/F - freelance - Rouen (76)
ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Votre mission (si vous l’acceptez) : Excel & Power Query Import, transformation et automatisation de données avec Power Query Maîtrise avancée des formules Excel (recherche, logique, financières) Création de tableaux dynamiques, dashboards et modèles interactifs Compréhension des états financiers Lecture et interprétation du bilan, compte de résultat et tableau de flux de trésorerie Capacité à analyser les principaux indicateurs : CA, EBITDA, BFR, CAPEX, dettes, etc. Modélisation financière Construction de prévisions financières (revenus, coûts, investissements) Modélisation d’hypothèses de croissance, marge et financement Intégration de scénarios et sensibilités (variation de taux, volumes, etc.) Objectif : renforcer l’équipe Finance sur les aspects reporting automatisation et modélisation afin d’optimiser la fiabilité et la réactivité des analyses financières. Vous devez avoir les connaissances comptables de base suivantes : Compréhension des principes comptables généraux (charges, produits, amortissements, provisions) Vision claire de la traduction des opérations dans les états financier Vous, notre perle rare : Consultant ou analyste financier expérimenté(e), maîtrisant Excel/Power Query à un niveau avancé. À l’aise avec les environnements FP&A, contrôle de gestion ou reporting de performance. Esprit analytique, rigueur et autonomie indispensables pour une mission courte et stratégique. Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : TJ en fonction de l'expérience. Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !

Mission freelance
CHEF DE PROJET PRODUCTION : INFRASTRUCTURE, PRODUCTION
Descriptif de la mission : a. Description des prestations, livrables et résultats attendus Au sein du pôle Production et Infrastructure de La Fabrique digitale, le pilote de la reprise en RUN sera en charge d’organiser la reprise en exploitation des Infrastructures et des SI Son rôle sera : - De suivre les actions pour réaliser l’ensemble des activités de reprise en Run sous responsabilité FAB, avec l’identification et la gestion des risques associés, l’animation des ateliers associés et le suivi des dossiers ; - Le suivi détaillé des plannings des différents chantiers FAB, l’animation des ateliers associés et le suivi des dossiers ; - La consolidation et production du budget FAB de l’activité, avec l’ensemble des éléments (investissements et exploitation) remontés par les équipes métier, l’animation des ateliers associées et le suivi associé des dossiers. Les livrables seront les suivants : - Un tableau de bord de pilotage au niveau FAB avec l’ensemble des données permettant le suivi de la reprise en RUN et permettre d’alimenter la direction de projet ; - Les tableaux de bord de suivi des dossiers FAB ; - Les supports de présentation adaptés pour les différents comités ; - Le support de travail pour les différents ateliers techniques ; - La rédaction et diffusion des comptes-rendus des réunions. Les compétences attendues sont les suivantes : • Avoir un BAC+5, ou niveau équivalent, et justifier d’une expérience de dix ans au sein d’une production. • Vous justifiez d'une forte expérience similaire de projet de reprise en RUN • Vous maitrisez parfaitement les différents modèles d’exploitation / d’infogérance • Vous maitrisez les architectures des composants d’infrastructure (réseau, serveur, stockage), de brique technique et d’outillage de production (surveillance, sauvegarde, …)
Offre d'emploi
Consultant DLP N2 H/F
Au sein d'une équipe de plusieurs experts, la mission s'inscrira dans le cadre d'un projet visant à prévenir de la fuite de données. Les principales activités seront les suivantes: - Capture des besoins de protection des données sensibles métiers - Définition, paramétrages et amélioration des règles DLP - Améliorer les solutions de détections - Participer aux choix et à la mise en oeuvre des nouveaux outils - Analyse des évènement générées et optimisation des faux positifs - Suivi des rémédiations - Définition, suivi des indicateurs de l'activités - Création d'un tableau de bord Pour remplir cette mission les compétences suivantes sont demandées: - Compétences fonctionnelles et techniques sur les sujets DLP - Connaissances des outils Trellix DLP, Netskope, Splunk - Compétence de développement (PowerApp, PowerBI, Python) - Culture en SSI/Cybersécurité et en particulier sur les risques associés aux fuites d'information - Connaissances techniques générales

Offre d'emploi
Data Architecte - Lyon
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Offre d'emploi
CONSULTANT POWER BI (NATIONALITE FRANCAISE)
POWERBI (expert) Contexte business / Business context : dashboard contenant toutes les données formations issues de l’outil groupe et des fournisseurs de contenus externes. Ce dashboard est utilisé dans les audits et est la référence du groupe pour toutes les données communiquées sur la formation (Bilan sociaux, CSRD, audit…). Périmètre / Scope : (Détailler le périmètre fonctionnel & géographique / Detail functional & geographic scope) Les données de formations sont consolidées dans ce dashboard pour tous les pays où le client a des salariés. Objectifs du projet / Goals of project Au sein du HR Data Office et sous la responsabilité du Core HR Data Analyst, vous devrez migrer un dashboard existant construit sous Power BI Service (Azure) vers un environnement on-premise Power BI Report Server, incluant : La reconstruction du modèle de données et des rapports sous Power BI Desktop (version compatible PBIRS). La mise en place de la collecte et du stockage des données historiques (Depuis 01/2022). La validation fonctionnelle et la mise en production dans l’environnement on-prem. L’ajout de deux nouvelles pages pour inclure les 2 nouvelles plateformes de contenus externes. Résultats attendus & Enjeux / Expected results & Issues 1. Tableau de bord opérationnel sur Power BI Report Server (On-Prem) Le dashboard est entièrement reconstruit sous Power BI Desktop (version compatible PBIRS). Il est hébergé, accessible et fonctionnel dans l’environnement Power BI Report Server on-prem. Les visuels, filtres, KPIs et interactions sont identiques ou améliorés par rapport à la version Azure. Les 2 nouvelles pages des 2 nouveaux fournisseurs sont actives Les rafraîchissements automatiques sont configurés et validés. 2. Données historiques intégrées Les données des années précédentes sont récupérées et intégrées dans le modèle on-prem. Les contrôles de cohérence ont été réalisés (volumétrie, échantillons, comparaisons avec l’existant). Le modèle de données intègre l’historisation complète selon les besoins fonctionnels. 3. Architecture on-prem documentée Schéma de l’architecture technique : serveurs, flux de données, sources, stockage, refresh. Documentation des connexions et des dépendances. 4. Modèle de données Power BI conforme Modèle de données optimisé pour PBIRS (pas de dépendance à des fonctions non supportées par Report Server). Mesures DAX et relations testées et validées. Performance du modèle validée (temps de chargement, temps de rendu). 5. Documentation et transfert de compétences Guide utilisateur pour la consultation du dashboard. Guide technique pour l’administration et la maintenance (refresh, publication, sécurité). Session de transfert de compétences auprès de l’équipe.

Offre d'emploi
Data Engineer Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Tableau software
Data analyst
Le/La Data Analyst utilise Tableau pour créer des tableaux de bord interactifs et visualiser les données de manière percutante.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offresData scientist
Le/La Data Scientist utilise Tableau pour communiquer efficacement les résultats d'analyses à des publics non techniques.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offres