Trouvez votre prochaine offre d’emploi ou de mission freelance Looker Studio
Votre recherche renvoie 18 résultats.
Offre d'emploi
Chef de projet Data MDM (industrie)
Amontech
Publiée le
BigQuery
Looker Studio
Master Data Management (MDM)
40k-45k €
Aubervilliers, Île-de-France
📌 Contexte Dans le cadre d’une mission au sein du Pôle DATA (secteur industriel) nous recherchons un/une Chef(fe) de projet Master Data pour intervenir sur la gestion et l’amélioration du référentiel d’entreprise. Vous intégrerez une équipe dédiée à la gouvernance des données , travaillant sur une solution interne et des projets d’amélioration continue de la qualité des données et des workflows métiers. 🎯 Missions En tant que Chef(fe) de projet Master Data, vous interviendrez à la fois sur la gestion du référentiel, l’amélioration de la qualité des données et la conduite de projets d’évolution. 🔧 Gestion et administration du référentiel (50%) Traiter les demandes utilisateurs dans les délais convenus Accompagner et animer le réseau des référents pour l’appropriation des outils et workflows Maintenir la cohérence et l’intégrité du référentiel de données ⚙️ Amélioration de la qualité des données (30%) Réaliser des analyses croisées multi-sources pour identifier anomalies et incohérences Définir et prioriser les plans d’action qualité en collaboration avec les métiers Évaluer les impacts sur les systèmes consommateurs et coordonner les actions correctives 🔧 Conduite de projets d’amélioration continue (20%) Recueillir et analyser les besoins d’évolution exprimés par le business Proposer des solutions innovantes et les soumettre à validation hiérarchique Piloter les projets validés de bout en bout (cadrage, spécification, réalisation, déploiement)
Offre d'emploi
Senior Looker / LookML Developer
xITed
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio
6 mois
40k-66k €
400-600 €
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Data et de la modernisation des outils de Business Intelligence, un Senior Looker / LookML Developer est recherché afin de renforcer une équipe Data. La mission consiste à intervenir sur la structuration des modèles de données, le développement de dashboards et l’accompagnement des équipes métiers dans l’utilisation de la solution Looker. L’intervention se fera au sein d’une équipe composée de Data Engineers, Data Analysts et Product Owners, dans un environnement international et agile. Missions principales Développement Looker / LookML Conception et développement de modèles LookML (views, explores, dimensions, measures) Mise en place des bonnes pratiques de modélisation Optimisation des performances des requêtes Data Modelling Modélisation des données pour l’analyse et le reporting Collaboration avec les équipes Data Engineering pour structurer les datasets Mise en place de standards de gouvernance des données Data Visualisation Création et maintenance de dashboards Looker Définition et structuration des KPI métiers Amélioration de l’expérience utilisateur des dashboards Accompagnement métier Recueil des besoins auprès des équipes métiers Animation d’ateliers fonctionnels Support et accompagnement des utilisateurs Environnement technique Looker / LookML Google Cloud Platform BigQuery SQL Git
Mission freelance
Expert Senior Google Workspace, Data & IA/Looker Studio / Big Query /GEMINI (H/F)
Octopus Group
Publiée le
BigQuery
Google Workspace
IA Générative
6 mois
570-750 €
Niort, Nouvelle-Aquitaine
Nous recherchons pour le compte de notre client dans le secteur de l'assurance, un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA. Le profil recherché est un consultant hybride à haute valeur ajoutée, capable d'administrer l'environnement collaboratif, d'analyser la donnée d'usage (BigQuery/Looker), de développer des solutions d'automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analystics (Expertise Looker et BigQuery) Business Intelligence (Looker) : Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique pour mesurer l'adoption des outils et la performance des processus métiers. Data Analysis (BigQuery) : Exploitation avancée des données (logs d'audit GWS, données métiers) via requêtage SQL optimisé. Structuration des tables et gestion des coûts de stockage/calcul. Pilotage RSE & Usages : Définition et mise en place d'indicateurs de suivi sur l'infobésité et l'hyperconnexion, en support de la politique de Qualité de Vie au Travail (QVT) et de Sobriété Numérique. Volet IA Générative (Gemini) & Innovation : Centre d'Expertise IA : Contribution majeure à la structuration du Centre d'Expertise. Rôle de référent technique et fonctionnel sur la solution Gemini. Acculturation & Animation : Pilotage de la communauté d'ambassadeurs IA. Organisation de webinars, rédaction de guides de bonnes pratiques et identification de cas d'usage à forte valeur ajoutée. Intégration Métier : Déploiement opérationnel de solutions IA (assistance rédactionnelle, synthèse documentaire, assistants virtuels) adaptées aux besoins spécifiques des métiers. Volet Google Workspace : Technique & Fonctionnel : Expertise Admin & Sécurité : Administration avancée de la console Google Workspace. Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes Cyber. Automatisation des Processus : Développement d'applications métiers via AppSheet (Low-code) et Google Apps Script pour la digitalisation des tâches manuelles et le remplacement de fichiers Excel complexes. Transition Office vers Google : Accompagnement technique et méthodologique pour la migration des utilisateurs et de leurs outils (Excel/VBA) vers l'écosystème Google (Sheets/Apps Script/BigQuery). Posture AMOA/PO : Assistance au Product Owner dans la définition de la roadmap produit, la rédaction de User Stories et la conduite du changement.
Mission freelance
Data engineer GCP
NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio
3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans
Mission freelance
Consultant web analytics
CAT-AMANIA
Publiée le
BigQuery
Looker Studio
Piano Analytics
1 an
Lille, Hauts-de-France
La mission s’inscrit dans le cadre d’un portail web interne à destination des collaborateurs en points de vente. Ce portail sera déployé progressivement dans l’ensemble des entités du groupe et centralisera, en mode portail, tous les parcours utilisateurs utiles à la vie en magasin. La connaissance et la maîtrise des données liées à ce portail constituent un enjeu stratégique pour l’entreprise afin de : Mieux connaître les utilisateurs Prendre des décisions éclairées Piloter la transformation omnicanale (dont ce portail est un levier majeur en magasin) Dans cette mission, vous rejoignez une équipe d’experts Web Analytics et travaillez en étroite collaboration avec l’équipe produit du portail. Vous souhaitez intégrer une équipe engagée pour ses utilisateurs, qui privilégie la collaboration et la bonne ambiance ? Vous aimez être à la fois analyste et ambassadeur d’une culture data-driven ? Alors cette mission est faite pour vous. Web Analytic - Confirmé - Impératif Piano - Confirmé - Important Big Query - Confirmé - Important
Mission freelance
Profile LOOKER LOOKML Anglais
SEDONA SVP
Publiée le
Looker Studio
1 an
400-600 €
Clichy, Île-de-France
En tant que Senior Analytics Engineer , vous rejoindrez l’équipe de transformation financière du groupe afin de piloter le développement de la « dernière étape » des produits data. Il s’agit d’un poste hautement technique, orienté développement, conçu pour un expert qui considère la donnée comme du code. Vous serez responsable de transformer des conceptions financières complexes, définies par les Business Product Owners, en produits performants, scalables et sécurisés. Vous évoluerez dans un environnement multi-projets, nécessitant une grande rigueur technique ainsi qu’une capacité à communiquer efficacement avec les équipes data engineering et les parties prenantes métiers dans un contexte corporate finance à l’échelle du groupe. Vous n’êtes pas simplement une personne « data » qui construit des dashboards : vous êtes un Software Engineer dont l’application principale est la donnée. Responsabilités principales Analytics Engineering avancé : Construire et optimiser la couche sémantique en utilisant LookML à un niveau expert. Concevoir des modèles BigQuery comme sources de données Looker en appliquant les principes du Software Engineering : modularité, réutilisabilité et maintenabilité. Exécution & qualité : Transformer les spécifications en produits data robustes, garantissant des performances élevées, une optimisation des coûts et le respect des meilleures pratiques architecturales à long terme. Solutions embarquées & API : Concevoir l’intégration de Looker dans des applications web via les API/SDK Looker, en faisant le lien entre la donnée et des interfaces UI personnalisées. Sécurité & gouvernance : Comprendre les protocoles et concepts de sécurité (RLS, OLS, mapping des attributs utilisateurs) afin de traiter des données financières sensibles sur différents périmètres. Gestion multi-projets : Piloter plusieurs flux de travail simultanément en assurant des livraisons dans les délais et une communication proactive sur les blocages techniques ou choix architecturaux. Expérience Full-Stack (bonus) : Supporter le modèle « Analytics-as-a-Service » en utilisant Python pour la logique backend et React/HTML/CSS pour des expériences analytiques front-end sur mesure. Philosophie “Software First” : Comprendre le contrôle de version, ne pas seulement utiliser Git. Maîtriser les principes CI/CD, DRY, l’approche atomic design. Prioriser la maintenabilité plutôt que les « quick wins ». Savoir dire non aux solutions rapides mais non durables. Concevoir avec une vision long terme. Esprit innovant : Être un ambassadeur de l’IA et améliorer l’efficacité. Utiliser de manière proactive des outils GenAI (ex : Claude Code/Gemini, Copilot) pour accélérer l’écriture de code, l’optimisation SQL et la documentation automatisée, tout en gardant à l’esprit comment les LLMs pourront être intégrés dans les futurs produits data. Profil et compétences requises Formation : Diplôme de niveau Master en informatique, Data Engineering ou domaine technique équivalent. Une base solide orientée développement est indispensable. Expérience professionnelle : Minimum 5 ans d’expérience en Analytics Engineering ou Data Development, idéalement dans des environnements grands groupes avec des écosystèmes data complexes. Stack technique principal Looker : Maîtrise experte de LookML (approche modulaire via refinements et extends), connaissance des API Looker, maîtrise des architectures sémantiques. GCP / BigQuery : Expertise SQL avancée, optimisation performance/coûts et principes de modélisation des données. Les “plus” Développement web : Bonne maîtrise de Python et React fortement appréciée. Des bases solides en HTML/CSS sont requises pour des dashboards personnalisés et intégrations web. PowerBI : Expérience PowerBI est un atout important. Soft skills Communication : Capacité à expliquer des concepts techniques à des partenaires métiers en anglais et en français. Autonomie : Excellentes compétences en gestion du temps pour mener plusieurs projets et gérer différents interlocuteurs. Exigence qualité : Approche rigoureuse sur Git, les tests et la documentation. Présence & collaboration Localisation : Poste basé à Clichy. Rythme hybride : 3 jours par semaine sur site afin d’assurer une collaboration étroite avec les équipes métier ainsi que l’équipe centrale Analytics & AI Engineering.
Mission freelance
Data Engineer
Coriom Conseil
Publiée le
Apache Kafka
BigQuery
CI/CD
12 mois
400-510 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data
Mission freelance
Data engineer GCP
ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)
1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Mission freelance
Data Analyst IA Solutions (PowerBI, SQL, Python)
Nicholson SAS
Publiée le
CI/CD
Data analysis
DBT
24 mois
300 €
Lille, Hauts-de-France
Missions : Nous recherchons une personne avec une expérience confirmée (au moins 3 à 5 ans sur des problématiques Data), passionnée par la construction de solutions analytiques robustes et percutantes. Modélisation et Bases de Données : Vous maîtrisez parfaitement le langage SQL pour concevoir et optimiser des tables de données, notamment dans BigQuery et PostgreSQL. Vous avez également une connaissance des bases de données NoSQL comme MongoDB. Une expérience avec dbt pour la transformation et la modélisation est fortement appréciée. Visualisation de Données (Dataviz) : Vous avez une expertise solide sur des outils de BI comme Power BI ou Looker pour transformer des données brutes en dashboards interactifs et clairs, aidant ainsi à la prise de décision. Ingénierie et Analyse : Vous utilisez Python pour l'analyse, la manipulation de données complexes ou l'automatisation de tâches. Écosystème Cloud & DevOps : Vous êtes familier avec Google Cloud Platform (GCP). Vous avez une forte sensibilité aux pratiques DevOps et une expérience avec les outils d'intégration et de déploiement continus (CI/CD, comme Git, GitLab CI, GitHub Actions) pour garantir le versionnement, la qualité et l'automatisation des déploiements. Qualité de la Donnée : Vous êtes sensible à la qualité et à la gouvernance des données, et vous mettez en place des pratiques pour assurer la fiabilité des informations.
Mission freelance
Data analyst GCP (H/F) - 94
Mindquest
Publiée le
Google Cloud Platform (GCP)
4 mois
110-480 €
Ivry-sur-Seine, Île-de-France
Dans le cadre de la mise en conformité réglementaire liée à la Facturation Électronique, notre client lance un chantier stratégique d'assainissement et d'analyse de données. L'enjeu est de garantir que les référentiels (Produits, Fournisseurs, Taxes) et les flux financiers sont prêts pour les nouvelles exigences légales. En tant que Data analyst vos missions seront de : * Analyse Exploratoire : Investiguer et manipuler des données brutes pour en extraire de la valeur et identifier les anomalies de structuration. * Audit de Conformité : Vérifier l'alignement des référentiels produits et fournisseurs avec les exigences de la facturation électronique (TVA, SIRET, règles de facturation). * Architecture & Flux : Concevoir et maintenir des pipelines de données via des API, Cloud Run ou Cloud Functions. * Analyse d'Impact : Réaliser des analyses croisées complexes entre les flux logistiques (Retail) et les flux financiers/comptables. * Pilotage : Concevoir des rapports et indicateurs sous Looker Studio pour monitorer l'avancement de la mise en conformité.
Offre d'emploi
Lead Data Architecte
Signe +
Publiée le
24 mois
50k-55k €
358-550 €
Massy, Île-de-France
Expérience de plus de 8 ans, majoritairement dans la data. Minimum 3 ans chez un acteur du retail ou chez un cabinet de conseil pour des clients du secteur. Minimum 3 ans sur des sujets Supply Chain. Excellentes capacités analytiques et statistiques, capacité à comprendre les principes de modèles data science. Très bonnes capacités dans la manipulation de grandes volumétries de données ; maîtrise d'un langage de requêtage des données (SQL, BigQuery), d'outils de datavisualisation (Tableau, Google Looker Studio) ; la maîtrise de Python et GitLab est un plus. Capacité de formalisation irréprochable. Excellente communication écrite et orale, posture impeccable & aptitude à expliquer, vulgariser et convaincre (des interactions top management dans les précédentes expériences seraient un vrai atout). Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. Capacité de prise de recul : Aptitude à évaluer les problématiques avec objectivité et à proposer des solutions d'amélioration. Capacité à respecter les délais tout en maintenant des standards élevés. Esprit d'équipe : Capacité à collaborer efficacement avec les membres de l'équipe pour atteindre des objectifs communs. Organisation, rigueur, autonomie, proactivité, persévérance
Offre d'emploi
Cloud engineer Sénior (530€ MAX)
BEEZEN
Publiée le
Azure
Google Cloud Platform (GCP)
1 an
44k-61k €
400-530 €
Lyon, Auvergne-Rhône-Alpes
3 JOURS SUR SITE Projets Infra France de maintenances, de migrations et de déménagement portant sur les périmètres réseaux, infrastructures legacy (DC historiques), Cloud (Azure, GCP, OCI) ou sur les outils bureautiques France Livrables : ● Cadrage et Note de Cadrage ● Animation Coproj/Copil + compte rendu ● Animation Comité technique + compte rendu ● Suivi projet via outils de gestion de projet (Jira, Gsheet etc.) ● Suivi Budgétaire ● Suivi Plan de Charge ● Suivi des risques ● Document d'architecture des solutions à mettre en oeuvre ● Maîtrise avancée des outils de la Google Suite (Gmail, Sheets, Slides, Google Scripts, Gemini, Looker Studio, Big Query …) ● Diriger des programmes d'envergure nécessitant une maîtrise experte d'un domaine critique pour l'entreprise. ● Solide connaissance des technologies d'infrastructure IT (réseaux, serveurs, stockage, virtualisation, cloud computing, etc.) ● Connaissance des standards et bonnes pratiques ITIL ● Gérer des relations contractuelles complexes avec des partenaires technologiques majeurs et des éditeurs. ● Influencer les décisions stratégiques de l'entreprise grâce à une vision d'expert sur les tendances du marché. ● Valider la cohérence et la pérennité architecturale des solutions déployées au sein du programme spécialisé.
Offre d'emploi
DATA ANALYST GCP (420€ MAX)
BEEZEN
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
Mission freelance
Consultant Web Analytics
ESENCA
Publiée le
BigQuery
Piano Analytics
Web analytics
1 an
Lille, Hauts-de-France
Mission principale : Rejoindre l’équipe d’experts Web Analytics et collaborer avec l’équipe du portail Collecter, structurer et analyser les données utilisateurs Mettre en place des modèles de suivi et des dashboards pour piloter l’activité et la transformation Activités principales : Définir et mettre en œuvre le plan de taggage Web Analytics Requêter et agréger les données via BigQuery et Piano Restituer les insights et analyses via Looker Studio Participer à la diffusion de la culture data-driven au sein de l’équipe Contribuer à l’amélioration continue des modèles et dashboards Livrables : Plan de taggage Web Analytics complet Requêtes et agrégations de données structurées Dashboards et restitutions opérationnelles via Looker Studio Compétences techniques : Web Analytics (Confirmé) Piano (Confirmé) BigQuery (Confirmé) Looker Studio / Data visualization Modalités : Télétravail possible : 2 jours / semaine
Offre d'emploi
Data Quality Analyst senior
FIRST CONSEIL
Publiée le
BigQuery
Data quality
Google Cloud Platform (GCP)
6 mois
40k-45k €
400-550 €
Île-de-France, France
Au sein d'une équipe composée de data analysts intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer, analyser et documenter les données du data warehouse du groupe; Contribuer à l’amélioration de la qualité du data warehouse : mettre en place le plan d’action défini sur 2026 : contrôles, monitoring et alerting Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. Notre stack data : GCP, BigQuery, Python, Looker Studio Profil recherché Formation : Diplôme de niveau BAC +4 à 5, en école d’ingénieurs ou université spécialisé en statistiques, data science, informatique décisionnelle ou data management ; Langues : Français et Anglais courant exigés ;
Mission freelance
POT8991 - Un Data Analyst Sur Massy
Almatek
Publiée le
Python
6 mois
270-400 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients, Un Data Analyst Sur Massy. Maîtrise parfaite du SQL et d'au moins un langage de programmation (Python, R). Maîtrise d'outils de datavisualisation avancés (Tableau, Looker Studio). Maîtrise des bonnes pratiques de code: test de cohérence, commentaires, documentation, etc Excellente rigueur: capacité à gérer une tâche détaillée et cadrée dans un ticket Jira de A à Z en respectant tous les points spécifiés capacité à documenter l’ensemble de ses rendus: périmètre d’analyse (période, type d'agrégation, etc), documentation technique et fonctionnelle de façon à ce que toute personne dans l’équipe puisse reprendre facilement ses analyses Expérience avec l’environnement GCP préférable (BigQuery notamment) Expérience avec des bases de données volumineuses (Big Data) et des outils associés (Hadoop, Spark) est un plus. Connaissance des techniques de machine learning est un plus Compétences analytiques : Excellente rigueur et capacité à gérer des projets complexes: capacité à prendre du recul sur la cohérence des analyses et sur les ordres de grandeurs Excellentes capacités analytiques, de résolution de problèmes et de pensée critique Capacité à construire des plans d'analyse détaillés et à gérer des tâches de A à Z incluant une proactivité dans la résolution de problèmes rencontrés Capacité à interpréter les résultats d'analyses complexes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
18 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois