Trouvez votre prochaine offre d’emploi ou de mission freelance BigQuery

Votre recherche renvoie 58 résultats.
Freelance
CDI

Offre d'emploi
Data Analyst BigQuery (F/H) - Nantes

Argain Consulting Innovation
Publiée le
BigQuery
Looker Studio
SQL

6 mois
40k-45k €
400-450 €
Nantes, Pays de la Loire
Nous recherchons un Data Analyst expérimenté sur BigQuery pour intervenir sur des problématiques de fraude. Vous intégrerez une équipe data dynamique et contribuerez activement à la détection, l’analyse et la prévention des comportements frauduleux. Vos missions principales : Analyser les données afin d’identifier des schémas de fraude Concevoir et maintenir des requêtes complexes sur BigQuery Développer des indicateurs et tableaux de bord de suivi Collaborer avec les équipes métiers (risque, conformité, produit) Proposer des recommandations basées sur les analyses Participer à l’amélioration continue des outils de détection
CDI

Offre d'emploi
PRODUCT DATA ANALYST F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
BigQuery

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Expert Looker BI-BIGDATA / Toulouse

Signe +
Publiée le
BigQuery
Looker Studio
SQL

6 mois
550-600 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients un profil BI-BIGDATA - Support - Expert Looker. Mission : La mission consiste à accompagner les POCs de l’étude Looker (développement et accompagnement du métier dans le développement de leur POCs et formations) et apporter une expertise dans le fonctionnement de l’outil (conseil en architecture, sécurité, FinOPS) En tant qu’expert de la Data & AI Technology Platform, le profil recherché doit avoir une excellente maitrise de l’outil Looker Core (Looker Studio ne faisant pas partie du scope de l’étude) mais aussi avoir un excellent relationnel et être pédagogue car il doit être en contact avec les développeurs les utilisateurs métiers, mais aussi avec différents services au niveau IT ( Ops Architectes …). L’étude de Looker comme potentiel outil de Dataviz du groupe AF KLM est prévue de Mai 2026 – Octobre 2026. L’objectif est d’évaluer le potentiel de l’outil à répondre aux enjeux tels que les besoins métiers sur l’autonomie pour les analyses adhoc, les demandes croissantes sur l’IA (conversational analytics), le remplacement des outils comme SAP BO ou Spotfire… dans le contexte du projet Data Move To Cloud. La maitrise de Looker Core est indispensable. La maitrise du SQL et GCP – Big Query est aussi importante. La maitrise de Power BI est un plus.
Freelance
CDI

Offre d'emploi
Data Modelisation sur Paris

EterniTech
Publiée le
BigQuery
Merise

3 mois
Paris, France
e cherche pour un de mes clients un Data Modelisation Description du besoin : OBJET DE LA PRESTATION : DATA MODELER - PROGRAMME DE TRANSFORMATION DATA B2B NOM DU PROJET : TRANSFORMATION DATA B2B Senior Data Analyst / Data Modeler (B2B) Cadre et environnement (Contexte général du projet) Dans le cadre du programme de transformation de la Data B2B (Agite Data), le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir, en mode agile, le socle technique et les données de référence (RCU, Pivots) qui serviront ensuite aux Squads Métiers pour bâtir leurs cas d'usages Définition de la prestation (Objet & Périmètre de la prestation) Le Prestataire agira en tant que Référent Modélisation & Connaissance de la Donnée. Il fera le lien entre les Experts Métiers et le Lead data engineer agile. 1) Conception du "Core Model" : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) en cible sur BigQuery (Modèles en étoile / Data Vault). 2) Règles de Gestion RCU : Définir et prototyper (en SQL) les règles de rapprochement (Matching/Merging) permettant de lier les données techniques (ex: ND) aux données légales (SIREN/SIRET). 3) Archéologie de la Donnée : Analyser les sources Legacy (Oracle) pour identifier les règles implicites et cartographier les écarts avec la cible. 4) Gouvernance & Dictionnaire : Rédiger les définitions fonctionnelles directement dans le Data Catalog d'AIDA (Métadonnées BigQuery) et le Data Catalog Métier (ODG = Open Data Guide) pour garantir l'autonomie des futures Squads. 5) Support aux Squads : Préparer des "Data Sets" certifiés pour faciliter le travail des Data Scientists et Analystes des Squads Métiers. Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Modélisation Cible Modèles Logiques de Données (MLD) validés par le Tech Lead. Mapping Source-to-Target détaillé. Itératif : 1er Draft RCU mi-Mars 2026 Définition du RCU (Vision 360) Spécification SQL des règles d'unicité client (Clés de réconciliation). Matrice de gestion des cas particuliers (Multi-comptes, Flottes). MVP RCU : Fin Mars 2026 Gouvernance des Données Dictionnaire de données (Business Glossary) intégré dans AIDA et ODG Règles de Qualité (DQ Rules) définies pour chaque objet métier Continu Exploration & Prototypage Requêtes SQL d'analyse d'impact. Datasets de test pour validation métier. A la demande Domaines de compétences et savoir faire de la société prestataire, nécessaires à la bonne réalisation de la prestation : Indispensable : Modélisation de Données Expert : Maîtrise des concepts théoriques (Merise, 3NF) et dimensionnels (Star Schema, Kimball). Capacité à simplifier des modèles complexes. SQL Avancé : Capacité à manipuler la donnée (Requetage complexe, Window Functions) pour valider ses propres modèles (pas de spécifications "papier" uniquement). Analyse Fonctionnelle : Capacité à dialoguer avec le Métier (Marketing, Finance) pour extraire les règles de gestion. Expérience avérée dans un cadre de travail Agile / Scrum. Connaissance su secteur B2B/ TELECOM : Compréhension des notions de Hiérarchie de comptes, Parcellaire, SIRET/SIREN. Connaissance de l’environnement BIGQUERY Savoir-être : Esprit de synthèse. Force de proposition (ne pas attendre que le métier dicte le modèle). Pragmatisme (livrer de la valeur incrémentale).
Freelance
CDI

Offre d'emploi
Business Analyst Technique – Projet Data (H/F)

CELAD
Publiée le
BigQuery
Business Analyst
Google Cloud Platform (GCP)

6 mois
40k-45k €
350-490 €
Trappes, Île-de-France
Vous souhaitez intervenir sur un programme stratégique de transformation digitale à grande échelle dans un environnement industriel innovant ? Nous recherchons un.e Business Analyst Agile technique pour rejoindre une équipe travaillant sur une plateforme nouvelle génération autour de la data et du cloud. Vos missions Au sein d’une équipe Agile, vous interviendrez sur des sujets à forte dimension fonctionnelle et technique : Analyse des besoins métier et cadrage fonctionnel Rédaction des User Stories et spécifications fonctionnelles Analyse des incidents et investigations sur les flux applicatifs Participation à l’évolution de l’architecture cible de la plateforme Validation des flux et tests end-to-end Collaboration avec les équipes Produit, Data, Cloud et Développement Contribution aux bonnes pratiques projet et à l’amélioration continue Environnement technique GCP BigQuery SQL avancé APIs REST JSON GitHub / VS Code Agile / Scrum Gherkin Data Platform & systèmes industriels
Freelance

Mission freelance
Expert Looker BI-BIGDATA / Paris

Signe +
Publiée le
BigQuery
Looker Studio
SQL

6 mois
550-670 €
Paris, France
Bonjour, Nous recherchons pour l'un de nos clients un profil BI-BIGDATA - Support - Expert Looker. Mission : La mission consiste à accompagner les POCs de l’étude Looker (développement et accompagnement du métier dans le développement de leur POCs et formations) et apporter une expertise dans le fonctionnement de l’outil (conseil en architecture, sécurité, FinOPS) En tant qu’expert de la Data & AI Technology Platform, le profil recherché doit avoir une excellente maitrise de l’outil Looker Core (Looker Studio ne faisant pas partie du scope de l’étude) mais aussi avoir un excellent relationnel et être pédagogue car il doit être en contact avec les développeurs les utilisateurs métiers, mais aussi avec différents services au niveau IT ( Ops Architectes …). L’étude de Looker comme potentiel outil de Dataviz du groupe AF KLM est prévue de Mai 2026 – Octobre 2026. L’objectif est d’évaluer le potentiel de l’outil à répondre aux enjeux tels que les besoins métiers sur l’autonomie pour les analyses adhoc, les demandes croissantes sur l’IA (conversational analytics), le remplacement des outils comme SAP BO ou Spotfire… dans le contexte du projet Data Move To Cloud. La maitrise de Looker Core est indispensable. La maitrise du SQL et GCP – Big Query est aussi importante. La maitrise de Power BI est un plus.
Freelance

Mission freelance
Consultant Web Analytics

ESENCA
Publiée le
BigQuery
Piano Analytics
Web analytics

1 an
Lille, Hauts-de-France
Objectif de la mission Construire et structurer les modèles de données ainsi que les dashboards analytics d’un portail digital interne, afin de mieux comprendre les usages, piloter la performance et soutenir une stratégie data-driven. Missions principales Vous définissez et mettez en place le plan de taggage Web Analytics, en garantissant la qualité et la fiabilité de la collecte de données. Vous exploitez et agrégerez les données via BigQuery et Piano afin de produire des analyses pertinentes. Vous concevez des dashboards clairs et actionnables sous Looker Studio pour accompagner la prise de décision. Vous collaborez étroitement avec les équipes produit et métiers pour comprendre les besoins, identifier les indicateurs clés et promouvoir une culture orientée data. Livrables attendus Plan de taggage Web Analytics Requêtes et agrégation de données (BigQuery, Piano) Dashboards et reportings sous Looker Studio Compétences requises Maîtrise du Web Analytics – impératif Expérience confirmée sur Piano – important Maîtrise de BigQuery – important Bonne capacité de modélisation et de restitution de la donnée Appétence pour la data visualisation et les indicateurs de performance
Freelance
CDI

Offre d'emploi
Lead media analytics

UCASE CONSULTING
Publiée le
BigQuery
Dataiku
Microsoft Power BI

1 an
40k-45k €
600-870 €
Île-de-France, France
Bonjour à tous 😀 Nous recherchons un(e) Lead Media Analytics pour accompagner l’un de nos clients grand compte ! 🎯 Contexte Dans le cadre d’un remplacement, notre client recherche un(e) Lead Media & Data pour piloter la stratégie d’activation data et la performance des campagnes digitales à l’international (hors Chine). 🚀 Missions 1️⃣ Analyse & stratégie media Expertise des leviers media digitaux pour analyse et conseil stratégique Définition des guidelines HQ basées sur les insights data Déploiement dans les marchés en lien avec les équipes métiers Orientation des leviers & campagnes (logiques silotées) Prise en compte des spécificités locales (scope worldwide hors Chine) Suivi de l’adoption des recommandations par marché 2️⃣ Activation & segmentation Construction de segments clients activables Ciblage des campagnes (notamment onboarding CRM nouveaux clients ) Exploitation de la data first-party : retargeting, lookalikes Définition des critères de segmentation pour les scénarios d’activation Activation des audiences via Meta / Google / Snapchat 3️⃣ Collaboration & delivery Gestion des enjeux techniques liés à la data & activation Mise en place de solutions d’ automatisation des flux de segmentation Rédaction des spécifications techniques (raw data → BigQuery) Création de dashboards de performance media (Power BI) Co-pilotage de la performance avec Wizaly Collaboration transverse (équipes media, social, data) 4️⃣ Management Encadrement d’une équipe : 2 profils segmentation + 1 stagiaire
Freelance

Mission freelance
Product Manager IA

HAYS France
Publiée le
Agent IA
BigQuery
Copilot

3 ans
250-610 €
Lille, Hauts-de-France
Responsabilités principales🔹 Définition de la stratégie IA Définir et formaliser la gouvernance IA du client en collaboration avec les équipes métiers, Digital & Data Construire la trajectoire IA alignée avec les enjeux business 🔹 Pilotage des projets IA Accompagner les équipes métiers dans l’identification des cas d’usage Prioriser et piloter le backlog des initiatives IA Définir les ressources nécessaires (internes / externes) Suivre le delivery et mesurer la création de valeur (ROI, impact opérationnel) 🔹 Travail en écosystème groupe Collaborer étroitement avec les experts IA du client Identifier et favoriser le re-use de solutions existantes au sein du groupe 🔹 Animation et innovation Faire le lien entre les équipes techniques et le terrain Suivre la performance des solutions IA déployées Contribuer à la diffusion de la culture IA et Data
Freelance

Mission freelance
Data Engineer – Tracking & Analytics

Nicholson SAS
Publiée le
BigQuery
Google Tag Manager
Looker Studio

7 mois
340 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d'une refonte majeure des outils de mesure d'audience, nous recherchons un Data Engineer pour accompagner la migration de l'écosystème analytics (transition de Adobe Analytics vers Piano Analytics ). Intégré(e) au département Solutions Digitales au sein d’une équipe agile, vous serez le garant de la collecte, de la transformation et de la restitution des données issues des canaux digitaux. La mission repose sur une exploitation avancée de la suite Google Data (GTM, BigQuery, Looker Studio). Missions principales 1. Implémentation & Tracking Accompagner les métiers dans la définition des besoins en tracking et des KPI associés. Assurer le paramétrage via Google Tag Manager (GTM) . Réaliser la recette des données lors des phases de test et après mise en production des features. 2. Engineering & Data Pipeline Concevoir et maintenir les flux d'ingestion de données vers BigQuery . Développer des scripts de transformation et d'ingestion (principalement en Node.js et Python ). Assurer le monitoring quotidien des flux (interventions et correctifs si nécessaire). Intégrer de nouvelles sources de données pour enrichir le pilotage global du projet. 3. Restitution & Analyse Fiabiliser et mettre à disposition les données dans Looker Studio . Analyser les données produites pour en extraire des enseignements actionnables. Contribuer à l'amélioration continue des processus et des méthodes de l'équipe. 4. Collaboration Agile Interagir étroitement avec les différents corps de métier (PO, UX, Architectes, Développeurs, Testeurs) pour la co-construction des fonctionnalités. Participer activement aux rituels du train Agile. Modalités pratiques Lieu : Niort (79) – Présence sur site obligatoire 3 jours/semaine . Démarrage : ASAP. Durée : Jusqu'au 31/12/2026. Budget d'achat max : 340 € HT / jour.
Freelance

Mission freelance
Data Engineer GCP Airflow (H/F)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

12 mois
380-420 €
Paris, France
Data Engineer GCP/Airflow – (Freelance) Mission longue - Démarrage ASAP Nous recrutons pour un client majeur du secteur de la construction et des infrastructures , dans le cadre du renforcement de ses équipes data. Mission freelance de 12 mois minimum (renouvelable), démarrage ASAP 2 jours de télétravail flexible et Localisation Ligne 14 Profils juniors acceptés, 1 an d'expérience min. (stage, alternance, première expérience compris) Formation Bac +5 min. requise Contexte & mission Vous interviendrez sur des outils liés à la gestion de données internes, avec notamment : Analyse et traitement de logs Identification de dysfonctionnements Intégration et transformation de données Alimentation de tables BigQuery Support sur des outils internes (Dataiku, tableaux de suivi…)
Freelance

Mission freelance
101684/Data Engineer Data de Google (Google Tag Management, Looker Studio et BigQuery) NANTES

WorldWide People
Publiée le
Google Tag Manager

9 mois
400-440 €
Nantes, Pays de la Loire
Data Engineer Data de Google (Google Tag Management, Looker Studio et BigQuery) NANTES Mission dans le secteur de l'assurance qui consiste à intervenir sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery) pour optimiser l'exploitation des données dans un environnement agile (SAFe). La mission a lieu à Niort et ne peut pas être réalisée en distancielle mais permet 3 jours de télétravail. Activités confiées : - Collaborer avec l'équipe sur la définition des objectifs et KPI’s pour la mesure des fonctionnalités. - Accompagner la définition des besoins en tracking. - Recetter les données en phase de test des fonctionnalités. - Recetter les données après la mise en production des fonctionnalités. - Préparer et ingérer des données dans BigQuery (en Node JS). - Mettre à disposition des données fiabilisées dans Looker Studio. - Participer à l'analyse des données produites et en tirer des enseignements. - Optimisation et amélioration continue : - Veiller au bon fonctionnement de l'ingestion quotidienne des données et appliquer des correctifs si nécessaire. - Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train. - Gérer et optimiser les processus existants. - Analyse et communication : - Participer à l'analyse des données issues des monitoring pour en tirer des enseignements. - Participer à l'amélioration continue des tracking, des processus ou du fonctionnement de l'équipe. - Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features. La mission nécessite que le data Engineer soit autonome sur les technologies suivantes : - Script shell. - Python. - BigQuery. - JavaScript. - Piano Analytics (à créer à la place d'Adobe Analytics). - Looker Studio. - Google Tag Manager.
Freelance

Mission freelance
Data Quality Analyst (H/F)

Freelance.com
Publiée le
BigQuery
DBT
ETL (Extract-transform-load)

3 mois
400-550 €
Paris, France
Dans le cadre d’un programme de transformation Data B2B sur une plateforme Cloud Data moderne, nous recherchons un Consultant Recette Data & Qualité des Données (QoD) expérimenté. Intégré à une équipe transverse en environnement Agile/Scrum, le consultant interviendra comme référent qualité des données afin de sécuriser les livrables Data produits par les équipes techniques et métiers. Les principales missions seront : Réaliser la recette des produits data et valider la conformité des tables générées Effectuer des analyses de Data Profiling sur les données sources et cibles Détecter les anomalies de données : doublons valeurs nulles incohérences de formats ruptures d’intégrité référentielle Développer des requêtes SQL avancées pour les contrôles qualité Traduire les règles métier en contrôles techniques automatisés Implémenter des scripts de contrôle qualité dans le framework ELT Produire les cahiers de recette technique et bilans Go / No-Go Mettre en place des dashboards et indicateurs de suivi de la qualité des données Créer et suivre les tickets d’anomalies dans JIRA Remonter les anomalies et risques liés à la qualité des données auprès des équipes métiers et techniques Participer aux cérémonies Agile et aux Sprint Reviews L’objectif du poste est d’assurer la fiabilité, la cohérence et la qualité des données exposées aux équipes métiers.
CDI
CDD
Freelance

Offre d'emploi
ML Engineer Google Cloud (Python, Vertex AI, BigQuery) – H/F

SMARTPOINT
Publiée le
BigQuery
Google Cloud Platform (GCP)
IA

1 an
50k-70k €
480-640 €
Île-de-France, France
Dans le cadre de l’amélioration de la personnalisation de l’expérience utilisateur , nous constituons une équipe dédiée aux sujets de machine learning et de recommandation en production . Cette équipe data est composée : d’un Product Owner d’un Data Scientist d’un Lead ML Engineer d’un Machine Learning Engineer L’environnement technique repose principalement sur Google Cloud Platform avec notamment : Python Vertex AI BigQuery Cloud Run Airflow API REST Terraform GitLab CI/CD L’objectif est de concevoir, industrialiser et déployer des solutions de machine learning en production , tout en assurant leur performance et leur scalabilité. Missions Au sein de l’équipe data et ML, vous interviendrez sur l’ensemble du cycle de vie des projets de machine learning en production . Cas d’usage et mise en production Concevoir un premier cas d’usage de personnalisation de l’expérience utilisateur Déployer les modèles en production sur Google Cloud Mettre en place des tests A/B pour mesurer l’impact des recommandations Assurer le monitoring et l’évaluation des performances des modèles Industrialisation des modèles IA Concevoir et maintenir des pipelines machine learning robustes et scalables Mettre en place les architectures MLOps Exposer les modèles via des API REST (FastAPI ou Flask) Industrialiser les modèles développés par les Data Scientists Mettre en place des workflows CI/CD Architecture et infrastructure data Structurer et organiser le stockage des données Garantir la scalabilité, la sécurité et la stabilité des environnements Déployer des infrastructures via Infrastructure-as-Code (Terraform) Collaborer avec les Data Engineers et équipes techniques Collaboration et amélioration continue Participer aux phases de cadrage, planification et delivery Contribuer à la documentation technique Réaliser une veille technologique sur les technologies ML et IA Appliquer les bonnes pratiques de développement et d’architecture data
Freelance

Mission freelance
Expert Data Engineer – Looker Core

Nicholson SAS
Publiée le
BigQuery
IA
Legacy System Migration Workbench (LSMW)

6 mois
700-850 €
Paris, France
Contexte de la mission Dans le cadre d’un projet stratégique de migration vers le Cloud (« Data Move To Cloud »), vous rejoignez une entité majeure du secteur du transport aérien. Votre rôle sera d’évaluer et d’accompagner l’adoption de Looker Core comme futur standard de Dataviz du groupe. Missions principales Accompagnement de POCs : Piloter le développement technique et soutenir les équipes métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique et structurant sur l'architecture, la sécurité et l'optimisation FinOps liées à l'outil. Acculturation & Pédagogie : Former les utilisateurs finaux et assurer l'interface technique avec les équipes IT (Ops, Architectes). Étude Stratégique : Évaluer la capacité de Looker à répondre aux nouveaux enjeux (analyses ad-hoc, IA conversationnelle) et sa pertinence pour remplacer les solutions legacy (SAP BO, Spotfire). Informations pratiques Lieu : Paris (Rythme hybride : 2 à 3 jours de télétravail / semaine). Démarrage : ASAP. Durée : Jusqu’au 11/11/2026 (Visibilité long terme). TJM : Selon profil (séniorité et expertise) Note : Looker Studio est hors périmètre. Le client cherche un profil expert en Looker Core/ LookML. Looker Studio et ses dérives ne rentrent pas en perspective.
Freelance

Mission freelance
Consultant data tracking & analytics

SMH PARTICIPATION
Publiée le
BigQuery
Google Tag Manager
Javascript

6 mois
100-380 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Au sein de la Direction du Digital et des Systèmes d'Information . Avec l'équipe en charge de la collecte, de la transformation et de la restitution des données collectées sur les canaux digitaux. Nous recherchons une prestation sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery). Objectifs et livrables Exploitation des données Le fonctionnement en mode SAFe implique des livraisons à fréquences régulières. Dans ce cadre, de nouvelles données sont créées en permanence et nécessitent d’être mises à disposition pour répondre aux besoins de reporting. Les missions sont : Collaborer avec les autres membres de l’équipe sur les données nécessaires à la mesure des features : définition des objectifs / KPI’s Accompagner dans la définition des besoins en tracking Recetter les données lorsque la feature est en phase de test Recetter les données après la mise en production de la feature Préparer et ingérer des données dans Big Query (en Node JS) Mise à disposition des données fiabilisées dans Looker Studio Participer à l’analyse des données produites, en tirer des enseignements En complément : Veiller au bon fonctionnement de l’ingestion de données quotidiennes, appliquer un correctif si nécessaire Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train Gérer et optimiser Les notions d’analyse et d’amélioration sont centrales pour accompagner le développement du train, ainsi il est aussi demandé de : Participer à l’analyse des données issues des monitoring afin d’en tirer des enseignements Participer à l’amélioration continue (dans les tracking, les process ou le fonctionnement de l’équipe) Communiquer et proposer Les déploiements en mode agile nécessite une organisation pluri-métier autour de la roadmap du train, la communication avec les autres est une notion clé. Nous recherchons un profil qui : Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features Pour les compétences demandées, il faut créer Piano Analytics à la place de Adobe Analytics
58 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous