Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 116 résultats.
CDI
CDD

Offre d'emploi
Data Engineer / DevOps

OCTOGONE
Publiée le
AWS Cloud
Databricks
DevOps

6 mois
Paris, France
Contexte Le rôle vise à apporter l’expertise nécessaire pour soutenir les projets data et l’écosystème Databricks au sein du Groupe. L’équipe met à disposition des environnements d’évaluation et de test, définit les standards et bonnes pratiques d’usage, et accompagne les entités ayant des besoins spécifiques sur des périodes dédiées. Les interlocuteurs sont principalement des Data Specialists et Data Citizens. Les environnements techniques s’appuient sur Databricks AWS et Azure. Les activités se structurent autour de trois axes : • Data Engineering : développement et opérations data • DevOps / DataOps : déploiement, automatisation, Infrastructure-as-Code, administration des plateformes • Expertise : veille technologique, anticipation des évolutions, test et validation des nouvelles fonctionnalités. Description Dans ce contexte, les responsabilités confiées sont les suivantes : 1. Administrer, surveiller et maintenir les espaces de travail Databricks du COE. 2. Élaborer, documenter et faire évoluer les standards, bonnes pratiques et blueprints groupe. 3. Garantir la qualité et la conformité des services fournis aux entités. 4. Accompagner les équipes métiers et data dans l’adoption de l’écosystème Databricks et leur transition vers les normes groupe. 5. Tester, évaluer et recommander les nouvelles fonctionnalités de l’éditeur ou d’outils complémentaires pour améliorer l’expérience globale. 6. Veiller au respect des politiques groupe et accompagner leur mise en œuvre. 7. Contribuer à la conception et à la réalisation des use cases stratégiques portés par les entités. Livrables Dans ce contexte, les responsabilités confiées sont les suivantes : 1. Administrer, surveiller et maintenir les espaces de travail Databricks du COE. 2. Élaborer, documenter et faire évoluer les standards, bonnes pratiques et blueprints groupe. 3. Garantir la qualité et la conformité des services fournis aux entités. 4. Accompagner les équipes métiers et data dans l’adoption de l’écosystème Databricks et leur transition vers les normes groupe. 5. Tester, évaluer et recommander les nouvelles fonctionnalités de l’éditeur ou d’outils complémentaires pour améliorer l’expérience globale. 6. Veiller au respect des politiques groupe et accompagner leur mise en œuvre. 7. Contribuer à la conception et à la réalisation des use cases stratégiques portés par les entités.
CDI

Offre d'emploi
Data Scientist H/F

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
Business Analyst SharePoint Online – Refonte Intranet (H/F)

RIDCHA DATA
Publiée le
Backlog management
Business Analyst
SharePoint

1 an
Île-de-France, France
Contexte de la mission Dans un contexte international et multi-entités , une grande organisation lance la refonte complète de son intranet basé sur SharePoint Online (Microsoft 365) . L’objectif est de mettre en place une plateforme moderne, unifiée et centrée utilisateur , permettant : un accès simplifié à l’information une meilleure collaboration entre les équipes une communication interne harmonisée à l’échelle mondiale Le Business Analyst jouera un rôle central d’interface entre les équipes métiers, les équipes IT et les parties prenantes internationales afin de garantir que la solution réponde aux besoins fonctionnels tout en respectant les standards du groupe. Objectifs du poste Recueillir et analyser les besoins métiers liés à la refonte de l’intranet. Contribuer à la définition d’une expérience utilisateur cohérente et homogène dans un environnement international. Traduire les besoins métiers en exigences fonctionnelles exploitables par les équipes techniques . Accompagner les métiers tout au long du projet : cadrage, conception, recette et déploiement. Missions principalesAnalyse & cadrage Identifier et cartographier les parties prenantes (métiers, communication, IT, régions/pays). Animer des ateliers de recueil des besoins (workshops, interviews, comités). Analyser les processus existants et identifier les axes d’amélioration. Formaliser les besoins sous forme de : use cases user stories parcours utilisateurs Conception fonctionnelle Rédiger les livrables fonctionnels : expressions de besoins spécifications fonctionnelles backlog produit user stories et critères d’acceptation Définir les modèles de données fonctionnels : métadonnées taxonomies navigation Contribuer à la définition de l’architecture fonctionnelle de l’intranet : sites hubs pages contenus Collaborer avec les UX/UI designers sur l’ergonomie et l’expérience utilisateur. Coordination & suivi Être l’interface entre les équipes métiers et techniques . Travailler avec les équipes techniques sur : SharePoint Online Power Platform SPFx si nécessaire Participer à : la priorisation du backlog la planification des évolutions Accompagner les phases de recette fonctionnelle : stratégie de tests cas de tests UAT Contribuer à la conduite du changement : supports utilisateurs communication interne formations. Contexte international Prendre en compte les enjeux multiculturels et multilingues . Assurer l’alignement entre besoins locaux et standards globaux . Interagir avec des équipes internationales en anglais . Livrables attendus Dossiers de cadrage fonctionnel Spécifications fonctionnelles User stories Parcours et personas utilisateurs Backlog priorisé Cahiers de recette Comptes rendus d’ateliers Environnement fonctionnel & technique Plateforme SharePoint Online (Microsoft 365) Outils associés Microsoft Teams Power Automate Power Apps Viva (Connections, Engage) Azure AD Méthodologie Agile / Scrum Compétences requisesCompétences fonctionnelles Analyse des besoins métiers Modélisation de processus Conception de parcours utilisateurs Rédaction de spécifications fonctionnelles Animation d’ateliers métiers Compétences techniques (non développement) Très bonne connaissance de SharePoint Online architecture sites métadonnées gouvernance Bonne compréhension de l’écosystème Microsoft 365 Sensibilité UX et ergonomie digitale Compétences comportementales Excellentes capacités de communication Esprit de synthèse Capacité à structurer l’information Autonomie et rigueur Sens du service Capacité à évoluer dans un environnement international Langues Anglais professionnel courant indispensable Français requis
Freelance

Mission freelance
Lead Developer / Architecte Java 17+ & IA – Strasbourg

Tenth Revolution Group
Publiée le
IA
Java

2 ans
450-550 €
Strasbourg, Grand Est
Lead Developer / Architecte Java 17+ & IA – Strasbourg Le Poste Contrat : CDI / Long terme (Missions de +2 ans). Localisation : Strasbourg. Rythme : Hybride (3 jours de télétravail / 2 jours sur site). Missions & Responsabilités Stratégie Technique : Pilotage du développement et choix d'architectures pérennes sur applications critiques. Management : Encadrement technique et coaching d'une équipe en environnement Agile. Interface Métier : Traduction des besoins business en solutions techniques à forte valeur ajoutée. Expertise IA : Intégration d'outils d'IA générative (Copilot) dans le workflow de production. Performance : Optimisation des processus de delivery et résolution de problématiques complexes (systèmes distribués). Stack Technique Langage : Java 17+ (Expertise requise). Outils IA : IA générative appliquée au développement. Méthodes : Scrum, Kanban, DevSecOps. Projets : Modernisation de systèmes critiques, migrations technologiques, architectures distribuées. Avantages & Conditions Visibilité : Engagement sur le long terme avec des projets structurants. Process de recrutement : Court (1 échange RH + 1 entretien technique final). Package : Rémunération alignée sur l'expertise et le marché actuel. Flexibilité : Équilibre présentiel/distanciel garanti.
Freelance
CDI

Offre d'emploi
Data Engineer GCP / Spark – Plateforme Data (H/F)

Etixway
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
40k-65k €
400-600 €
Paris, France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur des médias, nous recherchons un Data Engineer confirmé pour intervenir au cœur d’une plateforme data stratégique. Tu rejoindras une équipe en charge de la collecte, la centralisation et la transformation de données issues de sources hétérogènes , avec des enjeux forts de volumétrie, de performance et de qualité. Tes principales missions : Concevoir, développer et maintenir des pipelines data robustes et scalables Assurer l’ ingestion et la transformation de données multi-sources Optimiser les performances des traitements (Spark / SQL) Orchestrer les flux de données via Airflow Structurer et organiser le stockage des données Participer à l’ industrialisation des traitements (CI/CD, infrastructure) Garantir la qualité, la sécurité et la fiabilité des données Contribuer aux échanges techniques et à l’amélioration continue des pratiques
Freelance

Mission freelance
Data engineering senior

LeHibou
Publiée le
Azure
Databricks
Python

6 mois
600-650 €
Paris, France
Contexte de la mission Notre client est un grand groupe international du secteur de l’énergie, présent sur plusieurs activités : énergies conventionnelles, biocarburants, gaz, énergies renouvelables et électricité. Son entité digitale interne regroupe plusieurs centaines de collaborateurs, répartis en plusieurs squads pluridisciplinaires et implantés dans de nombreux pays. Elle a pour vocation d’accélérer la production interne de solutions digitales au service des différentes activités du groupe. Elle combine l’agilité et l’esprit pionnier d’une organisation technologique avec la robustesse et la rigueur d’une structure de production à grande échelle. Elle conçoit et déploie des solutions digitales sur l’ensemble des sites du groupe afin de contribuer à une énergie plus propre, fiable et accessible. Objectifs et livrables Contexte du produit Au sein de l’entité digitale du client (environ 30 squads), le prestataire intègre une équipe produit pluridisciplinaire pour apporter son expertise sur la conception et le déploiement de pipelines de données complexes. Il intervient dans un environnement Agile mature, soutenu par des experts (Coachs Craft, Chapter Leads, Architectes) pour se concentrer sur la qualité logicielle et la performance des flux. But principal Le prestataire a pour mission de concevoir, développer et industrialiser les solutions de données du produit, en garantissant une architecture scalable, maintenable et conforme aux standards de l’organisation. Missions & Responsabilités (Expertise) • Ingénierie & Développement : o Concevoir et développer des pipelines de données robustes et performantes o Participer à la conception et mettre en œuvre des architectures de données répondant aux besoins du produit o Garantir la qualité du code grâce aux principes de Clean Code, DDD et les peer-reviews o Contribuer à la documentation du produit sur les aspects liés à la data • Industrialisation : o Contribuer à l'observabilité des flux (monitoring, alerting, logs) o Optimiser les performances des traitements et les coûts d'infrastructure (FinOps Data) o Garantir la sécurité et la conformité des données manipulées • Support Technique & Expertise : o Communiquer efficacement avec le métier et traduire le besoin business en besoin technique o Apporter un éclairage technique sur la faisabilité des user stories lors des rituels agiles o Résoudre et prévenir les incidents en production o Participer vivement au travail collectif et interagir avec les rôles transverses o Contribuer activement à la communauté (Chapter) pour partager les retours d'expérience techniques, les bonnes pratiques, etc.
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Freelance

Mission freelance
Architecte DATA Modélisation - Assurance

CAT-AMANIA
Publiée le
MEGA HOPEX
TOGAF
UML

3 ans
550-710 €
Île-de-France, France
Nous recherchons un Architecte Data / Expert en Modélisation pour rejoindre une équipe d'Architecture Solutions SI. Votre mission consistera à définir l’architecture de données des projets stratégiques, en assurant la cohérence entre les besoins métiers et les objectifs de rationalisation du système d'information. Vos principales missions : Réaliser la modélisation fonctionnelle des objets métiers (MFC) à partir des modèles de référence. Assurer la mise à jour de la cartographie applicative et data sous Mega HOPEX . Accompagner les équipes de développement dans la déclinaison des modèles logiques (MLD) et physiques (MPD). Produire les dossiers d'architecture et porter les engagements techniques lors des comités de validation. Animer la communauté architecture et participer à l'acculturation des équipes aux normes de données. Environnement technique & méthodologique : Méthodes : TOGAF, UML, Merise. Frameworks : Scrum, Safe, Cycle en V. Écosystème : Java, Environnements Mainframe (Cobol/DB2) et Open (Oracle, PostgreSQL), Big Data (Cloudera), DataGalaxy.
CDD

Offre d'emploi
DEVELOPPEUR(SE) BACK .NET - Clean Architecture - Confirmé (4-10 ans) F/H

SMARTPOINT
Publiée le
.NET
.NET CORE
Data cleaning

12 mois
40k-45k €
100 €
Châtillon, Île-de-France
ANALYSE : Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT : Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION : Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE : Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production
Freelance

Mission freelance
SAP Data Migration Manager – End-to-End

Xcede Limited
Publiée le
Data management
Data Strategy
Migration

12 mois
Paris, France
Nous recherchons un Responsable de la Migration de Données SAP parlant français et anglais pour piloter les activités de migration de données de bout en bout dans le cadre d’un programme stratégique SAP ! Responsabilités Définir et piloter la stratégie de migration des données SAP Gérer l’ensemble du cycle de vie de la migration : extraction, nettoyage, mapping, conversion, chargement et validation des données Coordonner les équipes fonctionnelles, techniques et métiers Garantir la qualité, la cohérence et l’intégrité des données Superviser les outils et méthodologies de migration Suivre les risques, les délais et les livrables liés aux données Une expérience en PLM (Product Lifecycle Management) est un plus. Si cette opportunité vous intéresse, envoyez votre CV à ou cliquez sur « Postuler maintenant » !
Freelance
CDI

Offre d'emploi
Data Product manager

ANDEMA
Publiée le
Microsoft Power BI

6 mois
40k-63k €
450-500 €
Lille, Hauts-de-France
Raison d’être du poste : Le Data Product Manager assure l'interface stratégique et opérationnelle entre les Data Owners métier et l'équipe technique Data. Sa mission est de transformer la donnée issue des différents systèmes en produits analytiques performants pour piloter l'offre, l'impact scientifique du client et les processus d'accréditations internationales. Expert en modélisation Power BI, il garantit la fiabilité des indicateurs et la sécurité des accès, tout en challengeant les besoins métiers pour maximiser la valeur ajoutée des solutions déployées Finalités et Résultats Attendus : 1. Analyse, modélisation et structuration des données Analyser les modèles de données des différentes applications contributrices (sources de données ou consommatrices/cibles de données) Modéliser les données métiers (programmes, faculté, recherche et accréditations) dans un modèle commun ‘SKEMA’, développer des data products (PowerBI et autres) répondant aux besoins métier et maintenir le modèle sémantique de l'école. Définir et gérer la gouvernance des accès et la sécurité des données (Row Level Security) pour chaque data product. 2. Conception et développement des data products Ecrire les spécifications techniques pour les opérations de manipulation de données Documenter les logiques métier de transformation Comprendre, piloter les flux d’intégration et de transformation de données (Azure Data Factory, Synapse, PowerBI [demain Fabric / Databricks ou autres]) Développer les data products en lien avec les data owners et les équipes data Tester et valider la cohérence des flux de données entre les systèmes producteurs et les data products finaux. Suivre l’adoption des data products (usage, accès …) 3. Qualité et fiabilité des données Direction des Ressources Humaines Participer aux projets de migration et de mise en qualité des données entre systèmes applicatifs afin d’identifier les impacts sur le périmètre des data products concernés. Assurer la fiabilité des données, les contrôles de cohérence et participer au support technique associé des data products. 4. Structuration de la plateforme Data Avoir une compréhension d’une data plateforme et d’une modélisation médaillon Piloter la mise à disposition de donnée dans la data plateforme pour permettre la réalisation des data products. 5. Collaboration et accompagnement Savoir faire le pont entre les équipes métiers (vulgarisation des concepts) et les équipes techniques pour l’évolution des usages data Animer la communauté des data owner de l’univers « Offre d'enseignement & Impact scientifique » Environnement data : Modélisation de donnée • Power BI • Fabrics (est un plus) • Synapse / Azure (est un plus) • Databricks (est un plus) • Git, DevOps • SQL
CDI

Offre d'emploi
Data Scientist | Machine Learning

█ █ █ █ █ █ █
Publiée le
Data management
Deep Learning
Git

Réau, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer Snowflake (h/f)

emagine Consulting SARL
Publiée le

1 mois
111 €
92000, Nanterre, Île-de-France
Nous recherchons un Data Engineer pour rejoindre une équipe dynamique. Ce rôle exige une expertise confirmée sur Snowflake et comprend le développement d'applications data pour explorer les insights et améliorer l'expérience client. Vos missions: Développement d’applications data pour explorer les insights et améliorer l’expérience client. Création de dashboards (Tableau) pour des analyses claires et pertinentes. Transformation et modélisation des données (dbt, Snowflake) en collaboration avec les data engineers. Optimisation des performances (rapidité, fiabilité des requêtes). Gestion des ressources cloud pour maîtriser les coûts. Conception UI/UX pour des interfaces intuitives et engageantes. Définition des exigences techniques pour la mise en production. Votre profil: Expérience Snowflake (obligatoire), Excellent sur python, SQL Tableau software gros plus Expérience de data engineer (minium 5 ans), capacité à prendre le lead, très bon communicant Anglais opérationnel Expérience souhaitée sur le traitement de données IA
CDI
Freelance

Offre d'emploi
Chef de projet/IA Générative/Amazon Connect

OBJECTWARE
Publiée le
Agent IA
GenAI

3 ans
40k-69k €
330-520 €
Île-de-France, France
MISSION Périmètre applicatif : Intégration des solutions d’intelligence artificielle dans la nouvelle plateforme téléphonique Amazon Connect. Exigences Techniques 1. Maîtrise de la plateforme Amazon Connect • Expérience significative sur la mise en œuvre et l’exploitation d’Amazon Connect (CCaaS) en environnement de production. • Maîtrise des flows Amazon Connect complexes et du routage multicanal (voix, email, chat, callback). • Capacité à intégrer et exploiter les fonctionnalités natives IA d’Amazon Connect dans une logique native-first. 2. Expertise en IA Générative et IA agentique • Expérience confirmée sur des solutions d’IA générative appliquées à la relation client. • Capacité à configurer et industrialiser des assistants IA pour : o L’assistance au conseiller (Agent Assist / Co-bot). o L’automatisation post-interaction (synthèse d’appel, mémento, catégorisation). o Les usages autonomes (Mailbot, Voicebot). • Maîtrise des mécanismes de prompt, de contextualisation et de garde-fous IA (sécurité, conformité, qualité de réponse). 3. Architecture et intégration SI • Capacité à concevoir une architecture cible intégrée avec : o Le CRM, o Les outils conseillers, o Le SI relation client et les référentiels de données. • Maîtrise des intégrations via API, événements et flux temps réel. • Mise en œuvre de la traçabilité et de la journalisation des interactions et décisions IA. 4. Data, contextualisation et qualité • Capacité à exploiter les données client et interactionnelles pour enrichir les réponses IA. • Mise en place de mécanismes de codification des motifs d’appel et de restitution structurée dans le SI. • Prise en compte des enjeux de qualité des données et de cohérence métier. 5. Sécurité, observabilité et performance • Mise en place d’outils de monitoring, d’alerting et de supervision des services IA. • Suivi de la performance des modèles et des usages IA. • Prise en compte des enjeux de coûts, d’optimisation financière et de pilotage à l’usage (FinOps). Exigences Fonctionnelles 1. Compréhension des enjeux métier Relation Client • Expérience sur des projets de transformation de la relation client à forte volumétrie. • Capacité à adresser conjointement : o L’amélioration de l’expérience client, o L’augmentation de la productivité et du confort des conseillers, o Le développement du selfcare et de l’IA autonome. 2. Connaissance du contexte organisationnel et réglementaire • Capacité à s’inscrire dans un cadre de gouvernance structuré et multi-instances. • Prise en compte des exigences réglementaires, de conformité et des validations internes. • Capacité à travailler avec des équipes métiers, IT, data et sécurité. 3. Approche de standardisation et passage à l’échelle • Capacité à privilégier les fonctionnalités standards et natives de la plateforme. • Limitation des développements spécifiques au strict nécessaire. • Conception de solutions réplicables et industrialisables sur plusieurs périmètres métiers. 4. Conduite du changement et adoption • Expérience dans l’accompagnement des utilisateurs finaux (conseillers, managers). • Capacité à déployer les solutions par vagues successives. • Production de supports d’appropriation et de démonstrateurs favorisant l’adoption. 5. Pilotage par la valeur et co-construction • Capacité à prioriser les cas d’usage en fonction de la valeur métier. • Approche itérative de type test & learn. • Inscription dans une trajectoire pluriannuelle de transformation IA.
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Taches principales - activités BI - Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage - Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers - Présenter les résultats aux équipes métiers - Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital - Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue Une connaissance fonctionnelle de l’analyse data dans le domaine bancaire pour apporter un regard critique et répondre aux problématiques d’analyse de donnée des métiers Evolutions des activités en temps 2 – activités data digital (tracking et data analyse associée) : - Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage - Réaliser les spécifications et recettes du tracking - Collecter et extraire les données nécessaires à l’analyse - Construire des tableaux de bord - Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. - Présenter le rendu aux squads métiers. En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI), Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées. Il sera également demandé à l’intervenant/e externe d'intervenir sur les activités Digital en lien avec la Données pour garantir la réussite du Pilotage des Parcours web : Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey, Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses. Outil de Data Visualisation (Expert) : Microstrategy étant un plus (ou connaissance Power Bi, Tableau) Langage : SQL (expert) Apprécié : Data & Digital Logiciel d'analyse de la donnée pour le Tracking (type Tag Commander, Piano Analytics) Analyse Comportementale utilisateur.
CDI

Offre d'emploi
ALTERNANCE - Data Scientist (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Python
SQL

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

4116 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous