L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 749 résultats.
Offre d'emploi
Expert Google Workspace Data & IA
Management Square
Publiée le
BigQuery
Google Workspace
IA Générative
1 an
47k-55k €
480-530 €
Niort, Nouvelle-Aquitaine
Expert Senior Google Workspace, Data & IA Contexte de la mission : Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
Offre d'emploi
Business Analyst DATA
OBJECTWARE
Publiée le
Audit
MySQL
1 an
Île-de-France, France
🎯 Contexte Dans le cadre d'un programme de transformation en profondeur de nos référentiels d’entreprise, nous recherchons un Business Analyst DATA Objectif : 👉 Rationaliser les données, moderniser les outils et refondre les processus de construction des produits d’assurance. Le programme comprend plusieurs chantiers : Refonte des modèles de données Refonte des processus internes Décommissionnement / nettoyage des systèmes obsolètes Audit des systèmes existants (documents, bases de données, interfaces techniques) Accompagnement des directions métier dans la digitalisation des processus : Refonte complète du processus de construction d’un produit d’assurance (actuellement basé sur Excel / Word) vers une application digitale transverse. 🎯 Mission Au sein d’une équipe programme (6 personnes, entre MOA et experts IT), le consultant interviendra sur : Animation d’ateliers et accompagnement des directions métier Analyse des référentiels et schémas de données Audit des systèmes existants Collaboration avec les équipes IT et directions métier Participation à la refonte des modèles de données Contribution à la mise en place d’un outil de gestion des processus d’administration des données Propositions de feuilles de route et recommandations 🔹 Compétences techniques Maîtrise SQL Capacité à naviguer dans des schémas de bases de données Connaissance API / ETL Compréhension des flux de données Expérience audit systèmes / analyse documentaire appréciée Si possible : sensibilité à la construction d’interfaces ou d’outillage maison Connaissance d’EBX appréciée mais non obligatoire. 🔹 Compétences fonctionnelles & comportementales Forte capacité de collaboration transverse À l’aise avec les directions métier Capacité à challenger et faire évoluer les pratiques Dynamique, moteur Capacité de synthèse pour la propositions de feuilles de route 🔹 Connaissance métier Connaissance du secteur assurance fortement appréciée Compréhension du cycle de vie produit assurance = vrai plus
Mission freelance
Architecte DATA
Codezys
Publiée le
Python
SQL
Teradata
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d'une phase de transformation visant à adopter un modèle axé sur les données (Data Centric) et de définition d'une stratégie Data, le client met en œuvre une nouvelle plateforme Data Régime pour répondre à ses besoins. Un programme dédié à cette plateforme a été lancé fin 2025. Au premier trimestre 2026, des Proofs of Concept (POC) sont en cours afin de sélectionner la future plateforme Data. Le client recherche une prestation en architecture Data pour l’accompagner dans la définition de l’architecture cible et la mise en œuvre de cette nouvelle plateforme au sein d’un écosystème existant. Objectifs et livrables Le consultant intervenant aura pour mission de définir, concevoir et accompagner la construction de l’architecture cible Data. Ses principales responsabilités seront : Définir l’architecture cible Data : Concevoir une architecture alignée avec la stratégie globale Data et les principes Data-Centric, en déterminant les patterns d’intégration ainsi que les couches fonctionnelles de la plateforme (inclusion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : Élaborer l’architecture technique globale en intégrant l’écosystème existant (tels que Teradata, Hadoop) et en tenant compte des stratégies d’évolution (cloud ou on-premise, gouvernance, scalabilité). Proposer une trajectoire d’évolution permettant la transition vers cette nouvelle plateforme, incluant stratégie de migration, coexistence et déploiement par phases. Modélisation et harmonisation des données : Définir des modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossaire). Établir les principes de modélisation adaptés aux usages, qu'ils soient analytiques, opérationnels ou liés à des data products. Data Products & accompagnement métier : Soutenir les équipes métiers dans la conception et la structuration des data products, en veillant à leur cohérence avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : Élaborer les standards d’intégration, de transformation, de stockage et d’exposition des données. Formaliser les bonnes pratiques concernant les outils de l’écosystème, notamment ceux liés à l’ingestion, à la qualité, à l’orchestration, au catalogage et à la gouvernance.
Offre d'emploi
Architecte Data (H/F)
CITECH
Publiée le
Data analysis
Microsoft Power BI
Teradata
40k-70k €
Lyon, Auvergne-Rhône-Alpes
Description de l'entreprise 🚀 CITECH recrute ! 🚀 ✨ Vous souhaitez mettre vos compétences techniques au service d’un projet d’envergure au sein d'un écosystème complexe et stratégique ? Alors cette mission est faite pour vous ! Nous recherchons un(e) Architecte Data Sénior (H/F) pour renforcer le Pôle Projets de la DSI de l’un de nos clients majeurs, acteur de référence dans le secteur de la protection sociale. 🙌🔽 Vos missions seront les suivantes : 🔸 Concevoir l'architecture cible de la plateforme Data en maîtrisant les patterns d'injection, de stockage, de transformation et d'exposition 🔸 Réaliser la modélisation des données (conceptuelle, logique et physique) dans une approche "Data Centric" 🔸 Assurer l'urbanisation des produits Data tout en garantissant l'harmonisation et la rationalisation des modèles 🔸 Définir les standards, les normes de qualité (typage, granularité) et les bonnes pratiques architecturales 🔸 Accompagner, communiquer et assurer l'alignement entre les différents acteurs métiers et techniques 🔸 Produire la documentation technique de référence (cahier des charges, schémas d'architecture) et assurer le transfert de compétences
Offre d'emploi
Data Engineer / Data Analyst F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Python
Scrum
SQL
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Analyst Lead
SARIEL
Publiée le
Animation
Data analysis
KPI
12 mois
55k-76k €
430-580 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un Data Analyst Expert (>10 ans). Objectif global : Concevoir Renforcer l'expertise ce conception data et de gouvernance des données Compétences techniques Connaissance de la grande distribution - Confirmé - Impératif Modélisation des données - Confirmé - Important Analyse de données - Confirmé - Important Conception de solutions data - Confirmé - Important Description détaillée Fiche mission – Data Analyst Lead (Prestation) Contexte de la mission Nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts.. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertiss-en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Mission freelance
Data Scientist Gen.AI (h/f)
emagine Consulting SARL
Publiée le
1 mois
111 €
Bacoor, Philippines
Nous recherchons un Data Scientist Gen AI pour contribuer au développement de solutions innovantes basées sur l'IA générative. Le candidat idéal doit posséder une expertise en IA générative et en machine learning, ainsi qu'une aptitude avérée à créer des applications conversationnelles efficaces dans un cadre international. Missions principales : Concevoir et développer des solutions conversationnelles basées sur des modèles d’IA générative. Participer à l’architecture technique et au choix des frameworks tels que les LLMs, orchestration, RAG et fine-tuning. Implémenter des systèmes agentiques lorsque pertinent, y compris des multi-agents, l’utilisation d'outils et des chaînes de raisonnement. Mettre en place des pipelines robustes pour la collecte de données, la vectorisation, le monitoring et l’évaluation. Optimiser la performance, la fiabilité et la sécurité des réponses générées par les systèmes. Collaborer activement avec les équipes interfonctionnelles pour atteindre les objectifs de projet. Profil recherché : Anglais opérationnel pour un contexte international. Expérience confirmée en IA générative. Compétences confirmées en machine learning. Expérience sur le développement de solutions conversationnelles.
Offre d'emploi
Data Engineer Snowflake
KLETA
Publiée le
DBT
Snowflake
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Data Engineer/Architecte
OBJECTWARE
Publiée le
Apache Spark
AWS Cloud
DBT
3 ans
41k-91k €
400-710 €
Île-de-France, France
Missions principales Conception et optimisation de pipelines de données à grande échelle (batch, streaming, API) Structuration des données selon le modèle Médaillon (Bronze / Silver / Gold) Développement et industrialisation via DBT, Spark et Iceberg Orchestration des workflows ETL/ELT via Airflow Déploiement cloud sur AWS et infrastructure as code avec Terraform Conteneurisation des traitements ( Docker, Kubernetes ) Supervision, observabilité, gestion des incidents et qualité des données Documentation et conformité RGPD Accompagnement de profils juniors
Mission freelance
Business Analysis Market Data - Paris
Net technologie
Publiée le
Business Analyst
Market data
6 mois
Paris, France
Objectifs de la mission Gestion de projet / Business Analysis accès marché Suivi des migrations marchés et des demandes métiers sur les outils de passages d'ordres et de market data. - Analyse des impacts (techniques, fonctionnels, régulateurs et interne) des migrations marchés ou des demandes métiers sur les outils de passages d'ordres et de market data - Suivi avec toutes les équipes impactées (developpement, Production, Middle Office, Referentiel, Reporting, Regulatory, Trading Support, Trading,...) - Rédaction des spécifications à destination des équipes de développement - Suivi des développements - Etablissement des procédures de test en concertation avec l'équipe de QA - Suivi des déploiements en production en concertation avec les équipes de production en tenant compte des différentes contraintes (chronologie, versions, calendrier,...)
Mission freelance
Data ingénieur spécialiste DBT / Data Build Tool (H/F)
ALLEGIS GROUP
Publiée le
DBT
12 mois
Yvelines, France
TEKsystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur spécialiste DBT / Data Build Tool (H/F) Vos missions : Concevoir et mettre en œuvre des plateformes de données modernes Industrialiser et optimiser des solutions techniques Développer et maintenir des pipelines de données efficaces, du sourcing à la visualisation (ingestion, traitement, exposition) Assurer la qualité et la sécurité des données tout au long de leur cycle de vie Collaborer avec les équipes métier pour comprendre les besoins et fournir des solutions data adaptées Évaluer et recommander des technologies émergentes pour améliorer les capacités de la plateforme data Dans l’environnement technique suivant (cette liste n’est pas exhaustive et surtout, elle indique les technos qui nous intéressent !) :
Mission freelance
Data Engineer Nantes/pa
WorldWide People
Publiée le
Scripting
12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Mission freelance
101005/Data Analyst Nantes - langage Python et du PySpark.
WorldWide People
Publiée le
PySpark
Python
12 mois
400-500 €
Nantes, Pays de la Loire
Data Analyst Nantes - langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel. Contexte : Notre client, acteur du secteur du transport, recherche un data analyste senior pour une mission stratégique. Le profil devra collaborer avec le PPO Data pour cadrer des analyses et tableaux de bord à destination des métiers. Il sera force de proposition pour les plans d'analyses ad hoc et l'identification de problématiques métiers résolubles par la data. Responsabilités : - Comprendre et modéliser les problématiques métier et celles du pôle. - Définir avec justesse le périmètre des données nécessaires à la solution technique. - Concevoir et développer des modèles de machine learning. - Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables. - Créer des visualisations appropriées aux besoins cartographiques si nécessaire. - Estimer la charge à allouer aux différents traitements et actions techniques prévus. - Optimiser le modèle de donnée des projets data de l’équipe. - Développer des scripts Python optimisés. - Créer les tables ou vues nécessaires aux projets data de l’équipe. - Échanger avec les ops de la Team Data pour l'industrialisation de la collecte, des traitements, de la supervision et de la restitution des données. - Réaliser des plans d’analyse data. - Expliquer le sens des informations exploitables en termes pertinents pour les métiers. - Conceptualiser et développer autour d’une problématique métier. - Communiquer les informations en soulignant la valeur des actions. - Formaliser les résultats d’analyse et les présenter aux métiers commanditaires. - Être force de proposition sur la mise en place d’actions pertinentes en fonction des résultats d’analyses et des conclusions (préconisations). La mission nécessite : - Maîtrise du langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel.
Offre d'emploi
Data Engineer Kubernetes
KLETA
Publiée le
Helm
Kubernetes
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
DATA ANALYSTE DATASCIENCE SENIOR
KEONI CONSULTING
Publiée le
Data analysis
Python
SQL
18 mois
40k-45k €
400-550 €
Gradignan, Nouvelle-Aquitaine
CONTEXTE Nous recherchons pour notre client un profil analyste DATA afin d'intégrer l'équipe Analyse de la Donnée. Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ . Fort d'une expérience DATA, le prestataire devra également montrer une appétance particulière dans le domaine fonctionnel MISSIONS - Mise en oeuvre de cas d'usage métiers par croisement de la donnée ( ciblage , analyse de donnée ou datascience ) - Développement et maintenance de produits DATA réutilisables - Publication des résultats d'analyse avec de la DATAVIZ - Respect des normes et bonnes pratiques au sein de l'équipe - Accompagnement et acculturation des équipes métiers ou autres" Définition des prestations attendues : Prestation d'analyse DATA et DATASCIENCE Préciser la technologie ou les certifications attendues : Python, Pyspark,SQL,Dataviz, Datascience " Livrables attendus "Programme DATA sous plateforme DATA Dataviz Présentation PPT de resultats d'etude Environnement technique - technologique "Plateforme : BIG DATA Hadoop (CLOUDERA) Langages : Python, PySPARK, SQL Restitution : PowerBI (dataset, dataflow, rapports) Compétences techniques attendues Connaissances en environnement BIG DATA ( python , Pyspark) Requêtage SQL Exposition des données par DATAVIZ Experience en analyse DATA et projet de DATAscience
Offre d'emploi
Data Quality / VBA Developer (H/F)
OMICRONE
Publiée le
Microsoft Access
Microsoft Excel
Microsoft Power BI
2 ans
40k-45k €
400 €
Île-de-France, France
📢 Mission – Data Quality / VBA Developer (H/F) Dans le cadre d’un programme de transformation data au sein d’un grand groupe bancaire, nous recherchons un consultant confirmé en VBA / Data Quality pour intervenir sur des sujets de réconciliation de données et automatisation de processus . 🔹 Missions : Maintenance et évolution de scripts VBA (Excel / Access) Pilotage des processus de réconciliation de données Exécution et suivi de bulk data Administration et migration SharePoint Online Suivi des incidents et amélioration des processus 🔹 Environnement technique : VBA, Excel, Access, SQL, PowerShell, SharePoint Online, ServiceNow, Power BI 📍 Localisation : France (présentiel + télétravail) 📅 Démarrage : Avril 2026 👤 Expérience : 3 ans minimum
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5749 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois