L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 518 résultats.
Offre d'emploi
Data Analyst
Publiée le
Pandas
PySpark
1 an
Île-de-France, France
Mission ne convient pas à un data scientist Compétences OBLIGATOIRES : Guru en PySpark Très bonne maitrise de Tableau et de Panda. Capacité d'analyse, bon niveau statistique. Démarrage : ASAP Experience : 4/5ans min Dans le cadre de ce besoin : En tant que consultant data au sein de la Cellule du Qualité de Fixe (CQF) de Bouygues Telecom, vous serez en charge de produire des analyses à partir de dataset que vous aurez constitués sur des données de nos plateformes Big Data, Vous aurez également la responsabilité de rendre disponible des données, une fois celles-ci nettoyées, préparées et formatées sous forme de dataset ou de table à disposition des datascientists de l'équipe. Vous aurez à développer des tableaux de bord de suivi de KP.. Vous serez en charge de : -L'exploitation de la plateforme Big Data de monitoring Wifi des Box : A ce titre vous aurez la charge : -Du monitoring des principaux KPI du système et la misé en œuvre des nouveaux KPI -Des investigations lors d'incident : Vous déclencherez et piloterez le fournisseur et / ou les autres entités de Bytel contribuant à son bon fonctionnement. -Vous serez le garant de mise à disposition des données issues du cluster HDFS. Vous aurez des scripts Scala / Spark à développer pour toute évolution à la demande de l'équipe Datascience ou en fonction des évolutions du système. -Vous assurez la mise en œuvre des politiques de sécurités et de sauvegarde, et appliquer tout patch ou correctif nécessaire à cette intégrité. -Du pilotage des fournisseurs externes et internes pour les évolutions de la plateforme, que ces évolutions portent sur le hardware, les applicatifs, ou l'architecture réseau. La data ingénierie et l'exploitation de la plateforme Data en architecture de type microservices, basée sur Kubernetes et OpenShift. Vos tâches seront de : -Assurer la supervision et débogage du système via Openshift -S’assurer du bon fonctionnement des applicatifs (Spark, MinIo, Jhub, MySQL, Airflow) -Contrôler les volumes et consommations Hardware de la plateforme -Débugger les pods en cas d’erreur -Assurer l’écriture des graphes Helm pour les déploiements applicatifs -Ecriture de charts Helm pour le déploiement de nouveaux applicatifs -Tester les nouveaux graphes sur la plateforme de test -Déployer et patcher les applicatifs déjà existants avec Helm -Assurer la pérennité de la plateforme en gérant efficacement les images et graphes via GitLab -Assurer la gestion des utilisateurs et des règles de gestion du Datalake -Gestion des buckets et utilisateurs -Création de points de stockage et destis règles de gestion associées -Création de scripts pour le stockage de Parquets -Assurer le fonctionnement du déploiement continu avec GitLab -Administration des images de production Gitlab et DockerHub En résumé : Guru en PySpark et très bonne maitrise de Tableau et de Panda. Avec une capacité d'analyse, bon niveau statistique. Amené à faire du développement descriptif de requête pour diffuser des KPI sous forme de dashboard Tableau.
Mission freelance
Intermediate Data Engineer
Publiée le
API
AWS Cloud
Big Data
12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Mission freelance
Consultant SIRH Data Pléiades
Publiée le
Big Data
PLEIADES
SIRH
6 mois
Île-de-France, France
Télétravail partiel
Missions principales : • Recueil & cadrage des besoins : Identifier et formaliser les besoins métiers du contrôle de gestion concernant les Data RH. Définir les indicateurs clés RH (effectifs, absentéisme, turnover, masse salariale, etc.). Prioriser les besoins en fonction des enjeux stratégiques. • Spécifications fonctionnelles : rédiger les spécifications fonctionnelles d’extraction et de transformation des données RH (Pléiades, Sopra, Horoquartz). Documenter les règles de gestion existantes et à mettre en place. Formaliser un dictionnaire de données RH partagé et pérenne. • Collaboration avec les équipes Data : travailler en étroite relation avec les équipes Data/BI en charge de la réalisation technique (Microsoft Fabric, Power BI). Assurer la cohérence et la qualité des données intégrées au Data Lake. Participer à la recette fonctionnelle des flux et des tableaux de bord RH. • Contribution à la gouvernance Data RH : Structurer les processus de mise à jour et de documentation. Contribuer à la démocratisation et à l’accès sécurisé des données RH.
Offre d'emploi
Consultant Administrateur Applicatif BI / Data
Publiée le
Microsoft Power BI
Qlik Sense
Sap BO
Paris, France
Télétravail partiel
Le département Data & Applications Métier pilote la conception, le déploiement et la maintenance des solutions de reporting et d’analyse du groupe. Les environnements décisionnels reposent sur SAP BO, BODS, HANA, avec une migration en cours vers GCP / BigQuery. L’objectif est de renforcer l’équipe avec un administrateur applicatif BI confirmé, capable d’assurer la supervision, l’administration et les déploiements sur les plateformes actuelles et d’accompagner la migration vers le cloud. Missions principales Administrer et superviser les plateformes décisionnelles (SAP BO, BODS, HANA, et à terme GCP/BigQuery). Surveiller les traitements et automatisations (batchs, alimentations, planifications). Gérer les accès, habilitations et déploiements applicatifs. Diagnostiquer et corriger les incidents applicatifs (niveau 2/3). Participer à la définition du monitoring et des bonnes pratiques sur les environnements Cloud. Proposer des optimisations (performance, automatisation, qualité des données).
Offre d'emploi
Chef de projet data
Publiée le
Data analysis
Gestion de projet
40k-55k €
Levallois-Perret, Île-de-France
Télétravail partiel
Organiser deux programmes data de la tribe IT Data PF: - Programme de transformation des solutions data analytics (stream Technologies) - Programme de définition du plan stratégique data 2027-2030 Ces deux programmes se réalisent dans un cadre méthologique Agile et le poste recherché est un Opus Owner qui va travailler avec les Product Owner/Squad et Centre d'expertises en transversal afin de structurer et animer la backlog de ces deux programmes. - Programme de transformation des solutions data analytics (stream Technologies) - 90% du temps En support du stream leader technologie: cadrer le besoin autour des plateformes data, traduire en exigence produit, budgétiser, planifier, préparer l'exécution du programme, des intéractions entre squads plateformes et produit - Programme de définition du plan stratégique data 2027-2030 - 10% du temps Structuration du stream, animation d'une communauté internationale, formalisation stratégie La mission concerne le cadrage et pourra s'étendre à l'exécution des programmes. Le poste est rattaché à l'IT Tribe Lead data.
Offre d'emploi
Data Engineer
Publiée le
Azure Data Factory
Big Data
1 an
49k-55k €
400-550 €
Île-de-France, France
Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.
Mission freelance
chef de projet technique infrastructure systèmes Microsoft - AD
Publiée le
Chef
Infrastructure
microsoft
24 mois
325-650 €
Corbeil-Essonnes, Île-de-France
Télétravail partiel
Nous recherchons un(e) chef de projet technique infrastructure systèmes Microsoft - AD L'objectif consiste à permettre la migration des applications vers un annuaire cible via des conseils en amont sur l'adaptation des applications (comptes de services, GPO, …) et sur l'analyse et traitement des incidents post-migration. Ces migrations se feront dans le contexte suivant : - Une période de trust bidirectionnelle pour migrer (jalon Juin 2024) - Un Hardening est mis en place sur le domaine cible par GPO - La DSI s'appuie sur un intégrateur qui migre les objets. L'intégrateur prendra en charge des actions manuelles simples complémentaires lors de la migration des serveurs à partir du moment où elles auront été documentées. Remarque : Il n'y aura pas de renommage des comptes et des groupes dans le cadre de la migration, seul les nouveaux objets devront respecter la nouvelle convention de nommage. Le parc applicatif comporte environ un millier d'applications pilotées par environ 450 Applications Owners : - Seulement certaines applications ont des environnements hors prod; - Certains Application Owners maitrisent leurs applications et d'autres moins. Certains Application Owners s'appuient sur une TMA externe; - Certaines applications sont documentées et d'autres moins; - Certaines applications s'appuient sur l'AD pour l'authentification; et d'autres non. l'objectif est de proposer un accompagnement technique auprès des responsables d'applications et product owner leur permettant d'identifier les impacts et les évolutions à mener sur leurs applications.
Offre d'emploi
Responsable plateforme Data/IA (Monaco)
Publiée le
Ansible
AWS Cloud
Docker
3 ans
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
🎯 Le contexte: Dans le cadre d’un programme de transformation numérique d’envergure, nous recherchons un profil expérimenté pour assurer le pilotage opérationnel et technique de plateforme Data & IA . Cette plateforme hybride, au cœur de la stratégie de données et d’intelligence artificielle, supporte de nombreux cas d’usage métiers et entre dans une phase d’ industrialisation et de montée en puissance . Le futur responsable occupera un rôle clé dans le maintien en conditions opérationnelles, la sécurisation des environnements et l’accompagnement des évolutions SI à venir. 📍 Poste basé à Monaco , résidence dans le 06 obligatoire (pas de full remote, 2 jours de télétravail/semaine). 🛠️ Les missions: Pilotage opérationnel et technique du socle Data & IA (IaaS / PaaS / CaaS) Gestion du MCO, des incidents, changements, configurations et assets techniques Contribution active à la cybersécurité : gestion des remédiations, participation aux audits et revues de sécurité Coordination des acteurs techniques et animation des comités Rédaction de consultations et d’appels d’offres sur les périmètres techniques Suivi du plan d’amélioration continue et proposition d’évolutions sur le socle Contribution à l’urbanisation du SI et à la capitalisation des design-patterns Mise en place d’outils d’automatisation et de reporting avancé (Terraform, Ansible, GitLab CI/CD) Participation à la veille technologique (Cloud, Cybersécurité, Data & IA) ✅ Les informations clés: 📍 Localisation : Monaco 🗓️ Démarrage : Janvier 2026 🖥️ 2 jours de télétravail possible
Offre d'emploi
Data Engineer Senior
Publiée le
Apache Kafka
Apache Spark
Hadoop
Paris, France
Télétravail partiel
En tant qu’Ingénieur Data Senior, vous jouerez un rôle clé dans la conception, le développement et l’optimisation de solutions data innovantes pour le secteur bancaire. Vous serez un membre essentiel de l’équipe Data Engineering et collaborerez avec des experts métiers, data scientists et développeurs pour transformer les plateformes digitales de nos clients. Vos missions principales Concevoir, développer et maintenir des solutions big data robustes et évolutives avec Hadoop, Spark, Kafka… Mettre en œuvre des pipelines de données temps réel et batch pour des cas d’usage complexes Garantir la qualité, la sécurité et la conformité des données à chaque étape du cycle de vie Intégrer des solutions de streaming avec Kafka pour des analyses quasi temps réel Développer et maintenir des microservices en Node.js Encadrer les ingénieurs juniors et promouvoir les bonnes pratiques
Offre d'emploi
Manager Data / Lead Data
Publiée le
Azure
Azure Data Factory
Python
60k-80k €
Paris, France
Descriptif du poste Une filiale d'un grand groupe recherche une personne pour prendre en charge la responsabilité des activités Data & Intégration au sein de son département IT. Objectif de la mission La mission a pour objectif de couvrir les activités data existantes, en assurant la continuité des activités tout en identifiant les axes d'amélioration potentiels. Missions de Responsabilité des Activités Data Le candidat présenté par le prestataire sera chargé de : Accompagnement Technique "Tech Lead" : Fournir un support technique à l'équipe Data et Intégration, composée d'une dizaine de collaborateurs data engineers et product owners data. Le profil devra encadrer, orienter et développer les compétences techniques de l'équipe. Choix Technologiques et Architecture Transverse : Conseiller sur les choix technologiques et architecturaux pertinents (stockage, exposition de la data, …), et participer activement à la mise en place d'une plateforme data robuste et scalable permettant l'industrialisation des projets d'IA. Participation aux échanges techniques : Participation active aux échanges et choix techniques et organisationnels sur l'industrialisation des produits data, conjointement avec les équipes Data & Analytics. Positionnement Vis-à-Vis des Partenaires : Collaborer étroitement avec les partenaires et se positionner sur les orientations techniques et architecturales pertinentes. Arbitrer sur les synergies éventuelles à envisager. Choix des Fournisseurs : Contribuer au processus de sélection des fournisseurs en veillant à ce que les choix soient alignés avec les objectifs stratégiques et opérationnels. Pilotage et Conception des Produits Structurants : Participer au pilotage et à la conception de produits structurants et la construction d'un middleware. Cela inclut la priorisation et le dimensionnement des activités.
Mission freelance
BI Engineer & Analytics Engineer (Tableau / dbt)
Publiée le
Azure Data Factory
BI
Big Data
12 mois
400-470 €
Lille, Hauts-de-France
Télétravail partiel
L’équipe People Data a pour vocation de soutenir la stratégie RH d’une entreprise internationale en accompagnant le développement, le bien-être et la performance de ses collaborateurs. Au cœur de la transformation de l’organisation, cette équipe met la donnée au service des équipes RH, Talent Development, Engineering et Product afin de piloter, comprendre et anticiper les dynamiques humaines et organisationnelles. Composée de Data Product Managers, Data Analysts, BI Engineers, Analytics Engineers, Data Engineers et d’experts en gouvernance de données, elle développe des produits et des solutions innovants de People Analytics à forte valeur ajoutée. Dans ce cadre, nous recherchons un(e) BI Engineer & Analytics Engineer (Tableau / dbt) pour accompagner les équipes Talent Development sur un périmètre international. 🎯 Mission principale Concevoir, développer et maintenir des solutions de reporting et de data visualisation fiables, automatisées et pertinentes, au service des équipes Talent Development et RH. 🧩 Responsabilités Développer et maintenir des reportings auditables, légaux ou stratégiques à destination des équipes Talent Development. Assurer la réconciliation et la cohérence des données issues de différentes sources et pays. Garantir la qualité, la fiabilité et la traçabilité des données et des indicateurs produits. Concevoir, optimiser et automatiser des dashboards Tableau pour le suivi des KPIs RH. Participer à toutes les phases du cycle projet : du cadrage au déploiement en production, puis assurer le run des solutions. Proposer des visualisations et modèles de données pertinents et adaptés aux usages métiers. Contribuer aux rituels agiles (daily, sprint review, rétrospective). Rédiger et maintenir la documentation technique (modèles dbt, dashboards, pipelines, bonnes pratiques). Collaborer avec les équipes Data et RH (Data Product Managers, Data Engineers, métiers Talent Development, etc.). 🧠 Compétences requises Techniques CompétenceNiveau requis Tableau Confirmé dbt Confirmé SQL Confirmé Python Avancé Modélisation de données Confirmé Git / GitHub Confirmé Méthodologie Agile (Scrum, Kanban) Avancé Soft Skills Forte autonomie et sens de la responsabilité. Capacité d’analyse et regard critique sur la qualité des données. Aisance dans la communication avec des profils non techniques . Esprit d’équipe, collaboration et partage des bonnes pratiques. Orientation produit et business , avec une bonne compréhension des enjeux RH et Talent Development. 📍 Localisation & modalités Lieu : Lille Télétravail : possible de manière occasionnelle Langues : Français courant, Anglais professionnel
Mission freelance
DATA QUALITY Project Manager H/F
Publiée le
Data quality
DataGalaxy
6 mois
650-750 €
Paris, France
Télétravail partiel
Contexte : Une initiative mondiale sur la qualité des données a récemment été lancée. Elle vise à sensibiliser les entités du groupe à la qualité des données et à leur permettre de corriger les données de mauvaise qualité dans leurs systèmes sources. En 2025, l’accent est mis sur l’expansion d’un tableau de bord central regroupant des règles de qualité des données mises en œuvre dans la plupart des entités du groupe, offrant une vue globale de la qualité des données. Dans un premier temps, l’attention a été portée sur les règles de qualité des données ayant un impact sur la livraison à temps (OTD – On-Time Delivery).
Mission freelance
[LFR] Expertise BigData / Cloud Data Engineering, Senior à Guyancourt - STAND - BY - 1005
Publiée le
10 mois
400-750 €
Guyancourt, Île-de-France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site SQY au minimum Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation
Mission freelance
Product Owner DAM / Data & analytics +API)
Publiée le
API
Data analysis
6 mois
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Présentation de l’environnement : Le département Commercial Digital & Tech a pour objectif de proposer des produits et des services digitaux différenciants de premier plan, tant aux clients qu’aux propriétaires de nos hôtels, afin d’accélérer la transformation du modèle d’exécution, de favoriser les méthodes de travail agiles, et de renforcer le programme d’innovation en misant sur les capacités technologiques internes et externes. Au sein des équipes E-commerce, la Tribe Platform a pour objectif principal d’aider les équipes E-commerce, Loyalty et Brands à construire rapidement des produits fiables et utilisant des technos “state-of-the-art”. Vous intégrerez ainsi l’équipe DAM / Media Portal au sein de cette Tribe et vous collaborerez avec le PO en place dans l’équipe. Contexte de la mission : Nous recherchons 1 Product Owner Senior pour piloter l’évolution stratégique des produits DAM et Media Portal , en les orientant vers une gestion avancée et intelligente des données. Au-delà de la gestion centralisée des assets digitaux, la mission consiste à structurer, classifier et exposer efficacement la donnée via des API performantes, à mettre en place une organisation sémantique robuste, et à tirer parti de l’intelligence artificielle pour enrichir les métadonnées clés. Ce rôle est au cœur de la Data Governance et contribue directement à l’efficacité des équipes métiers, au rayonnement international des assets de marque et à l’accélération des workflows omnicanaux. Ce poste est une opportunité de piloter un produit stratégique, en lien avec l’équipe Business Content Strategy, dans un environnement riche et stimulant, avec un fort impact sur les résultats globaux de l’entreprise. Le Product Owner devra driver le delivery et la discovery continus sur son périmètre en se basant sur les objectifs de l’équipe, la vision de la Tribe et les besoins et retours des consommateurs des Features délivrées en travaillant main dans la main avec les Tech Lead du périmètre. L’équipe est composée de 1 Program Manager AEM, 2 PO DAM/MP, 1 Tech Lead, 2 Dev + 1 Solution Architect. Responsabilités principales : Vision & Stratégie Produit ● Définir et porter la vision produit DAM / Media Portal orientée qualité de la donnée et disponibilité des assets, intégrée aux objectifs stratégiques du Groupe. ● Co-Construire une feuille de route qui aligne le développement produit sur l’exploration, la structuration et l’exploitation des données digitales - en lien avec l’équipe Content Strategy & Solutions ● Positionner le DAM comme hub central de la donnée média interconnecté à l’écosystème digital via API. Structuration et Gouvernance de la Data ● Mettre en place et maintenir la classification et la taxonomie des données (nomenclatures, hiérarchies, thésaurus)- pour garantir une organisation claire et exploitable à grande échelle. ● Concevoir et piloter la structuration sémantique des assets afin de faciliter la recherche, la réutilisation et l’automatisation des flux. ● Formaliser les règles de gouvernance de la donnée en lien avec les parties prenantes. Exposition & Intégration via API ● Définir la stratégie d’exposition des données et des métadonnées via API pour alimenter les différents systèmes du Groupe (sites, applications, CRM, plateformes partenaires...), en lien avec Accor Tech et les équipes PIM / Hotel Content ● Collaborer avec les Tech Lead et architectes pour garantir la sécurité, la performance et la scalabilité des API. ● Établir les spécifications fonctionnelles pour de nouvelles intégrations (connecteurs tiers, interopérabilité). Innovation & Enrichissement via IA ● Identifier et implémenter des solutions d’enrichissement automatique de métadonnées grâce à l'intelligence artificielle (analyse d’images, reconnaissance de texte, suggestions sémantiques...). ● Superviser les POC (Proof of Concept) et projets pilotes pour évaluer l’apport de l’IA dans le processus de gestion des assets. ● Mettre en place des indicateurs pour mesurer la qualité et la pertinence des données enrichies. Pilotage & Méthodologies Agiles ● Animer les cérémonies Agile (Daily, Sprint Planning, Review, Retrospective, Backlog Refinement). ● Collecter, analyser et prioriser les besoins des parties prenantes internes et externes dans le backlog produit. ● Piloter le discovery produit et superviser la livraison continue des fonctionnalités en s’assurant de la conformité aux critères d’acceptation, en lien avec l’équipe Tech. ● Établir et suivre les KPI orientés data avec l’équipe Content Strat. (qualité des métadonnées, taux de réutilisation, performance API...) afin notamment de suivre leurs objectifs métier
Mission freelance
Data Analyst - Power BI
Publiée le
Data analysis
Data science
Data visualisation
6 mois
400-500 €
Rennes, Bretagne
Télétravail partiel
Nous recherchons un(e) Data Analyst passionné(e) par l’analyse de données et souhaitant évoluer dans un environnement de production dynamique. Vous intégrerez une équipe en charge de la supervision d’un outil de production et serez responsable de la création et du suivi de reporting sur l’activité. Missions principales : Analyser les données issues de l’outil de production pour fournir des reporting réguliers. Identifier et suivre les incidents de production, analyser leur origine et proposer des actions correctives. Mettre en place des actions d’amélioration des processus basées sur les analyses réalisées. Collaborer avec les équipes métiers et techniques pour optimiser le fonctionnement des outils et des processus. Profil recherché : Connaissance de Power BI et capacité à créer des rapports et dashboards clairs et efficaces. Goût pour l’analyse et l’interprétation des données. Capacité à comprendre des processus de production et à proposer des améliorations. Rigueur, curiosité et sens de l’organisation. Junior accepté, envie d’apprendre et de monter en compétence. Conditions : Poste sur site dans un premier temps pour faciliter la montée en compétence. Possibilité de télétravail partiel : 3 jours par semaine après la période initiale.
Mission freelance
Data Analyst (Le Mans ou Niort) H/F
Publiée le
VBA
3 mois
400 €
Le Mans, Pays de la Loire
Télétravail partiel
Notre client dans le secteur Autre recherche un/une Data Analyst H/F Description de la mission: Nous recherchons un(e) Freelance Data Analyste pour notre client avec une forte fibre d'assistance à maitrise d'ouvrage. Le profil doit disposer d'une expérience dans le domaine de l'actuariat / secteur assurance. Tâches à réaliser : Comprendre les besoins métiers (secteur assurance / domaine indemnisation) Explorer les bases de données existantes afin de créer et adapter des requêtes SAS V9 Être le point de contact privilégier pour suivre le RUN Assurer la gestion de projets techniques et reporting
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- CFE Cas spécial ou d'autres (mauvaises) expérience ??
- Choix mission fonctionnel data
- Stratégie épuisement des fonds jusqu'à la retraite
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Augmentation de la CSG et donc de la flat tax votée à assemblée !
- Obtenir un numéro D.U.N.S en auto entreprise
2518 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois