Abbonarsi

Estimating Fluid Intake Volume Using a Novel Vision-Based Approach - 17/11/23

Doi : 10.1016/j.irbm.2023.100813 
Rachel Cohen a, b, , Geoff Fernie a, b, c, Atena Roshan Fekr a, b
a KITE Research Institute – Toronto Rehabilitation Institute – University Health Network, Toronto, Canada 
b Institute of Biomedical Engineering, University of Toronto, Toronto, Canada 
c Department of Surgery, University of Toronto, Toronto, Canada 

Corresponding author at: KITE – Toronto Rehabilitation Institute – University Health Network, Toronto, Canada.KITEToronto Rehabilitation InstituteUniversity Health NetworkTorontoCanada

Abstract

Introduction

Staying hydrated is an essential aspect of good health for people of all ages. Tracking fluid intake is important to ensure proper hydration and prompt users to drink as needed. Previous literature has attempted to measure the amount of fluid consumption, often using wearables or sensors embedded in containers.

Objective

In this paper, we introduce a novel vision-based method to estimate the amount of fluid consumed.

Methods

We trained different 3D Convolutional Neural Networks on data from 8 participants drinking from multiple containers and engaging in other activities in a simulated home environment.

Results

We show that it is possible to perform both drinking detection and volume intake estimation in a single algorithm with a Mean Absolute Percent Error (MAPE) of 28.5% and a Mean Percent Error (MPE) of 2.6% with 10-Fold and a MAPE of 42.4% and MPE of 25.4% for Leave-One-Subject-Out cross validation.

Conclusion

This shows that using video inputs does have the potential to detect and estimate the amount of fluid consumed throughout the day.

Il testo completo di questo articolo è disponibile in PDF.

Graphical abstract

Il testo completo di questo articolo è disponibile in PDF.

Highlights

Dehydration is a serious issue and tracking liquid intake can help prevent it.
Using a vision-based approach is a hands-off way to track liquid intake.
Previous works detected when a drink happens, not estimated the amount consumed.
We examine if vision-based approaches can estimate the amount consumed.
This can lead to a more accurate vision-based fluid tracker.

Il testo completo di questo articolo è disponibile in PDF.

Keywords : Artificial neural networks, Computer vision, Depth cameras, Fluid intake monitoring, Image recognition, Intake gesture detection, Video signal processing


Mappa


© 2023  AGBM. Pubblicato da Elsevier Masson SAS. Tutti i diritti riservati.
Aggiungere alla mia biblioteca Togliere dalla mia biblioteca Stampare
Esportazione

    Citazioni Export

  • File

  • Contenuto

Vol 44 - N° 6

Articolo 100813- dicembre 2023 Ritorno al numero
Articolo precedente Articolo precedente
  • One-Dimensional Convolutional Multi-branch Fusion Network for EEG-Based Motor Imagery Classification
  • Xiaoguang Liu, Mingjin Zhang, Shicheng Xiong, Xiaodong Wang, Tie Liang, Jun Li, Peng Xiong, Hongrui Wang, Xiuling Liu

Benvenuto su EM|consulte, il riferimento dei professionisti della salute.
L'accesso al testo integrale di questo articolo richiede un abbonamento.

Già abbonato a @@106933@@ rivista ?

@@150455@@ Voir plus

Il mio account


Dichiarazione CNIL

EM-CONSULTE.COM è registrato presso la CNIL, dichiarazione n. 1286925.

Ai sensi della legge n. 78-17 del 6 gennaio 1978 sull'informatica, sui file e sulle libertà, Lei puo' esercitare i diritti di opposizione (art.26 della legge), di accesso (art.34 a 38 Legge), e di rettifica (art.36 della legge) per i dati che La riguardano. Lei puo' cosi chiedere che siano rettificati, compeltati, chiariti, aggiornati o cancellati i suoi dati personali inesati, incompleti, equivoci, obsoleti o la cui raccolta o di uso o di conservazione sono vietati.
Le informazioni relative ai visitatori del nostro sito, compresa la loro identità, sono confidenziali.
Il responsabile del sito si impegna sull'onore a rispettare le condizioni legali di confidenzialità applicabili in Francia e a non divulgare tali informazioni a terzi.


Tutto il contenuto di questo sito: Copyright © 2026 Elsevier, i suoi licenziatari e contributori. Tutti i diritti sono riservati. Inclusi diritti per estrazione di testo e di dati, addestramento dell’intelligenza artificiale, e tecnologie simili. Per tutto il contenuto ‘open access’ sono applicati i termini della licenza Creative Commons.