Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Engineering

Conception et évaluation des lunettes actives de la prise alimentaire et de la Classification de l’activité physique

Published: February 14, 2018 doi: 10.3791/56633

Summary

Cette étude présente un protocole de conception et de fabrication d’un dispositif portable de verres de type qui détecte les patrons de l’apport alimentaire et autres activités physiques recommandées, à l’aide de capteurs insérés dans les deux charnières des verres.

Abstract

Cette étude présente une série de protocoles de conception et de fabrication d’un dispositif portable de type lunettes qui détecte les patrons des activités musculaires temporalis pendant la prise de nourriture et d’autres activités physiques. Nous avons fabriqué un cadre 3D-imprimés de lunettes et un module de Conseil (PCB) de cellule intégrée de circuit imprimé de charge inséré dans les deux charnières du cadre. Le module a été utilisé pour acquérir les signaux de force et les transmettre sans fil. Ces procédures prévoient le système avec une plus grande mobilité, qui peut être évaluée en conditions pratiques de porter comme la marche et en agitant. Une représentation de la classification est également évaluée en distinguant les patrons de l’apport alimentaire de ces activités physiques. Une série d’algorithmes ont été utilisées pour prétraiter les signaux, générer des vecteurs de fonctionnalité et reconnaître les patrons de plusieurs vedette (mastication et un clin de œil) et autres activités physiques (reste sédentaire, parler et la marche). Les résultats ont montré que le score de1 moyenne F du classement parmi les activités recommandés était de 91,4 %. Nous croyons que cette approche peut être potentiellement utile pour la surveillance automatique et objective des comportements ingestive avec une précision plus élevée comme un moyen pratique pour traiter les problèmes.

Introduction

Un suivi continu et objective de l’apport alimentaire est essentiel au maintien de l’équilibre énergétique du corps humain, car l’accumulation d’énergie excessive peut causer des overweightness et l’obésité1, qui peut entraîner diverses complications médicales2. Les principaux facteurs dans le déséquilibre de l’énergie sont connus pour être les apport alimentaire excessif et une activité physique insuffisante,3. Diverses études sur le suivi de la dépense énergétique quotidienne ont été introduits avec mesure automatique et objective des patterns d’activité physique par le biais de dispositifs portables4,5,6, même à la consommateur final scène médicale et de niveau7. Recherche sur le suivi de la prise alimentaire, cependant, est toujours dans le cadre de laboratoire, car il est difficile de détecter l’activité de l’apport alimentaire d’une manière directe et objective. Ici, notre objectif est de présenter une conception de l’appareil et de son évaluation pour la surveillance de la consommation d’aliments et les patterns d’activité physique sur le plan pratique dans la vie quotidienne.

Il y a eu diverses approches indirectes pour surveiller la consommation alimentaire par le biais de mastication et déglutition sons8,9,10, mouvement du poignet11,12,13, image analyse14et électromyogramme (EMG)15. Cependant, ces approches ont été difficiles à appliquer aux demandes de la vie quotidienne, à cause de leurs limitations inhérentes : les méthodes en utilisant son risquaient d’être influencé par son environnement ; les méthodes utilisant le mouvement du poignet étaient difficiles à distinguer des autres activités physiques lors de la consommation non alimentaire ; et les méthodes en utilisant les images et les signaux EMG sont limités par la limite du mouvement et de l’environnement. Ces études ont montré la capacité de détection automatique de l’apport de nourriture à l’aide de capteurs, mais avaient encore une limitation de l’application pratique de la vie quotidienne au-delà des paramètres de laboratoire.

Dans cette étude, nous avons utilisé les tendances de l’activité de muscle temporalis comme le suivi automatique et objective de l’apport alimentaire. En général, le muscle temporalis répète la contraction et la relaxation dans le cadre des muscles masticateurs au cours de la nourriture prise16,17; ainsi, l’activité de l’apport alimentaire peut être surveillée en détectant les patrons périodiques de l’activité du muscle temporal. Récemment, il y a eu plusieurs études utilisant le temporalis muscle activité18,19,20,21, qui utilisaient les EMG ou un souche piézoélectrique capteur et les fixer directement sur l’homme peau. Ces approches, toutefois, étaient sensibles à l’emplacement de la peau des électrodes EMG ou capteurs de déformation et sont détachés facilement de la peau due au mouvement physique ou de la transpiration. Par conséquent, nous avons proposé une méthode nouvelle et efficace à l’aide d’une paire de lunettes ce sens les temporalis muscle activité grâce à deux capteurs insérés dans les deux charnières dans notre précédente étude22. Cette méthode a montré un grand potentiel de détection de l’activité de l’apport alimentaire avec une grande précision sans toucher la peau. C’est également non envahissant et non intrusive, puisque nous avons utilisé un dispositif commun de verres-type.

Dans cette étude, nous présentons une série de protocoles détaillés de la mise en œuvre de l’unité de verres-type et comment utiliser les modèles d’activité du muscle temporal pour la surveillance de l’apport alimentaire et l’activité physique. Les protocoles comprennent le processus de conception de matériel et de fabrication qui comprend un châssis 3D-imprimé les lunettes, un module de circuit et d’un module d’acquisition de données et comprennent les algorithmes logiciels de traitement de données et d’analyse. Nous avons par ailleurs étudié la classification parmi plusieurs activités recommandées (par exemple, à mâcher, la marche et un clin de œil) pour démontrer le potentiel comme un système pratique qui peut faire une différence minute entre l’apport alimentaire et toute autre activité physique patrons.

Subscription Required. Please recommend JoVE to your librarian.

Protocol

Remarque : Toutes les procédures y compris l’utilisation de sujets humains ont été réalisées de manière non invasive de simplement porter une paire de lunettes. Toutes les données ont été acquises en mesurant le signal de force des capteurs insérés dans les verres qui n’étaient pas en contact direct avec la peau. Les données ont été transmises sans fil pour le module d’enregistrement des données, qui, dans ce cas est un smartphone désigné pour l’étude. Tous les protocoles n’étaient pas liés à in vivo/in vitro les études humaines. Aucun échantillon de sang et de médicaments ont été utilisés pour les expériences. Le consentement éclairé a été obtenu de tous les sujets des expériences.

1. fabrication d’un Module de Circuit capteur intégré

  1. Acheter des composants électroniques pour la fabrication du module de circuit.
    1. Achetez deux cellules de pesage de bille, dont chacune opère dans une fourchette comprise entre 0 N et 15 N et délivre une puissance de basse tension différentielle avec portée maximale de mV 120 dans une excitation V 3.3.
      NOTE : Ces charge cellules servent à mesurer force signaux à la fois les côtés gauche et droit des lunettes.
    2. Achetez deux amplificateurs d’instrumentation et kΩ deux 15 résistances réglage de gain.
      Remarque : L’amplificateur d’instrumentation et de la résistance réglage de gain sont utilisés pour amplifier le signal de la force de la cellule de pesage huit fois, jusqu'à 960 mV.
    3. Acheter une unité de microcontrôleur (MCU) avec une fonctionnalité WiFi (par exemple, connectivité Wi-Fi) et un convertisseur analogique-numérique de 10 bits (ADC).
      Remarque : Le MCU est utilisé pour lire les signaux de force et de les transmettre à un module d’acquisition de données sans fil. Comme une broche d’entrée analogique est utilisée pour deux entrées analogiques de force, l’utilisation d’un multiplexeur est introduite dans l’étape suivante 1.1.4.
    4. Acheter un multiplexeur analogique deux voies qui gère les deux signaux d’entrée avec une broche de ADC sur la MCU.
    5. Acheter une batterie lithium-ion de polymère (LiPo) avec 3,7 V de tension nominale, 300 mAh de capacité nominale et le débit de 1 C.
      Remarque : La capacité de la batterie a été choisie pour fournir assez de courant à l’heure plus de 200 mAh et faire fonctionner le système fiable pendant environ 1,5 h d’une expérience.
    6. Acheter un régulateur de tension 3,3 V pour régulation linéaire à la baisse de la tension de batterie 3,7 V à la 3.3 V tension du système.
    7. Achat cinq 12 kΩ dispositifs montés en surface (SMD) type résistances comme les résistances de pull-up de la MCU. L’empreinte de la résistance est 2,0 x 1,2 mm (taille de 2012).
  2. Fabriquer des cartes de circuits imprimés (PCB). Cette étape est de dessiner les circuits imprimés et rendre l’oeuvre (c'est-à-dire, la disposition du Conseil d’administration, le fichier .brd) et le schéma (par exemple, le fichier .sch) pour les PCB de fabrication. Une compréhension de base du processus de création de fichiers de l’oeuvre et le schéma est nécessaire pour le développement.
    1. Dessiner un schéma d’un circuit de gauche contenant la batterie à l’aide d’une application de conception électronique tel qu’illustré dans la Figure 1 a. Sauvegardez le résultat comme les œuvres d’art (.brd) et fichiers de schéma (.sch).
    2. Dessiner un schéma d’un circuit de droit contenant le MCU à l’aide d’une application de conception électronique tel qu’illustré dans la Figure 1 b. Sauvegardez le résultat comme les œuvres d’art (.brd) et fichiers de schéma (.sch).
    3. Fabriquer les circuits imprimés en passant une commande auprès d’une société de fabrication de PCB.
    4. Souder tous les composants électroniques préparées à l’étape 1.1 pour les PCB comme illustré dans la Figure 2 et Figure 3.
      ATTENTION : L’amplificateur d’instrumentation est très sensible à la température. Assurez-vous que la température de plomb ne dépasse pas 300 ° C pendant 10 s pendant le brasage, sinon il peut causer des dommages permanents au composant.

2. 3D impression d’une image des lunettes

  1. Dessiner le modèle 3D de la pièce de tête des verres à l’aide d’un outil de modélisation 3D comme sur la Figure 4 a. Exporter le résultat au format de fichier .stl.
  2. Dessiner le modèle 3D des temples gauche et à droite des verres à l’aide d’un outil de modélisation, comme illustré dans la Figure 4 b et 4 de la Figure3D. Exporter les résultats vers le format de fichier .stl.
  3. Imprimer les parties tête de morceau et temple à l’aide d’une imprimante 3D et un filament de fibre de carbone à 240 ° C, une température de buse et 80 ° C, une température de chambre.
    Remarque : L’utilisation de n’importe quelle imprimante 3D commercial et tout types de filaments comme acrylonitrile butadiène styrène (ABS) et le polylactide (PLA) peut être autorisée. Les températures de la buse et le lit peuvent être réglées selon le filament et les conditions d’impression.
  4. Chauffez les bouts des temples à l’aide d’une soufflerie d’air chaud d’un cadre de 180 ° C et plier vers l’intérieur environ 15 degrés pour contacter l’épiderme du muscle temporal comme verres classiques.
    NOTE : Le degré de flexion du temple lunettes n’a pas besoin d’être rigoureux, étant donné que l’objectif de la courbure doit augmenter d’un facteur de forme en aidant les verres s’adapter sur la tête du sujet lorsqu’il est équipé. Être prudent, cependant, car un pliage excessif empêchera les temples de toucher le muscle temporal, qui ne permet pas de percevoir les tendances significatives.
  5. Répétez les étapes de l’étape 2.1 – 2.4 pour imprimer deux différentes tailles de l’image de lunettes pour s’adapter à plusieurs tailles de siège tel qu’illustré à la Figure 4.

3. montage de toutes les parties des lunettes

  1. Insérer les PCB sur les deux côtés des temples des verres à l’aide de boulons M2, comme illustré à la Figure 5.
  2. Assembler la pièce de tête et les temples en insérant les boulons de M2 dans les articulations de la charnière.
  3. Connecter les BPC de gauche et de droite en utilisant les fils de raccordement 3 pôles, comme illustré à la Figure 5.
  4. Connectez la batterie sur le circuit gauche et attachez-la avec un ruban adhésif à la tempe gauche. Du côté de montage de la batterie n’est pas critique, puisqu’il peut varier selon la conception de circuits imprimés.
  5. Couvrir les verres avec les bandes de caoutchouc sur la pointe et le repose-nez pour ajouter plus de frottement avec la peau humaine tel qu’illustré à la Figure 5.

4. élaboration d’un système d’Acquisition de données

Remarque : Le système d’acquisition de données se compose d’une module et un module de réception de données de transmission de données. Le module de transmission de données lit le temps et la force des signaux des deux côtés et puis les envoie pour le module de réception de données, qui recueille les données reçues et les enregistre dans des fichiers .tsv.

  1. Télécharger l’application pour le MCU du module PCB suivant les procédures de mesures 4.1.1–4.1.3 de transmission de données.
    1. Exécutez le projet « GlasSense_Server » attaché aux fichiers supplémentaires à l’aide d’un ordinateur.
      Remarque : Ce projet a été généré avec Arduino environnement de développement intégré (IDE). Il permet de lire l’heure et la force des signaux avec 200 échantillons/s et les transmettre au module récepteur de données.
    2. Branchez le module PCB à l’ordinateur via un connecteur de bus série universel (USB).
    3. Appuyez sur le bouton « Upload » sur l’IDE Arduino pour flasher les codes de programmation de l’étape 4.1.1 dans le microcontrôleur.
  2. Télécharger l’application de réception de données à un smartphone, qui sert à recevoir les données sans fil, suivant les procédures de mesures 4.2.1–4.2.3.
    1. Exécutez le projet « GlasSense_Client » attaché aux fichiers supplémentaires à l’aide d’un ordinateur.
      Remarque : Ce projet a été généré avec c# langage de programmation. Il offre la possibilité de recevoir des données et enregistrer les fichiers .tsv, qui contiennent des informations d’un sujet, telles que nom, sexe, âge et indice de masse corporelle (IMC).
    2. Brancher le smartphone à l’ordinateur via un port USB pour construire l’application de réception de données.
    3. Appuyez sur le bouton « Fichier > Build & Run » sur le projet c# pour créer l’application de réception de données sur le smartphone.

5. collecte des données d’une étude de l’utilisateur

Remarque : Cette étude a recueilli six séries d’activité recommandés : reste sédentaire (SR), sédentaires à mâcher (SC), marche (W), mâcher tout en marchant (CW), parlant sédentaire (ST) et sédentaire clin d’oeil (SW).

  1. Sélectionnez une paire de lunettes qui ont une taille appropriée à l’utilisateur d’être testé. Affiner l’étanchéité avec les boulons à deux charnières (Figure 5).
    ATTENTION : Les valeurs de force, ne doivent pas dépasser 15 N, étant donné que les capteurs de force utilisées dans cette étude peuvent perdre la caractéristique linéaire bien au-delà de la portée de l’opération. Les valeurs de force peuvent être affinés en desserrant ou le support de serrage des boulons.
  2. Compte rendu des activités de tous les sujets en appuyant sur le bouton « Enregistrer » sur l’application construites en étape 4.2.3.
    1. Enregistrer une activité pendant un bloc de 120 s et générer un fichier d’enregistrement de celui-ci.
      1. Dans le cas de SR, s’asseoir le sujet sur une chaise et les faire utiliser un téléphone intelligent ou lire un livre. Permettre le déplacement de la tête, mais éviter tout mouvement du corps entier.
      2. Dans les cas de SC et CW, ont les sujets mangent deux types de texture des aliments (pain grillé et gelée de mastication) afin de tenir compte des propriétés de différents aliments. Servir le pain en tranches de 20 mm x 20 mm, qui est une bonne taille pour manger.
      3. Dans le cas de W, ont les sujets marcher à une vitesse de 4,5 km/h sur un tapis roulant.
      4. Dans le cas de ST, les sujets s’asseoir et ont leur lire un livre à haute voix dans un ton normal et la vitesse.
      5. Dans le cas de SW, informer les sujets de clin d’oeil sur le calendrier d’un son de cloche de 0,5 s à long toutes les 3 s.
    2. Générer un fichier d’enregistrement au format .tsv des données recueillies à l’étape 5.2.1.
      Remarque : Ce fichier contient une séquence de l’époque où les données ont été reçues, un signal de force gauche, un signal de bonne vigueur et une étiquette représentant l’activité actuelle du visage. Visualisations des signaux temporels de toutes les activités dans un bloc d’un utilisateur sont représentées dans la Figure 6. Les six séries d’activité recommandés (SR, SC, W, CW, ST et SW) ont été étiquetés comme 1, 2, 3, 4, 5 et 6, respectivement. Les étiquettes ont été utilisées pour comparer les classes prévues à l’article 8 du protocole.
    3. Faites une pause de 60 s après le bloc d’enregistrement. Enlever les lunettes pendant la pause et re-porter à nouveau lors du redémarrage de l’enregistrement de bloc.
    4. Répéter l’ensemble bloc sectionneurs des étapes 5.2.1 et 5.2.2 quatre fois pour chaque activité.
    5. Dans le cas de SW, avoir l’objet clin d’oeil à plusieurs reprises avec le œil gauche au cours d’un seul bloc et alors clin d’oeil à plusieurs reprises avec le œil droit pendant le prochain bloc.
  3. Répétez les étapes 5.1-5.2 et collecter les données provenant de 10 sujets. Dans cette étude, nous avons utilisé cinq mâles et cinq femelles, l’âge moyen était de 27,9 ± 4,3 (écart-type ; s.d.) ans, qui se situait à 19 à 33 ans, et l’IMC moyen était de 21,6 ± 3.2 (s.d.) kg/m2, qui se situait à 17,9 – 27,4 kg/m2.
    Remarque : Dans cette étude, les sujets n’ayant pas des conditions médicales à broyer les aliments, clin d’oeil et à pied ont été recrutés, et cette condition a été utilisée pour les critères d’inclusion.

6. signal de prétraitement et Segmentation

Remarque : Les signaux de gauche et de droite sont calculés séparément dans les procédures suivantes.

  1. Préparer une série d’images temporelles de 2 s long.
    1. Segment la 120 s enregistré signaux en un ensemble de 2 cadres de s par les sauts à intervalle de 1 s à l’aide de MATLAB, comme illustré à la Figure 6.
      Remarque : Les segmentation images de 2 s long ont été utilisées pour extraire des caractéristiques à l’article 7. La taille de saut s 1 a été déterminée pour diviser des signaux par l’intervalle de clin d’oeil s 3 déjà mentionné à l’étape 5.2.1.
    2. Appliquer un filtre passe-bas (LPF), à l’aide d’un filtre de Butterworth 5ème ordre avec une fréquence de coupure de 10 Hz pour chaque image.
    3. Enregistrer les résultats de l’étape 6.1.2 comme les cadres temporels pour les prochaines étapes de l’étape 7.1.
  2. Préparer une série d’images spectrales.
    1. Soustrayez la valeur médiane des signaux originaux de chaque image pour enlever la précharge lorsque vous portez les lunettes.
      Remarque : La valeur de précharge n’est pas requise pour l’analyse des fréquences suivantes, car il ne comprend pas toute information sur la mastication, à pied, clin d’oeil, etc. il pourrait, cependant, contiennent des informations importantes, qui peuvent varier de sous réserve de l’objet, de chaque réglage des lunettes et même à partir du moment où un sujet porte des lunettes.
    2. S’appliquent à une fenêtre de Hanning à chaque cadre pour réduire une fuite spectrale sur l’analyse des fréquences.
    3. Produire et enregistrer un spectre unilatéral en appliquant une transformation de Fourier rapide (FFT) à chaque image.
  3. Définit une combinaison d’un temporel et un cadre spectral de la même époque comme un bloc d’image (ou une simple image).

7. génération des vecteurs de la fonction

Remarque : Un vecteur caractéristique est généré par l’image produite à l’article 6 du protocole. Les images gauche et droite sont calculés séparément et combinés en un vecteur caractéristique dans les procédures suivantes. Toutes les procédures ont été mises en œuvre dans MATLAB.

  1. Extraire des caractéristiques statistiques à un cadre temporel à l’étape 6.1 du protocole. Une liste du nombre total de 54 fonctions est donnée dans le tableau 1.
  2. Extraire des caractéristiques statistiques d’une image spectrale dans étape 6.2 du protocole. Une liste du nombre total de 30 caractéristiques est donnée dans le tableau 2.
  3. Générer un vecteur caractéristique 84-dimensionnelle en combinant les caractéristiques temporelles et spectrales ci-dessus.
  4. Étiqueter les vecteurs de fonction généré depuis les enregistrements à l’étape 5.2 du protocole.
  5. Répétez les étapes des étapes 7.1 à 7.4 pour tous les blocs de trame et générer une série de vecteurs de fonctionnalité.

8. classification des activités en Classes

Remarque : Cette étape consiste à sélectionner le modèle de classificateur d’un support vector machines (SVM)23 en déterminant les paramètres qui montrent la plus grande précision du problème donné (c.-à-d., les vecteurs de fonctionnalité). Le MVC est une machine supervisée connue apprentissage technique, qui montre les excellentes performances en généralisation et robustesse à l’aide d’une marge maximum entre les classes et une fonction de noyau. Nous avons utilisé une grille-recherche et une méthode de validation croisée pour définir un paramètre de pénalité C et un noyau paramètre γ de l’amande de fonction (RBF) base radiale. Une compréhension minimale de l’apprentissage des techniques et la SVM machine est nécessaire pour effectuer les procédures suivantes. Certains matériaux référentielle23,24,25 sont recommandés pour une meilleure compréhension de l’apprentissage de techniques et l’algorithme SVM machine. Toutes les procédures dans cette section ont été implémentées à l’aide de LibSVM25 progiciel.

  1. Définir une grille de paires de (C, γ) pour la recherche-grille. Utilisation en croissance exponentielle des séquences de C (2-10, 2-5,..., 230) et γ (2-30, 2-25,..., 210).
    NOTE : Ces séquences ont été déterminés de manière heuristique.
  2. Définir une paire de (C, γ) (p. ex., (2-10, 2-30)).
  3. Pour le réseau défini à l’étape 8.2, effectuez le schéma de validation croisée 10 fois.
    NOTE : Ce mode divise les vecteurs de toute fonctionnalité en 10 parties sous-ensembles, puis tester un sous-ensemble à partir du modèle de classificateur formé par les autres sous-ensembles et répéter sur tous les sous-ensembles, un par un. Par conséquent, chaque vecteur caractéristique peut être testés séquentiellement.
    1. Diviser les vecteurs de toute fonctionnalité en sous-ensembles de 10 épisodes.
    2. Définir un jeu de test d’un sous-ensemble et une formation de 9 autres sous-ensembles.
    3. Définir un vecteur d’échelle que les échelles de tous les éléments des vecteurs caractéristique à la gamme de [0, 1] pour l’ensemble de la formation.
      Remarque : Le vecteur d’échelle a de même dimension avec le vecteur caractéristique. Il consiste en un ensemble de multiplicateurs capable d’évoluer de la même ligne (ou colonne) de tous les vecteurs de la fonctionnalité à la gamme de [0, 1]. Par exemple, le premier long métrage d’un vecteur caractéristique est linéairement proportionnelle à la gamme de [0, 1] pour les premiers éléments tous les vecteurs de dispositif de formation. Notez que le vecteur d’échelle est défini à partir de l’ensemble de la formation, car le jeu de test doit être considérés comme étant inconnu. Cette étape augmente la précision de la classification en apportant les fonctionnalités la gamme égale et en évitant les erreurs numériques pendant le calcul.
    4. Chaque caractéristique de la formation, mettre sur la plage de l’échelle [0, 1] en utilisant le vecteur d’échelle obtenu à l’étape 8.2.3.
    5. Chaque caractéristique de l’essai, mettre sur la plage de l’échelle [0, 1] en utilisant le vecteur d’échelle obtenu à l’étape 8.2.3.
    6. Former l’ensemble de la formation par le biais de la SVM avec la paire de défini à l’étape 8.2 (c, γ) et ensuite construire un modèle de classificateur.
    7. Tester le jeu de test par le biais de la SVM avec la paire définie (c, γ) dans l’étape 8.2 et le modèle de classificateur provenant de la procédure de formation.
    8. Calculer une précision de la classification sur le jeu de test. L’exactitude a été calculée à partir du pourcentage de vecteurs de fonctionnalité qui sont correctement classées.
    9. Répétez les étapes 8.2.2–8.2.8 pour tous les sous-ensembles et calculer la précision moyenne de tous les sous-ensembles.
  4. Répétez les étapes 8.2 – 8.3.9 pour tous les points de la grille d’une paire de (C, γ).
  5. Trouver le maximum local de la plus grande précision de la grille. Toutes les procédures de l’article 8 sont illustrées à la Figure 7.
  6. (Facultatif) Si l’étape de la grille est considéré comme grosse, répétez les étapes 8.1 à 8.5 dans une grille plus fine près du maximum local trouvent à l’étape 8,5 et trouver de nouveaux locaux au maximum la grille fine.
  7. Calculer la précision, le rappel et la note1 F de chaque catégorie d’activités de l’équation suivante :
    Equation 1                                   Équation 1
    Equation 2                                             Équation 2
    Equation 3          Équation 3
    où TP, FP et FN représentent vrais positifs, faux positifs et faux négatifs pour chaque activité, respectivement. La matrice de confusion de toutes les activités est donnée dans le tableau 3.

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

Par le biais de la procédure décrite dans le protocole, nous avons préparé deux versions de l’image 3D imprimée en différenciant la longueur de la pièce de tête, LH (133 et 138 mm) et les temples, LT (110 et 125 mm), comme illustré à la Figure 4. Par conséquent, nous pouvons couvrir plusieurs conditions de port, qui peuvent varier de la taille de la tête des sujets, forme, etc. que les sujets a choisi l’un des cadres pour s’adapter à leur tête pour l’étude de l’utilisateur. La distance verticale, Lh, entre la charnière et le trou du boulon de soutien a été mises à 7,5 mm pour que la force amplifiée ne dépasserait pas 15 N, qui est la plage de fonctionnement linéaire de la cellule de pesage. Enfin, la pièce de tête doit avoir une épaisseur, tH, qui peut résister le moment fléchissant transmis par les deux boulons de support lorsqu’il est équipé. Nous avons choisi la tH de 6 mm avec l’utilisation de matériel de fibre de carbone d’une approche heuristique. Les points de contact peuvent être ajustés par les boulons pour ajuster le serrage des lunettes comme illustré à la Figure 5.

Le tableau 3 montre les résultats représentatifs de la classification pour toutes les séries de l’activité. Le score de1 moyenne F conduit à 80,5 %. Si considéré comme une seule partition, la performance peut sembler relativement dégradé par rapport au résultat de notre précédente étude22. Nous, cependant, peut extraire l’information significative en comparant les résultats entre chaque activité. Le SR a été relativement bien distingué de la SC, CW et SW, mais pas de la W et ST. Les deux activités de mastication, SC et CW, étaient difficiles à distinguer les uns des autres. En revanche, on observe que les deux activités à mâcher peuvent être aisément distinguées des SR, W, ST et SW, qui représentent les autres activités physiques. Dans le cas de la SW, l’activité de clin d’oeil s’est avéré être classés par erreur un peu partout dans les autres activités.

Résultats du tableau 3, nous pouvons observer des détails approfondis de la classification. Tout d’abord, les deux activités de mastication, SC et CW, étaient clairement distinguées des autres activités. Parmi eux, la distinction de l’activité marche suggère une possibilité que l’activité de l’apport alimentaire, qui est l’objectif principal de cette étude, peut être facilement séparable de l’activité physique, comme la marche, à l’aide de notre système. Comme illustré à la Figure 6, il peut être vérifié que les signaux à mâcher et clin de œil, appelé à partir de l’activité du muscle temporal, étaient significativement différentes de celles non activé par l’activité du muscle temporal. En revanche, la distinction entre les deux activités de mastication a montré des erreurs de classification relativement élevés. Ils ont joué un rôle prépondérant dans la réduction de la précision et le rappel des activités à chiquer.

En termes de détection à mâcher, le SR, W et ST peuvent être considéré comme bruit involontaire dans la vie quotidienne. En revanche, l’activité de clin d’oeil, peut être considérée comme unité de mesure significative, parce qu’elle est aussi activée de l’activité du muscle temporalis ainsi. D’après ce qui précède, les deux activités de mastication ont été délimitées en une activité de mastication (CH), et les autres activités sauf pour le clin d’oeil ont été regroupées en une activité physique (AP). Le tableau 4 présente les résultats de la classification sur ces activités : mâcher (CH), l’activité physique (AP) et sédentaire clin d’oeil (SW). Nous pouvons trouver des plus remarquables résultats de celle-ci. Il prédit des informations pour savoir si le système est robuste pour détecter la prise alimentaire sans être contrarié par d’autres activités physiques. En outre, il indique également il s'est possible de distinguer la prise alimentaire de toute autre activité de visage comme clin de œil. Les résultats montrent que l’activité de mastication peut être bien distinguée des autres activités par un score élevé de1 F de 93,4 %. Dans le cas de clin d’oeil, le rappel (85,5 %) était légèrement inférieur à celui des autres activités. Cela signifie que la qualité des données recueillies de clin d’oeil était susceptible d’être faible, puisque les utilisateurs devaient clin d’oeil à l’heure exacte à intervalles de 3 s. En fait, on a fait observer que les utilisateurs raté le clin de œil ou les verres déplacées vers le bas, parfois au cours de l’étude de l’utilisateur.

Afin d’obtenir des résultats plus significatifs de ce qui précède, nous avons regroupés et redéfini les activités dans les nouveaux. Les deux activités de mastication, SC et CW, ont été regroupées dans une activité et définies comme la mastication. Le SR, W et ST, qui avait un grand degré de classification entre eux, sont aussi regroupées dans une activité, définie comme l’activité physique. En conséquence, nous avons obtenu de nouveaux résultats représentatifs de la classification ré-exécuté à travers les activités présentées comme la mastication (CH), l’activité physique (AP) et sédentaire clin d’oeil (SW), tel qu’illustré au tableau 4. Les résultats ont montré qu’un score élevé de prédiction avec un score de1 moyenne F de 91,4 % des.

Figure 1
Figure 1 : schémas des circuits de gauche et droite. (A) des schémas du circuit gauche. Il contient une batterie pour alimenter le circuit gauche et droit. Un régulateur de tension 3,3 V avec condensateur de dérivation a été fourni pour alimenter une écurie tension au système de fonctionnement. Pesons présentées ici ont été insérées dans les deux côtés des diagrammes schématiques circuit (B) du circuit droit. Il contient une unité de microcontrôleur (MCU) avec des capacités Wi-Fi. Un multiplexeur bicanal a été fourni pour traiter les deux signaux de force des deux côtés avec un convertisseur analogique / numérique (ADC) de la MCU. Un connecteur de récepteur/émetteur asynchrone universel (UART) a été utilisé pour flasher le MCU. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 2
Figure 2 : oeuvres de PCB des circuits gauche et droite. PCB (A), une œuvre d’art de la gauche. Tous les composants électroniques sont affichés comme des mesures réelles dans mm. (B), une œuvre d’art du droit PCB. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 3
Figure 3 : résultats représentatifs des PCB soudé avec tous les composants. (A) le module circuit gauche. La cellule de pesage a été intégrée dans le Conseil d’administration. Il contient un connecteur 2 broches pour la batterie et un connecteur 3 broches connecter au bon conseil. (B) le module de droite circuit. La cellule de charge a également été intégrée à la carte. Il contient un connecteur 4 broches pour la mode de la MCU et un connecteur 3 broches à brancher sur le circuit gauche clignotant. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 4
Figure 4 : un modèle 3D de la trame des lunettes. (A) la conception de la tête de la pièce. La figure supérieure montre une vue de face, et le chiffre le plus bas montre une vue de dessus de la pièce de tête. La longueur de la pièce de tête, LH, est un paramètre de conception pour couvrir différentes taille de la tête des sujets. Nous avons 3D imprimé deux versions de la pièce de tête il faire la différence. L’épaisseur de la pièce de tête, tH, a été défini par l’heuristique. La distance entre un joint de charnière et un trou d’un boulon de support, L,h, a été fixée depuis le coefficient d’amplification mécanique. (B) la conception des temples. La figure supérieure montre la tempe gauche, et le chiffre inférieur indique la tempe droite. Les PCB dans la Figure 3 ont été insérés dans les fentes et une batterie a été montée sur un support de batterie. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 5
Figure 5 : un résultat représentatif de lunettes intégrées thePCB. Les PCB ont été insérées dans les fentes avec des boulons. Les plaquettes et les pointes des temples étaient couverts par des bandes de caoutchouc pour ajouter frottement avec la peau. Lorsque les verres sont équipés, les cellules de pesage sont pressées par des boulons de support des deux côtés. L’étanchéité des verres peut être affinée en desserrant ou le support de serrage des boulons. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 6
Figure 6 : les signaux temporels dans un bloc d’enregistrement d’un utilisateur pour toutes les activités. L’axe y représentant la force mesurée, qui a été soustrait par sa médiane du bloc enregistrement dans un but de visualisation. Les amplitudes maximales des activités à mâcher sont plus grandes que les autres activités. Des signaux gauche et droite de l’activité de clin d’oeil sont inversées. La figure montre un exemple de la clin d’oeil gauche. Un cadre s 2 a été utilisé pour définir un vecteur caractéristique en sautant les signaux à 1 intervalle de s. S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Figure 7
Figure 7 : résultats représentatifs de trouver la précision maximale locale par le biais de différentes paires de (C, γ). (A) A tracé d’isolignes de justesses une validation croisée de toutes les activités décrites dans le tableau 3. Chaque axe augmente de façon exponentielle et la plage a été sélectionnée heuristiquement. La précision maximale locale de 80,4 % s’est produite à (C, γ) = (25, 20). (B), un tracé d’isolignes des niveaux de précision une validation croisée des activités été redéfinies dans le tableau 4. La précision maximale de 92,3 % s’est produite à (C, γ) = (25, 20) et a été plus précis que le résultat de (A). S’il vous plaît cliquez ici pour visionner une version agrandie de cette figure.

Lol Description de la fonctionnalité Lol Description de la fonctionnalité
1 Écart-type L 28 Skenwness R
2 Écart-type R 29 Coefficient d’aplatissement L
3 Coefficient de variation L 30 Coefficient d’aplatissement R
4 Coefficient de variation R 31 Coefficients de fonction d’autocorrélation L
5 Taux zéro crossing L 32 Coefficients de fonction d’autocorrélation R
6 Taux zéro crossing R 33 Signal de l’énergie L
7 20ème centile L 34 Signal de l’énergie R
8 20ème centile R 35 Journal l’énergie signal L
9 50ème L 36 Connecter le signal de l’énergie R
10 50e centile R 37 Entropie d’énergie L
11 80e percentile L 38 Entropie d’énergie R
12 80e percentile R 39 Amplitude crête à crête L
13 Écart interquartile L 40 Amplitude crête à crête R
14 Écart interquartile R 41 Le nombre de pics L
15 Somme carré du 20ème centile L 42 Le nombre de pics R
16 Somme carré du 20ème centile R 43 Moyenne des temps entre les pics L
17 Somme carré de 50e percentile L 44 Moyenne des temps entre sommets R
18 Somme carré de 50e percentile R 45 Ecart de temps entre les pics L
19 Somme carré du 80e percentile L 46 Ecart de temps entre les pics R
20 Somme carré du 80e percentile R 47 Ratio de prédiction L
21 1er bac de distribution numérique L 48 Rapport R de la prédiction
22 1er bac de distribution des R 49 Rapport harmonique L
23 2ème bac de distribution numérique L 50 Rapport harmonique R
24 2ème bac de distribution des R 51 Fréquence fondamentale L
25 3ème bac de distribution numérique L 52 Fréquence fondamentale R
26 3ème bac de distribution des R 53 Coefficient de corrélation de L et R
27 Skenwness L 54 Domaine de Sigmal grandeur de L et R

Tableau 1 : extrait les caractéristiques statistiques d’une trame temporelle. Un total de 54 fonctions ont été extraites. Les signaux de gauche et de droite ont été calculées séparément, sauf pour les fonctions de corrélation, 53 et 54.

N ° Description de la fonctionnalité N ° Description de la fonctionnalité
1 Énergie spectrale L 16 Propagation spectrale R
2 Énergie spectrale R 17 Entropie spectrale L
3 Spectral zone 1 d’énergie L 18 Entropie spectrale R
4 Spectral zone 1 d’énergie R 19 Entropie spectrale d’énergie L
5 Spectral zone 2 d’énergie L 20 Entropie spectrale d’énergie R
6 Spectral zone 2 d’énergie R 21 Flux spectral L
7 Spectral zone 3 d’énergie L 22 Flux spectral R
8 Spectral zone 3 d’énergie R 23 Atténuation spectrale L
9 Spectral zone 4 d’énergie L 24 Atténuation spectrale R
10 Spectral zone 4 d’énergie R 25 Crête spectrale maximale L
11 Zone spectrale d’énergie L 5 26 Crête spectrale maximale R
12 Zone spectrale d’énergie R 5 27 Spectral asymétrie L
13 Spectral centroïde L 28 Asymétrie spectrale R
14 Centre de gravité spectrale R 29 Coefficient d’aplatissement spectrale L
15 Spectrale propagation L 30 Coefficient d’aplatissement spectrale R

Tableau 2 : extrait les caractéristiques statistiques d’une image spectrale. Un total de 30 dispositifs ont été extraites. Les signaux de gauche et de droite ont été calculées séparément. Caractéristiques du tableau 1 et tableau 2, un vecteur caractéristique se compose d’un total de 84 caractéristiques.

Prédit
activité
Activité réelle Total Precision
un SR b SC c W d CW e ST f SW
SR 1222 18 79 6 168 75 1568 77,9 %
SC 10 1268 17 159 46 15 1515 83,7 %
W 55 19 1212 32 144 20 1482 81,8 %
CW 3 158 34 1327 28 12 1562 85,0 %
ST 192 75 185 19 1117 55 1643 68,0 %
SW 78 22 33 17 57 1383 1590 87,0 %
Total 1560 1560 1560 1560 1560 1560 9360
Rappel 78,3 % 81,3 % 77,7 % 85,1 % 71,6 % 88,7 % 80,4 %
Note1 F 78,1 % 82,5 % 79,7 % 85,0 % 69,7 % 87,8 %
Note moyenne de1 F 80,5 %

Tableau 3 : Matrice de Confusion de toutes les activités quand (C, γ) = (25, 20) en Figure 7 a. Cette matrice montre tous les résultats de prédiction pour toutes les activités : unSR : reste sédentaire, bSC : sédentaire à chiquer, cw : marche, dCW : mâcher tout en marchant, eST : parler sédentaires, fSW : clin d’oeil sédentaire.

Prédit
activité
Activité réelle Total Precision
un C b PA c SW
C 2898 162 26 3086 93,9 %
PA 201 4404 200 4805 91,7 %
SW 21 114 1334 1469 90,8 %
Total 3120 4680 1560 9360
Rappel 92,9 % 94,1 % 85,5 % 92,3 %
Note1 F 93,4 % 92,9 % 88,1 %
Note moyenne de1 F 91,4 %

Tableau 4 : Matrice de Confusion de toutes les activités redéfinies lorsque (C, γ) = (25, 20) en Figure 7 b. Cette matrice montre tous les résultats de prédiction pour toutes les activités été redéfinies : unCH : mastication, bPA : activité physique, cSW : clin d’oeil sédentaire.

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Dans cette étude, nous avons proposé tout d’abord la conception et la fabrication des verres qui détectent les patrons de consommation d’aliments et d’activités physiques. Comme cette étude principalement axée sur l’analyse des données de distinguer l’apport alimentaire des autres activités physiques (comme la marche et un clin de œil), le système d’acquisition de données et capteur requis la mise en œuvre de l’enregistrement de la mobilité. Ainsi, le système comprenait les capteurs, le MCU avec capacité de communication sans fil et la batterie. La proposition de protocole fourni un roman et un moyen pratique de mesurer les tendances de l’activité de muscle temporalis en raison de la prise alimentaire et clin d’oeil d’une manière sans contact : les outils et méthodologies de facilement détecter la ration alimentaire au quotidien sans aucune lourdeur équipements ont été décrits.

Il y a des considérations importantes pour la procédure de fabrication des verres. Les pièces du temple devraient viser à intégrer les modules de PCB fabriqués à l’étape 1.2 comme illustré dans la Figure 4 b et 4 de la Figure. Le peson doit être placé de sorte qu’il est pressé par un boulon de support à une plaque de support de la pièce de tête lorsqu’il est équipé comme illustré dans la vue de dessus de la partie de la charnière à la Figure 5. À l’étape 2.4, le degré de flexion du temple lunettes n’a pas besoin d’être rigoureux, étant donné que l’objectif de la courbure doit augmenter d’un facteur de forme pour mieux adapter les lunettes sur la tête du sujet. Être prudent, cependant, car un pliage excessif empêchera les temples de toucher le muscle temporal, qui rendrait impossible de recueillir des tendances significatives.

Pour obtenir des données fiables, reflétant les différentes tailles de tête et les formes des sujets, les deux versions des verres ont été fournies en faisant varier la longueur de la pièce de tête et les tempes. En outre, en utilisant les volts support pour affiner la portabilité, nous pourrions régler le serrage des verres. Ainsi, les données recueillies à travers les lunettes divers, sujets, et port-conditions peuvent refléter intra - et interindividuelle et différents facteurs de forme.

Dans l’étude de l’utilisateur, l’objet a décollé les verres pendant la pause et porte encore au redémarrage de l’enregistrement de bloc. Cette action empêche les données de surapprentissage à un état d’usure spécifique parce qu’il a changé les conditions de port (par exemple, balance gauche et droite, précontrainte sur les pesons, zone de contact avec la peau, etc.) chaque fois le sujet re-portait des lunettes.

Selon une précédente étude de la fréquence de mastication, l’activité de mastication se situait principalement de 0,94 Hz (5ème percentile) à 2,17 Hz (95e percentile)26. Ainsi, nous avons défini la taille de l’image sur 2 s afin qu’un cadre contient plusieurs activités de mastication. Cette taille de l’image est également adaptée aux contenant l’un ou plusieurs cycles marche, qui varient généralement de 1,4 Hz à 2,5 Hz27. Nous avons effectué l’activité marche à une vitesse de 4,5 km/h sur un tapis roulant, parce que la vitesse de marche normale varie de 3,3 km/h à 6.5 km/h27,28. La taille du saut à la Figure 6 a été déterminée d’après les données enregistrées clin de œil, où les sujets ont été informés à clin d’oeil à intervalles de 3 s. Nous avons également filtrés les données avec la fréquence de coupure de 10 Hz, parce que nous avons trouvé de notre étude précédente que les signaux supérieure à 10 Hz disposait d’aucune information importante détection22à mâcher.

Parce que le système possède deux cellules de pesage des deux côtés, il est possible de distinguer les événements gauche et droite de la mastication et le clin d’oeil, comme prouvé dans notre précédente étude22. Cependant, contrairement à l’étude précédente, le but de cette étude était de démontrer que le système pourrait séparer efficacement la prise alimentaire des activités physiques. Si les données sont suffisamment accumulées à travers l’étude de l’utilisateur, puis d’autres recherches sur la gauche et bonne classification peut être effectuée, en utilisant les fonctions de corrélation incluses dans le vecteur caractéristique. En revanche, il est difficile de faire la distinction entre les activités sédentaires et la marche au sein du système. Autres modifications au système peuvent fournir une classification détaillée de la consommation alimentaire, comme manger en assis ou manger en mouvement, avec une grande précision. Cela peut être implémenté via une technique de fusion de capteurs en ajoutant une unité de mesure inertielle (IMU) au système18. Dans l’affirmative, le système peut suivre simultanément la dépense d’énergie et de l’apport énergétique. Nous pensons que notre approche offre des façons pratiques et possibles pour la détection de la prise alimentaire et l’activité physique.

Estimation de l’apport énergétique est un objectif essentiel de la recherche sur le dietary suivi et par exemple, peut être analysée par classer le type d’aliment et ensuite convertir en calories des informations prédéfinies de caloriques. Une étude récente a suggéré une méthode de classification des types d’aliments à l’aide d’images de nourriture et profond d’apprentissage des algorithmes14. Toutefois, il est difficile de séparer les types d’aliments avec les capteurs de force utilisées dans cette étude ; l’ajout d’un capteur d’image à l’avant de l’appareil pourrait reconnaître les types d’aliments à travers le traitement de l’image et des techniques d’apprentissage automatique et donc classer les types d’aliments. Grâce à cette technique de fusion de capteurs avec les capteurs de force et de l’image, le potentiel de cette étude est application vers diététiques générales applications de surveillance.

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Les auteurs n’ont rien à divulguer.

Acknowledgments

Ce travail a été soutenu par Envisible, Inc. Cette étude a été également soutenue par une subvention de la Korean Health Technology R & D Project, ministère de la santé bien-être, République de Corée (HI15C1027). Cette recherche a été financée également par la Fondation nationale de recherche de Corée (FRO-2016R1A1A1A05005348).

Materials

Name Company Catalog Number Comments
FSS1500NSB Honeywell, USA Load cell
INA125U Texas Instruments, USA Amplifier
ESP-07 Shenzhen Anxinke Technology, China MCU with Wi-Fi module
74LVC1G3157 Nexperia, The Netherlands Multiplexer
MP701435P Maxpower, China LiPo battery
U1V10F3 Pololu, USA Voltage regulator
Ultimaker 2 Ultimaker, The Netherlands 3D printer
ColorFabb XT-CF20 ColorFabb, The Netherlands Carbon fiber filament
iPhone 6s Plus Apple, USA Data acquisition device
Jelly Belly Jelly Belly Candy Company, USA Food texture for user study

DOWNLOAD MATERIALS LIST

References

  1. Sharma, A. M., Padwal, R. Obesity is a sign-over-eating is a symptom: an aetiological framework for the assessment and management of obesity. Obes Rev. 11 (5), 362-370 (2010).
  2. Pi-Sunyer, F. X., et al. Clinical guidelines on the identification, evaluation, and treatment of overweight and obesity in adults. Am J Clin Nutr. 68 (4), 899-917 (1998).
  3. McCrory, P., Strauss, B., Wahlqvist, M. L. Energy balance, food intake and obesity. Exer Obes. , London. (1994).
  4. Albinali, F., Intille, S., Haskell, W., Rosenberger, M. Proceedings of the 12th ACM international conference on Ubiquitous computing. , ACM. 311-320 (2010).
  5. Bonomi, A., Westerterp, K. Advances in physical activity monitoring and lifestyle interventions in obesity: a review. Int J Obes. 36 (2), 167-177 (2012).
  6. Jung, S., Lee, J., Hyeon, T., Lee, M., Kim, D. H. Fabric-Based Integrated Energy Devices for Wearable Activity Monitors. Adv Mater. 26 (36), 6329-6334 (2014).
  7. Fulk, G. D., Sazonov, E. Using sensors to measure activity in people with stroke. Top Stroke Rehabil. 18 (6), 746-757 (2011).
  8. Makeyev, O., Lopez-Meyer, P., Schuckers, S., Besio, W., Sazonov, E. Automatic food intake detection based on swallowing sounds. Biomed Signal Process Control. 7 (6), 649-656 (2012).
  9. Päßler, S., Fischer, W. Food intake activity detection using an artificial neural network. Biomed Tech (Berl). , (2012).
  10. Passler, S., Fischer, W. -J. Food intake monitoring: Automated chew event detection in chewing sounds. IEEE J Biomed Health Inform. 18 (1), 278-289 (2014).
  11. Kadomura, A., et al. CHI'13 Extended Abstracts on Human Factors in Computing Systems. , ACM. 1551-1556 (2013).
  12. Fontana, J. M., Farooq, M., Sazonov, E. Automatic ingestion monitor: A novel wearable device for monitoring of ingestive behavior. IEEE Trans Biomed Eng. 61 (6), 1772-1779 (2014).
  13. Shen, Y., Salley, J., Muth, E., Hoover, A. Assessing the Accuracy of a Wrist Motion Tracking Method for Counting Bites across Demographic and Food Variables. IEEE J Biomed Health Inform. , (2016).
  14. Farooq, M., Sazonov, E. International Conference on Bioinformatics and Biomedical Engineering. , Springer. 464-472 (2017).
  15. Grigoriadis, A., Johansson, R. S., Trulsson, M. Temporal profile and amplitude of human masseter muscle activity is adapted to food properties during individual chewing cycles. J Oral Rehab. 41 (5), 367-373 (2014).
  16. Strini, P. J. S. A., Strini, P. J. S. A., de Souza Barbosa, T., Gavião, M. B. D. Assessment of thickness and function of masticatory and cervical muscles in adults with and without temporomandibular disorders. Arch Oral Biol. 58 (9), 1100-1108 (2013).
  17. Standring, S. Gray's anatomy: the anatomical basis of clinical practice. , Elsevier Health Sciences. (2015).
  18. Farooq, M., Sazonov, E. A novel wearable device for food intake and physical activity recognition. Sensors. 16 (7), 1067 (2016).
  19. Zhang, R., Amft, O. Proceedings of the 2016 ACM International Symposium on Wearable Computers. , ACM. 50-52 (2016).
  20. Farooq, M., Sazonov, E. Segmentation and Characterization of Chewing Bouts by Monitoring Temporalis Muscle Using Smart Glasses with Piezoelectric Sensor. IEEE J Biomed Health Inform. , (2016).
  21. Huang, Q., Wang, W., Zhang, Q. Your Glasses Know Your Diet: Dietary Monitoring using Electromyography Sensors. IEEE Internet of Things Journal. , (2017).
  22. Chung, J., et al. A glasses-type wearable device for monitoring the patterns of food intake and facial activity. Scientific Reports. 7, 41690 (2017).
  23. Cristianini, N., Shawe-Taylor, J. An introduction to support Vector Machines: and other kernel-based learning methods. , Cambridge University Press Cambridge. (2000).
  24. Giannakopoulos, T., Pikrakis, A. Introduction to Audio Analysis: A MATLAB Approach. , Academic Press. (2014).
  25. Chang, C. -C., Lin, C. -J. LIBSVM: a library for support vector machines. ACM Trans Intell Syst Technol. 2 (3), 27 (2011).
  26. Po, J., et al. Time-frequency analysis of chewing activity in the natural environment. J Dent Res. 90 (10), 1206-1210 (2011).
  27. Ji, T. Frequency and velocity of people walking. Struct Eng. 84 (3), 36-40 (2005).
  28. Knoblauch, R., Pietrucha, M., Nitzburg, M. Field studies of pedestrian walking speed and start-up time. Transp Res Red. 1538, 27-38 (1996).

Tags

Dispositif portable de génie numéro 132 contrôle du comportement alimentaire (MIB) apport alimentaire activité physique peson PCB de fabrication impression 3D apprentissage automatique soutenir la machine de vecteur (SVM)
Conception et évaluation des lunettes actives de la prise alimentaire et de la Classification de l’activité physique
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Chung, J., Oh, W., Baek, D., Ryu,More

Chung, J., Oh, W., Baek, D., Ryu, S., Lee, W. G., Bang, H. Design and Evaluation of Smart Glasses for Food Intake and Physical Activity Classification. J. Vis. Exp. (132), e56633, doi:10.3791/56633 (2018).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter