-1::1
Simple Hit Counter
Skip to content

Products

Solutions

×
×
Sign In

FR

EN - EnglishCN - 简体中文DE - DeutschES - EspañolKR - 한국어IT - ItalianoFR - FrançaisPT - Português do BrasilPL - PolskiHE - עִבְרִיתRU - РусскийJA - 日本語TR - TürkçeAR - العربية
Sign In Start Free Trial

RESEARCH

JoVE Journal

Peer reviewed scientific video journal

Behavior
Biochemistry
Bioengineering
Biology
Cancer Research
Chemistry
Developmental Biology
View All
JoVE Encyclopedia of Experiments

Video encyclopedia of advanced research methods

Biological Techniques
Biology
Cancer Research
Immunology
Neuroscience
Microbiology
JoVE Visualize

Visualizing science through experiment videos

EDUCATION

JoVE Core

Video textbooks for undergraduate courses

Analytical Chemistry
Anatomy and Physiology
Biology
Calculus
Cell Biology
Chemistry
Civil Engineering
Electrical Engineering
View All
JoVE Science Education

Visual demonstrations of key scientific experiments

Advanced Biology
Basic Biology
Chemistry
View All
JoVE Lab Manual

Videos of experiments for undergraduate lab courses

Biology
Chemistry

BUSINESS

JoVE Business

Video textbooks for business education

Accounting
Finance
Macroeconomics
Marketing
Microeconomics

OTHERS

JoVE Quiz

Interactive video based quizzes for formative assessments

Authors

Teaching Faculty

Librarians

K12 Schools

Biopharma

Products

RESEARCH

JoVE Journal

Peer reviewed scientific video journal

JoVE Encyclopedia of Experiments

Video encyclopedia of advanced research methods

JoVE Visualize

Visualizing science through experiment videos

EDUCATION

JoVE Core

Video textbooks for undergraduates

JoVE Science Education

Visual demonstrations of key scientific experiments

JoVE Lab Manual

Videos of experiments for undergraduate lab courses

BUSINESS

JoVE Business

Video textbooks for business education

OTHERS

JoVE Quiz

Interactive video based quizzes for formative assessments

Solutions

Authors
Teaching Faculty
Librarians
K12 Schools
Biopharma

Language

French

EN

English

CN

简体中文

DE

Deutsch

ES

Español

KR

한국어

IT

Italiano

FR

Français

PT

Português do Brasil

PL

Polski

HE

עִבְרִית

RU

Русский

JA

日本語

TR

Türkçe

AR

العربية

    Menu

    JoVE Journal

    Behavior

    Biochemistry

    Bioengineering

    Biology

    Cancer Research

    Chemistry

    Developmental Biology

    Engineering

    Environment

    Genetics

    Immunology and Infection

    Medicine

    Neuroscience

    Menu

    JoVE Encyclopedia of Experiments

    Biological Techniques

    Biology

    Cancer Research

    Immunology

    Neuroscience

    Microbiology

    Menu

    JoVE Core

    Analytical Chemistry

    Anatomy and Physiology

    Biology

    Calculus

    Cell Biology

    Chemistry

    Civil Engineering

    Electrical Engineering

    Introduction to Psychology

    Mechanical Engineering

    Medical-Surgical Nursing

    View All

    Menu

    JoVE Science Education

    Advanced Biology

    Basic Biology

    Chemistry

    Clinical Skills

    Engineering

    Environmental Sciences

    Physics

    Psychology

    View All

    Menu

    JoVE Lab Manual

    Biology

    Chemistry

    Menu

    JoVE Business

    Accounting

    Finance

    Macroeconomics

    Marketing

    Microeconomics

Start Free Trial
Loading...
Home
JoVE Journal
Engineering
Réseaux neuronaux profonds pour l’évaluation alimentaire basée sur l’image
Réseaux neuronaux profonds pour l’évaluation alimentaire basée sur l’image
JoVE Journal
Engineering
Author Produced
This content is Free Access.
JoVE Journal Engineering
Deep Neural Networks for Image-Based Dietary Assessment

Réseaux neuronaux profonds pour l’évaluation alimentaire basée sur l’image

Full Text
10,084 Views
13:19 min
March 13, 2021

DOI: 10.3791/61906-v

Simon Mezgec1, Barbara Koroušić Seljak2

1Jožef Stefan International Postgraduate School, 2Computer Systems Department,Jožef Stefan Institute

AI Banner

Please note that some of the translations on this page are AI generated. Click here for the English version.

Overview

This article presents technology for automated recognition of food and beverage items using images from mobile devices. It focuses on deep neural networks for dietary assessment through two main approaches: food image recognition and food image segmentation.

Key Study Components

Area of Science

  • Neuroscience
  • Computer Vision
  • Dietary Assessment

Background

  • Manual dietary assessments are costly and time-consuming.
  • Automated solutions simplify dietary intake recording.
  • Image-based approaches leverage smartphone technology.
  • Deep neural networks are at the forefront of this field.

Purpose of Study

  • To develop automated recognition technology for food items.
  • To enhance the quality and efficiency of dietary assessments.
  • To provide a comprehensive solution for food image analysis.

Methods Used

  • Image data collection using a Python script with Google API.
  • Data augmentation techniques including rotation and noise addition.
  • Training deep learning models like NutriNet and FCN-8S.
  • Manual annotation of food images for segmentation tasks.

Main Results

  • Development of a robust food image recognition model.
  • Successful segmentation of both real and fake food images.
  • Creation of a diverse food image dataset for training.
  • Improved accuracy in dietary assessments through automation.

Conclusions

  • Automated food recognition technology can significantly aid dietary assessments.
  • Deep learning approaches show promise in food image analysis.
  • Future work can expand on the dataset and model capabilities.

Frequently Asked Questions

What is the main focus of this study?
The study focuses on developing automated recognition technology for food items using mobile device images.
How does the technology improve dietary assessments?
It simplifies the process by allowing users to take images of their food, which are then analyzed automatically.
What methods are used for image data collection?
A Python script utilizing the Google custom search API is used to gather images of food items.
What are the key components of the deep learning models?
The models include food image recognition and segmentation techniques to analyze dietary intake.
What results were achieved from the study?
The study achieved a robust food image recognition model and improved accuracy in dietary assessments.
What future work is suggested?
Future work could involve expanding the dataset and enhancing model capabilities for better accuracy.

L’objectif des travaux présentés dans cet article est de développer une technologie de reconnaissance automatisée des aliments et des boissons à partir d’images prises par des appareils mobiles. La technologie comprend deux approches différentes - la première effectue la reconnaissance de l’image alimentaire tandis que la seconde effectue la segmentation de l’image alimentaire.

En raison des problèmes et des coûts associés aux approches manuelles d’évaluation diététique, des solutions automatisées sont nécessaires pour faciliter et accélérer le travail et augmenter sa qualité. Aujourd’hui, les solutions automatisées sont en mesure d’enregistrer l’apport alimentaire d’une personne d’une manière beaucoup plus simple, par exemple en prenant une image avec un appareil photo smartphone. Dans cet article, nous nous concentrerons sur de telles approches basées sur l’image de l’évaluation alimentaire à l’aide de réseaux neuronaux profonds, qui représentent l’état de l’art dans le domaine.

En particulier, nous présenterons trois solutions, l’une pour la reconnaissance de l’image alimentaire, l’autre pour la segmentation d’images de répliques alimentaires, ou faux aliments, et l’autre pour la segmentation de l’image de la nourriture réelle. Rassemblez une liste des différents aliments et boissons qui seront les sorties du modèle de reconnaissance de l’image alimentaire. Enregistrez la liste des aliments et des boissons dans un fichier texte, tel que TXT ou CSV.

Notez que le fichier texte utilisé par les auteurs de cet article peut être trouvé dans les fichiers supplémentaires sous les articles alimentaires point TXT et comprend une liste de 520 produits alimentaires slovènes. Écrivez ou téléchargez un script Python qui utilise l’API de recherche personnalisée Google pour télécharger des images de chaque aliment de la liste et les enregistre dans un dossier distinct pour chaque aliment. Notez que le script Python utilisé par les auteurs de cet article peut être trouvé dans les fichiers supplémentaires sous télécharger des images dot pi.

Si ce script est utilisé, la ligne de clé du développeur variable développeur développeur huit dans le code de script Python et moteur de recherche personnalisé ID variable CX ligne 28 dans le code de script Python doivent être remplacés par des valeurs spécifiques au compte Google utilisé. Exécutez le script Python à partir de l’étape 1.1.3. Créez une nouvelle version de chaque image à partir de l’ensemble de données d’image alimentaire en la faisant pivoter de 90 degrés, à l’aide de la bibliothèque CLoDSA.

Notez que le script Python contenant toutes les commandes CLoDSA utilisées par les auteurs de cet article peut être trouvé dans un fichier inclus dans les fichiers supplémentaires sous NutriNet souligner augmentation dot pi. Créez une nouvelle version de chaque image à partir de l’ensemble de données d’image alimentaire en la faisant pivoter de 180 degrés, à l’aide de la bibliothèque CLoDSA. Créez une nouvelle version de chaque image à partir de l’ensemble de données d’image alimentaire en la faisant pivoter de 270 degrés, à l’aide de la bibliothèque CLoDSA.

Créez une nouvelle version de chaque image à partir de l’ensemble de données d’image alimentaire en la renversant horizontalement, à l’aide de la bibliothèque CLoDSA. Créez une nouvelle version de chaque image à partir de l’ensemble de données d’image alimentaire en y ajoutant du bruit de couleur aléatoire, à l’aide de la bibliothèque CLoDSA. Créez une nouvelle version de chaque image à partir de l’ensemble de données d’image alimentaire en zoomant dessus de 25 % à l’aide de la bibliothèque CLoDSA.

Enregistrez des images des étapes 1.3.1 à 1.3.6 ainsi que les images originales dans un nouvel ensemble de données d’image alimentaire. Au total, sept variantes par image alimentaire. Importez l’ensemble de données d’image alimentaire de l’étape 1.3.7 dans l’environnement des chiffres NVIDI, divisant l’ensemble de données en sous-ensembles de formation, de validation et de test.

Copiez et coller le texte de définition de l’architecture NutriNet en chiffres NVIDIA. Notez que la définition de l’architecture NutriNet peut être trouvée dans les fichiers supplémentaires sous NutriNet dot proto TXT. En option, définissez des hyper-paramètres de formation dans les chiffres NVIDIA ou utilisez les valeurs par défaut.

Les hyper-paramètres utilisés par les auteurs de cet article peuvent être trouvés dans un fichier inclus dans les fichiers supplémentaires sous NutriNet soulignent hyper-paramètres point proto TXT. Exécutez la formation du modèle NutriNet. Une fois la formation terminée, prenez l’itération de modèle NutriNet la plus performante.

Ce modèle est ensuite utilisé pour tester les performances de cette approche. Notez qu’il existe plusieurs façons de déterminer l’itération modèle la plus performante. Consultez les textes de l’article pour plus de détails.

Obtenez un ensemble de données d’images de faux aliments. Notez que les auteurs de cet article ont reçu des images de faux aliments qui ont été recueillis dans un environnement de laboratoire. Annotez manuellement chaque image alimentaire au niveau pixel.

Chaque pixel de l’image doit contenir des informations sur la classe alimentaire à laquelle il appartient. Notez qu’il existe de nombreux outils pour y parvenir. Les auteurs de cet article ont utilisé l’annotateur de segment JavaScript.

Le résultat de cette étape est une image d’annotation pour chaque image de l’ensemble de données d’image alimentaire, où chaque pixel représente l’une des classes alimentaires. Effectuez les mêmes étapes que dans la section 1.3, mais uniquement sur les images du sous-ensemble de formation de l’ensemble de données sur l’image alimentaire. Notez qu’à l’exception de l’étape 1.3.5, toutes les étapes d’augmentation des données doivent également être effectuées sur les images d’annotation correspondantes.

Effectuez les mêmes étapes qu’à la section 1.4, à l’exception de l’étape 1.4.2. À la place de cette étape effectuer les étapes 2.3.2 et 2.3.3. Notez que les hyper-paramètres de formation utilisés par les auteurs de cet article peuvent être trouvés dans le fichier inclus dans les fichiers supplémentaires sous FCN-8S soulignent hyper-paramètres dot proto TXT.

Copiez et coller le texte de définition de l’architecture FCN-8S en chiffres NVIDIA. Entrez les poids du modèle FCN-8S préentraînés dans les chiffres NVIDIA. Notez que ces poids de modèle ont été préformés sur l’ensemble de données pascal classes d’objets visuels et peuvent être trouvés sur Internet.

Téléchargez l’ensemble de données sur l’image des aliments à partir du site Web du Défi de reconnaissance des aliments. Effectuez les étapes 1.3.1 à 1.3.4. Notez que le script Python contenant toutes les commandes CLoDSA utilisées par les auteurs de cet article peut être trouvé dans le fichier inclus dans les fichiers supplémentaires sous FRC souligner augmentation dot pi.

Créez une nouvelle version de chaque image à partir de l’ensemble de données d’image alimentaire en y ajoutant du flou gaussien, à l’aide de la bibliothèque CLoDSA. Créez une nouvelle version de chaque image à partir de l’ensemble de données d’image alimentaire en l’aiguisant, à l’aide de la bibliothèque CLoDSA. Créez une nouvelle version de chaque image à partir de l’ensemble de données d’image alimentaire en y appliquant une correction gamma, à l’aide de la bibliothèque CLoDSA.

Enregistrez des images des étapes 3.2.1 à 3.2.4 ainsi que les images originales dans un nouvel ensemble de données d’image alimentaire. Au total, huit variantes par image alimentaire. Enregistrez des images des étapes 3.2.2 à 3.2.4 ainsi que les images originales dans un nouvel ensemble de données d’image alimentaire.

Au total, quatre variantes par image alimentaire. Modifiez la définition d’architecture HTC ResNet 101 existante à partir de la bibliothèque de détection MM afin qu’elle accepte les ensembles de données d’image alimentaire à partir des étapes 3.1.1, 3.2.5 et 3.2.6. En option, modifiez la définition d’architecture HTC ResNet 101 à partir de l’étape 3.3.1 pour définir les hypermétrèmes de formation ou utiliser les valeurs par défaut.

Notez que la définition modifiée htc ResNet 101 architecture peut être trouvé dans les fichiers supplémentaires sous HTC soulignez ResNet 101 dot pi. Exécutez la formation du modèle HTC ResNet 101 sur les ensembles de données d’image alimentaire à partir de l’étape 3.1.1 à l’aide de la bibliothèque de détection MM. Une fois la formation de l’étape 3.3.3 terminée, prenez l’itération du modèle HTC ResNet 101 la plus performante et peaufinez-la en exécutant la prochaine phase de formation sur l’ensemble de données sur l’image alimentaire à partir de l’étape 3.2.5.

Notez qu’il existe plusieurs façons de déterminer l’itération modèle la plus performante. Consultez les textes de l’article pour plus de détails. Ceci est également pertinent pour les prochaines étapes.

Une fois la formation de l’étape 3.3.4 terminée, prenez l’itération du modèle HTC ResNet 101 la plus performante et peaufinez-la en exécutant la prochaine phase de formation sur l’ensemble de données sur l’image alimentaire à partir de l’étape 3.2.6. Une fois la formation de l’étape 3.3.5 terminée, prenez l’itération du modèle HTC ResNet 101 la plus performante et peaufinez-la en exécutant à nouveau la prochaine phase de formation sur l’ensemble de données d’image alimentaire à partir de l’étape 3.2.5. Après la formation de l’étape 3.3.6 est terminée, prendre la meilleure performance HTC ResNet 101 itération modèle.

Ce modèle est ensuite utilisé pour tester les performances de cette approche. Notez que les étapes 3.3.3 à 3.3.7 ont donné les meilleurs résultats aux fins définies par les auteurs de cet article. L’expérimentation est nécessaire pour chaque ensemble de données afin de trouver la séquence optimale des étapes de formation et d’augmentation des données.

Après avoir testé le modèle de tendance NutriNet a atteint une précision de classification de 86,72% sur l’ensemble de données de reconnaissance, qui était d’environ 2% plus élevé que AlexNet et légèrement plus élevé que GoogLeNet, qui étaient populaires architectures réseau neuronaux profonds de l’époque. Pour mesurer la précision du modèle de segmentation de l’image des aliments contrefaits FCN-8S, la mesure de précision des pixels a été utilisée. L’exactitude du modèle FCN-8S formé était de 92,18 %La solution resNet pour la segmentation de l’image alimentaire a été évaluée à l’aide de la mesure de précision définie dans le Défi de reconnaissance des aliments.

À l’aide de cette mesure, le modèle de train a obtenu une précision moyenne de 59,2 %, ce qui s’est classé au deuxième rang du Défi de reconnaissance des aliments. Ces dernières années, les réseaux neuronaux profonds ont été validés à plusieurs reprises comme une solution appropriée pour reconnaître les images alimentaires. Notre travail présenté dans cet article sert à le prouver davantage.

L’approche de reconnaissance de l’image alimentaire à sortie unique est simple et peut être utilisée pour des applications simples. Alors que l’approche de segmentation de l’image alimentaire nécessite plus de travail dans la préparation d’images annotées, mais elle est beaucoup plus applicable aux images du monde réel. À l’avenir, notre objectif sera d’évaluer davantage les procédures développées sur les images du monde réel.

La première étape vers la validation du monde réel a été fournie par le Défi de reconnaissance alimentaire, qui comprenait un ensemble de données d’images alimentaires du monde réel. Mais d’autres travaux doivent être réalisés pour valider cette approche sur les images alimentaires du monde entier et en coopération avec les diététiciens.

Explore More Videos

Ingénierie numéro 169 reconnaissance de l’image alimentaire segmentation de l’image alimentaire réseaux neuronaux profonds apprentissage profond réseaux neuronaux convolutionnels évaluation alimentaire

Related Videos

Développement itératif d’un outil innovant d’évaluation diététique basé sur smartphone : Traqq

04:54

Développement itératif d’un outil innovant d’évaluation diététique basé sur smartphone : Traqq

Related Videos

5.4K Views

Application de la segmentation d’images médicales basée sur l’apprentissage profond via la tomodensitométrie orbitale

04:48

Application de la segmentation d’images médicales basée sur l’apprentissage profond via la tomodensitométrie orbitale

Related Videos

3.6K Views

Réseau neuronal profond de bout en bout pour la détection d’objets saillants dans des environnements complexes

03:31

Réseau neuronal profond de bout en bout pour la détection d’objets saillants dans des environnements complexes

Related Videos

1.2K Views

DeepOmicsAE : Représentation de modules de signalisation dans la maladie d’Alzheimer avec l’analyse de l’apprentissage profond de la protéomique, de la métabolomique et des données cliniques

09:47

DeepOmicsAE : Représentation de modules de signalisation dans la maladie d’Alzheimer avec l’analyse de l’apprentissage profond de la protéomique, de la métabolomique et des données cliniques

Related Videos

2K Views

Intégration de l’évaluation comportementale animale et du réseau de neurones convolutifs pour étudier l’interaction entre le wasabi et l’alcool

06:19

Intégration de l’évaluation comportementale animale et du réseau de neurones convolutifs pour étudier l’interaction entre le wasabi et l’alcool

Related Videos

924 Views

La détection automatisée de l’espace articulaire améliore la précision de segmentation des os

06:45

La détection automatisée de l’espace articulaire améliore la précision de segmentation des os

Related Videos

253 Views

Préparation des réseaux de cristaux liquides pour macroscopique mouvement oscillatoire induite par la lumière

07:56

Préparation des réseaux de cristaux liquides pour macroscopique mouvement oscillatoire induite par la lumière

Related Videos

12.2K Views

Analyse de l’applicabilité des méthodes d’évaluation des paramètres morphologiques des barres d’acier corrodé

10:24

Analyse de l’applicabilité des méthodes d’évaluation des paramètres morphologiques des barres d’acier corrodé

Related Videos

7.1K Views

Impacts des sphères en chute libre sur une piscine profonde liquide avec des Conditions de Surface liquide altéré et frappe

08:49

Impacts des sphères en chute libre sur une piscine profonde liquide avec des Conditions de Surface liquide altéré et frappe

Related Videos

7.1K Views

Déploiement automatisé d'un service de téléphonie de protocole Internet sur les véhicules aériens sans pilote à l'aide de fonctions réseau Virtualisation

07:49

Déploiement automatisé d'un service de téléphonie de protocole Internet sur les véhicules aériens sans pilote à l'aide de fonctions réseau Virtualisation

Related Videos

8.6K Views

JoVE logo
Contact Us Recommend to Library
Research
  • JoVE Journal
  • JoVE Encyclopedia of Experiments
  • JoVE Visualize
Business
  • JoVE Business
Education
  • JoVE Core
  • JoVE Science Education
  • JoVE Lab Manual
  • JoVE Quizzes
Solutions
  • Authors
  • Teaching Faculty
  • Librarians
  • K12 Schools
  • Biopharma
About JoVE
  • Overview
  • Leadership
Others
  • JoVE Newsletters
  • JoVE Help Center
  • Blogs
  • JoVE Newsroom
  • Site Maps
Contact Us Recommend to Library
JoVE logo

Copyright © 2026 MyJoVE Corporation. All rights reserved

Privacy Terms of Use Policies
WeChat QR code