Une étude propose d'améliorer les prévisions informatiques sur la qualité des aliments
Vous êtes-vous déjà retrouvé devant des pommes exposées à l'épicerie en essayant de choisir les meilleures et vous êtes-vous demandé : « Existe-t-il une application pour cela ? »
Les modèles informatiques actuels basés sur l'apprentissage automatique utilisés pour prédire la qualité des aliments ne sont pas aussi cohérents que la capacité d'un être humain à s'adapter aux conditions environnementales. Pourtant, les informations compilées dans une étude de la station expérimentale agricole de l'Arkansas pourraient être utilisées un jour pour développer cette application, ainsi que pour fournir aux épiceries des informations sur la présentation des aliments de manière plus attrayante et optimiser les conceptions logicielles des systèmes de vision artificielle utilisés dans les installations de transformation.
L'étude menée par Dongyi Wang, professeur adjoint d'agriculture intelligente et de fabrication alimentaire au département de génie biologique et agricole et au département des sciences alimentaires, a récemment été publiée dans le Journal de l'ingénierie alimentaire.
Même si la perception humaine de la qualité des aliments peut être manipulée par l’éclairage, l’étude a montré que les ordinateurs formés avec des données provenant des perceptions humaines de la qualité des aliments ont fait des prédictions de qualité des aliments plus cohérentes dans différentes conditions d’éclairage.
« Lorsque l’on étudie la fiabilité des modèles d’apprentissage automatique, la première chose à faire est d’évaluer la fiabilité humaine », a déclaré Wang. « Mais il existe des différences dans la perception humaine. Ce que nous essayons de faire, c’est de former nos modèles d’apprentissage automatique pour qu’ils soient plus fiables et plus cohérents. »
L'étude a montré que les erreurs de prédiction informatiques peuvent être réduites d'environ 20 % en utilisant des données issues de la perception humaine de photos dans différentes conditions d'éclairage. Elle surpasse un modèle établi qui entraîne un ordinateur à l'aide d'images sans tenir compte de la variabilité de la perception humaine.
Même si les techniques de vision artificielle ont été largement étudiées et appliquées dans le domaine de l'ingénierie alimentaire, l'étude a noté que la plupart des algorithmes actuels sont formés sur la base de « vérités fondamentales étiquetées par l'homme ou d'informations de couleur simples ». Aucune étude n'a pris en compte les effets des variations d'éclairage sur la perception humaine et la manière dont les biais peuvent affecter la formation des modèles de vision artificielle pour les évaluations de la qualité des aliments, ont déclaré les auteurs.
Les chercheurs ont utilisé de la laitue pour évaluer les perceptions humaines dans différentes conditions d'éclairage, qui ont ensuite été utilisées pour entraîner le modèle informatique. Les évaluations sensorielles ont été réalisées au Centre des sciences sensorielles de la station expérimentale. Han-Seok Seo, professeur au département des sciences alimentaires et directeur du Centre des sciences sensorielles, était co-auteur de l'étude.
Sur 109 participants appartenant à une large tranche d’âge, 89 ont complété les neuf séances sensorielles de la phase de fiabilité de la perception humaine de l’étude. Aucun des participants n’était daltonien ou n’avait de problèmes de vision. Pendant cinq jours consécutifs, les panélistes ont évalué 75 images de laitue romaine chaque jour. Ils ont noté la fraîcheur de la laitue sur une échelle de zéro à 100.
Les images de laitue évaluées par le panel sensoriel étaient des échantillons photographiés sur une période de huit jours afin d'obtenir différents niveaux de brunissement. Elles ont été prises sous différentes luminosités d'éclairage et températures de couleur, allant d'un ton bleuté « froid » à un ton orangé « chaud », pour obtenir un ensemble de données de 675 images.
Plusieurs modèles d’apprentissage automatique bien établis ont été appliqués pour évaluer les mêmes images que le panel sensoriel, a noté l’étude. Différents modèles de réseaux neuronaux ont utilisé les images d’échantillon comme entrées et ont été formés pour prédire la note humaine moyenne correspondante afin de mieux imiter la perception humaine.
Comme le montrent d’autres expériences menées au Centre des sciences sensorielles, la perception humaine de la qualité des aliments peut être modifiée par l’éclairage. Par exemple, des couleurs environnementales plus chaudes peuvent masquer le brunissement de la laitue, explique Wang.
Wang a déclaré que la méthode permettant de former des ordinateurs basés sur la vision artificielle en utilisant les perceptions humaines dans différentes conditions d'éclairage pourrait être appliquée à de nombreuses choses, des aliments aux bijoux.
Parmi les autres co-auteurs de l'étude de l'Université de l'Arkansas figuraient Shengfan Zhang, professeur associé d'ingénierie industrielle au College of Engineering ; Swarna Sethu, ancienne chercheuse postdoctorale au département d'ingénierie biologique et agricole, et désormais professeure adjointe de sciences informatiques à la Missouri Southern State University ; et Victoria J. Hogan, assistante de programme au département des sciences alimentaires.