这个人工智能模型可以从自拍照中检测出11种情绪

  • 时间:
  • 浏览:0
  • 来源:极速快3_快3平台登陆_极速快3平台登陆

站长之家(ChinaZ.com) 7月31日 消息:机器学习模型能要能检测让我们让我们让我们 歌词 的面部和动作,并应用到智能手机面部解锁和Amoniji等功能中。然而,有些人工智能模型暂且能通过脸部动作预测用户的感受,这也正是EmoNet和其它AI的不同之处。

据tnw介绍,科罗拉多大学和杜克大学的研究人员开发了某种神经网络EmoNet,能要能将图像准确地分为 11 个夫妻感情类别。为了训练你你这一 模型,研究人员使用了 2187 个视频,将什么视频被划分为 27 个不同的夫妻感情类别,包括焦虑、惊讶和悲伤。

训练始于了后,研究人员还使用了25, 000 张图片来验证EmoNet识别情绪的准确度。研究人员得出结论,EmoNet能要能准确预测渴望、性欲或恐惧等情绪。然而,它无法非常精确地预测困惑、敬畏或惊讶的表情。机会有些表情如快乐、崇拜等有同类的面部特征,会让人及工智能模型感到困惑。

为了进一步改进模型,研究人员还召集了 18 我人及,测量了让我们让我们让我们 歌词 的大脑活动,同时向让我们让我们让我们 歌词 展示了 112 幅不同的表情图片。测试者再向EmoNet展示了相同类型情绪的照片,进而进行对比得出结果。

声明:本文系站长之家原创稿件,未经授权不得转载。申请转载