
AI能识别出动物痛苦表情吗?
虽然理论上可行,但人工智能代替人类医生尚需要突破许多障碍,但是对于动物疾病诊断或兽医,可能已经能实现。动物饲养场完全可以利用人工智能兽医,通过分析动物表情,判断是否存在疾病。我的思考是,利用这样的系统,也可以作为研究工具,进行疾病相关的自动化动物实验。过去的许多行为学研究仍然相对粗糙,特别是对动物表情的分析十分缺乏。如果利用这样的系统,研究动物疼痛,可以作为药物效果的分析。
在英格兰东南部乡村一个细雨蒙蒙的清晨6点,数百头粉白色的母猪正醒来准备享用早餐。它们喷着鼻息、流着口水,急切地小跑到数十个喂食槽前,你挤我撞,疯狂地争抢着它们的早餐。
但首先,它们得拍照。
每头猪挤进自己的喂食槽时,一个微型摄像头就会拍下它的脸。不到1秒钟,一个人工智能(AI)系统仅凭借它的口鼻、耳朵、眼睛和其他面部特征就能识别出它。有了这一信息,人工智能便会指令一份定制的食物投放到食槽中。
与此同时,该系统会继续分析它的照片,寻找其面部表情中可能表明它处于疼痛、生病或情绪困扰的蛛丝马迹。如果发现任何异常,它会立即向隔壁房间正喝着早咖啡的农场主发出警报。
像Intellipig这样的人工智能系统可能会被部署在“智能农场”,为动物提供个性化照料。 (图片来源:HANSEN等人)
这些饥肠辘辘的小猪们,是Intellipig这款系统毫无察觉的 beta 测试者。该系统由西英格兰大学布里斯托分校(UWE)和苏格兰农学院(SRUC)的科学家们开发,旨在解决动物福利领域的一个根本性问题:我们人类并不擅长理解动物的感受。
Intellipig团队并非孤军奋战。世界各地的科学家都在借助人工智能解读动物的面部表情,从绵羊、马到猫等动物都有涉及。一些科学家已经开发出算法,在识别疼痛和痛苦迹象方面,这些算法比最细心的人类还要更快、更准确。
UWE的机器视觉工程师梅尔文·史密斯(Melvyn Smith)领导了Intellipig系统的设计,他表示,这些工具可能会开启一个关爱动物的新时代,更加重视动物的健康、福利和保护。他说,有诱人的迹象表明,这些工具甚至可以发挥更大作用。最终,在解读一系列类似于快乐、平静、沮丧或恐惧等更复杂的情绪方面,人工智能甚至可能超越人类——如果我们想让动物过上尽可能好的生活,理解这些情绪同样至关重要。
但和大多数思考人工智能力量的科学家一样,动物行为研究人员担心过度依赖机器,尤其是在动物福利面临风险的情况下。“也许机器最终会比我们更出色;我不知道,”SRUC的动物行为科学家艾玛·巴克斯特(Emma Baxter)说,她与史密斯合作。“我希望专家能发挥作用,确保(人工智能)确实在做它声称要做的事情。”
科学家们早就知道,和人类一样,动物也会通过面部传达它们的感受。1872年出版的《人类和动物的表情》一书中,查尔斯·达尔文(Charles Darwin)提出,面部表情是哺乳动物之间的一种“共同语言”,这种能力一定是在我们漫长的进化历程中发展而来的。
诺丁汉特伦特大学(Nottingham Trent University)的心理学家布里奇特·沃勒(Bridget Waller)说,达尔文的这一理论主要基于解剖学。包括人类在内的哺乳动物,有许多共同的面部肌肉,其作用就是做出面部表情。例如,我们与狗有38% 的面部动作是相同的,与猫有34% 相同,与灵长类动物和马则有47% 相同。
然而,解剖学上的相似性并不意味着我们能像读懂人类的面部表情那样读懂动物的。因此,研究动物交流的研究人员常常通过情境来推断动物的感受。
疼痛是最明显的例子:刚刚被阉割的马,或者患了散发恶臭、足部发红腐烂的跛脚绵羊,无疑都在承受痛苦。研究动物表情的研究人员也可以诱发轻微的不适,比如在腿上绑上血压袖带,或者在皮肤上涂抹一点辣椒提取物。另一方面,给动物服用止痛药通常似乎能让它们感觉好一些。
同样,在许多物种中,比如马和猫,通过带它们进行短途驾驶,或者将它们与同伴分开几分钟,就很容易引发轻微的压力。为了研究年轻母猪的压力,巴克斯特只是把年长的母猪带进来,这些年长母猪会表现出主导地位来恐吓年轻母猪。焦虑行为,比如呼叫和排便,以及压力荷尔蒙皮质醇水平的飙升,都可以证实动物处于压力之下。
科学家们花费了数千小时,坐在畜栏和笼子前,观察处于这些痛苦或压力情境下的动物的面部表情,然后将它们与很可能没有痛苦或压力的动物进行比较。因此,他们为各种物种制定了“痛苦表情量表”,根据动物面部肌肉的运动来衡量其痛苦或压力程度。
例如,瑞典农业科学大学(Swedish University of Agricultural Sciences)的马外科医生皮亚·豪布罗·安德森(Pia Haubro Andersen)说,耳朵向外转动,同时在眼睛上方形成“忧虑皱纹”的马,比耳朵和眼睛都放松的马更有可能处于痛苦之中(见下图)。她补充说,马用类似的耳朵动作和皱纹来表示压力,但也有细微差别,比如会伸出舌头。
该领域的专家已经熟练掌握了手动编码动物面部动作的方法,理论上,这可以用于动物福利检查。但安德森说,这是极其乏味的工作。人类编码员平均需要100秒才能识别出各种面部肌肉,并在一张图像中编码它们的位置,或者识别30秒视频则需要2到3个小时。
另一方面,人工智能几乎可以瞬间完成同样的任务,但首先,它必须经过学习。
在海法大学(University of Haifa)的办公室里,计算机科学家安娜·扎曼斯基(Anna Zamansky)在许多工作日里都要努力屏蔽以色列 - 哈马斯战争中警报声和爆炸声的嘈杂。有几次,她带着笔记本电脑和心爱的巧克力贵宾犬贝基(Becky)——它也是她最喜欢的研究模型——冲进防空洞。
然而,与加沙地带大学废墟中的科学家不同,扎曼斯基的团队得以继续他们的研究。他们正在训练人工智能系统自动解读动物的面部表情,希望能让动物的生活更美好。“把我们的智慧和最大能力用在动物福利这样美好的事情上,这真的帮助我们在这些艰难时期坚持下去,”她说,“这让我们充满希望。”
安娜·扎曼斯基梦想开发一种人工智能,能够解读狗的一系列情绪,比如她的巧克力贵宾犬贝基。(图片来源:奥弗·哈亚约夫)
扎曼斯基最初开发面部识别软件,是为了帮助人们找到走失的狗。狗主人将狗的面部照片上传到软件中,软件会在由热心陌生人提交的走失狗图像数据库中进行扫描匹配。扎曼斯基和她的共同开发者乔治·马特韦尔(George Martvel)——一名从俄乌战争中逃离俄罗斯征兵的博士生,已经将这项技术捐赠给了在乌克兰和巴西洪灾地区工作的救援组织,这项技术已经帮助数十只走失的狗与主人团聚。
最近,该团队转向了一项更具挑战性的任务:利用人工智能找出动物面部常常很微妙的不适迹象。首先,人工智能系统必须学会识别对形成表情至关重要的面部部位。这涉及在无数动物照片上手动标记与肌肉运动相关的重要“地标”,比如眼睛的上下边缘,或者鼻孔的两侧,然后将图像转换为大量数字点,就像儿童连线图画书中的一页。在肯尼亚自由职业者的帮助下,马特韦尔和他的同事已经为包括猫、狗、马和灵长类动物等各种物种的“成千上万”张脸标记了地标。
然后,科学家们可以将大量标记了地标的照片输入人工智能,教它自己在新图像中找到地标。例如,2016年的一项开创性工作中,剑桥大学(University of Cambridge)的计算机科学家彼得·罗宾逊(Peter Robinson)和他的团队在分析人类面部的研究基础上,开发了一种工具,可以自动在绵羊脸上找到嘴巴、眼睛和耳尖。一年后,加利福尼亚大学戴维斯分校(University of California, Davis)的计算机科学家创建了一个程序,该程序通过对人类面部图像进行训练,一旦将马和绵羊的脸扭曲成更像人类的形状,就能自动在上面标记地标。
马特韦尔说,他的人工智能现在在自动标记地标方面已经非常出色,甚至可以在它无法完全看到的脸上确定标记点的位置,比如当狗把鼻子埋在食碗里,或者猫从沙发后面探出头来时。
地标标记完成后,人工智能可以通过分析这些地标之间的距离来识别特定的面部表情。例如,如果一只猫张大并绷紧口鼻,这可能是它处于痛苦的迹象,此时嘴角两点之间的距离会变宽。通过将这些表情与研究人员已经创建的痛苦表情量表进行交叉参考,人工智能可以寻找痛苦或困扰的迹象。
痛苦表情
科学家通过观察眼睛、耳朵和其他面部特征周围的明显肌肉运动来评估动物的痛苦程度。人工智能(AI)系统通过测量面部“地标”(橙色和青色点)之间的距离做出类似判断。
细微变化
人工智能系统在判断动物是否痛苦方面,正变得比人类更快、更准确。部分原因是它们能够识别最微小的肌肉运动,并找到人类甚至都没有意识到的新的痛苦指标。(图片来源:A. 费舍尔/《科学》)
所有这些艰苦训练的结果,是人工智能系统能够以惊人的精度诊断动物福利问题。例如,罗宾逊的人工智能成功地从一群母羊中挑出了少数几只患有足部腐烂或乳腺炎的母羊。2023年,扎曼斯基和她的学生马塞洛·费格尔斯泰因(Marcelo Feighelstein)发现,他们的人工智能在判断猫是否痛苦方面的准确率达到了77%。
尽管这些工具很有效,但它们仍然依赖人类来初步确定在动物表情中寻找什么。因此,最近研究人员将更多的控制权交给了人工智能。一些科学家不再教计算机系统寻找预先确定的痛苦或压力表情,而是简单地给人工智能提供处于不同情境下的动物图像,让它们通过一种叫做深度学习的过程自己发现明显的迹象。
在英国智能农场进行试验的Intellipig系统也使用了深度学习。史密斯说,该人工智能不仅在识别个体猪方面胜过人类,准确率达到97%,而且事实证明,它仅通过面部特征就能出色地识别出压力。
人工智能系统已经熟练掌握了自动识别动物面部重要地标的技能。(图片来源:C. 莱斯特 - 拉塞尔/《科学》)
今年早些时候,扎曼斯基的团队发表的结果表明,一个自由发挥的人工智能在检测绵羊的痛苦方面,甚至比技术高超的兽医和行为专家还要出色。在82% 的试验中,该算法正确判断出一只绵羊刚做完痛苦的手术;而让四位训练有素的人看这只绵羊的脸,他们只有70% 的判断正确率。
扎曼斯基将人工智能的这些胜利比作1997年深蓝(Deep Blue)的历史性胜利。当时,IBM的超级计算机深蓝在数百万粉丝面前击败了俄罗斯国际象棋大师加里·卡斯帕罗夫(Garry Kasparov)。“就像现在每个人对人工智能的反应一样,卡斯帕罗夫的第一反应是恐慌。每个人都在想,‘天哪,人工智能要抢走我的工作了!’”扎曼斯基说,“但后来他们明白,人工智能只是一个非常强大的工具,可以提升他们自己的能力。”
不过,扎曼斯基警告说,一个可以自由决定在图像中寻找什么的计算机,可能会抓住错误的特征。一个典型的例子就是背景中的时钟。例如,想象一下,研究人员按照标准科学规程,每天上午10点拍摄无痛苦或快乐的动物照片,然后在下午5点拍摄这些动物处于相反状态的照片。“如果机器看到上午10点时钟的图像,它就会说这是一只没有痛苦的兔子,”她说,“即使事实并非如此。”
对人工智能实际如何做出决策缺乏了解,这让研究人员感到不安。“每个人都担心这个黑匣子,因为他们不知道机器是如何决定的,以及为什么这么决定,”扎曼斯基说。她的学生塔利·希特里特(Tali Shitrit)在她的博士论文中致力于弄清楚该团队的人工智能到底在动物面部寻找什么。她使用一种叫做梯度加权类激活映射(gradient - weighted Class Activation Mapping,简称GradCAM)的工具,该工具生成热图,显示人工智能在做决策时关注面部的哪些区域。
到目前为止,她发现,在不同数据集和物种中,机器通常认为眼睛区域提供的信息最多。不过,根据与汉诺威兽医大学(University of Veterinary Medicine Hannover)的兽医霍尔格·沃尔克(Holger Volk)合作完成的研究,在猫的图像中,热图显示鼻子和嘴巴周围的区域最为关键。
尽管存在这些问题,一些研究人员仍在进一步探索,努力开发能够解读比压力和痛苦更复杂情绪的系统,这些情绪更类似于人类的喜悦、愤怒或悲伤等体验。
布列塔尼·弗洛尔基维茨(Brittany Florkiewicz)是里昂学院(Lyon College)的进化心理学家,她看过的猫视频多得数不清。她和她的团队花了数百个小时观看洛杉矶一家猫咪咖啡馆里猫咪玩耍和打闹的视频,精心记录下这些动物面部表情的每一个细节,同时在它们的行为中寻找它们是否“快乐”的迹象。
这项研究发现,猫能做出多达276种不同的面部表情。现在,弗洛尔基维茨与马特韦尔和扎曼斯基合作,将人工智能应用于她的数据。这项技术已经表明,这些咖啡馆里的猫往往会微妙地模仿彼此的面部表情,这通常是一种通过梳理毛发或嬉戏打闹来建立亲密关系的邀请。
热图揭示了人工智能认为猫面部最具信息性的区域。(图片来源:马特韦尔等人)
在类似的研究中,扎曼斯基的团队用拉布拉多寻回犬的照片训练他们的人工智能,这些照片中的狗要么急切地期待着一份零食,要么能看到零食但却沮丧地无法拿到。该人工智能在89% 的情况下能够成功检测出狗是“快乐”还是“沮丧”。在区分“快乐”和“沮丧”的马方面,它同样成功。在同一实验中,一些马在发现期待中的零食根本不存在时被拍摄下来。研究人员发现,他们的人工智能在61% 的试验中能够正确地将马归类为“沮丧”或“失望”,这个成功率虽然不高,但比随机猜测要好。
为了在这些成功的基础上更进一步,马特韦尔和扎曼斯基现在正在构建处于不同情绪状态下的狗、猫、马和灵长类动物面部的数据库。该团队在互联网上搜索照片,要求照片的主人提供清晰的背景描述,从而明确动物可能的情绪。通过让人工智能处理这些照片,他们希望解读出一个物种在每种独特情绪场景下呈现出的不同面部表情。
扎曼斯基说,她的“梦想”是拥有一个“狗脸解读器”,能够揭示诸如快乐、悲伤和压力等基本情绪状态。鉴于不同犬种的面部和耳朵形状差异很大,这对人工智能来说是一个特别的挑战。“我知道现在还不可能实现,”她说,“但一年后,就有可能实现。这是我们一直对自己说的,而且我们正在为此努力。”弗洛尔基维茨说,有一天,机器甚至可能开始将某些面部表情与“意向性”联系起来,即辨别动物何时有目标,比如出门、抓取玩具或挑起争斗。
其中一个挑战是收集训练数据。“他们用相当于剑桥大学图书馆一半藏书量的文献来训练ChatGPT,而剑桥大学图书馆收藏了英国出版过的每一本书的副本,”罗宾逊说,“但事实证明,互联网上没有那么多狗、猫和绵羊的照片”,至少没有那些能清楚表明动物感受的照片,他说。
哥本哈根大学(University of Copenhagen)的动物交流专家埃洛迪·布里弗(Elodie Briefer)说,面部表情并不能说明全部情况。她一直在开发人工智能来解读猪和斑马叫声中的情绪。达尔豪斯大学(Dalhousie University)的农业工程师苏雷什·尼蒂拉詹(Suresh Neethirajan)说,为了探究动物的情绪,人工智能必须超越面部,考虑诸如摇尾巴或弓背姿势等因素。他自己用于农场动物福利检查的人工智能系统甚至会分析身体的热辐射,这对于面部表情有限的鸡和其他物种来说是一个重要线索。
尽管存在这些限制,扎曼斯基说,面部人工智能已经提供了“务实且现实”的机会。她的团队即将发布一款基于人工智能的应用程序,养猫的人可以用它扫描宠物的脸30秒,然后立即得到易于理解的信息,比如“检测到嘴巴周围有明显紧张;疼痛程度为中度”。
荷兰的研究人员开发了一款类似的应用程序,可以扫描休息中的马的面部和身体来估计它们的疼痛程度。伦乔尼(Lencioni)建议,人工智能最终可以在马术比赛中使用,奖励那些让马感到快乐和舒适的骑手,从而提高这项运动中的动物福利和公平性。
弗洛基维茨说,更广泛地说,实验室和宠物收容所可以利用人工智能监测动物的疼痛和情绪状态。而像在英格兰乡村进行试验的那些“智能农场”,有望通过日常监测为动物提供个性化照料。史密斯说,最终,人工智能助手不仅可以引导农场主让猪过上无压力的生活,还能让它们过上快乐的生活。
对扎曼斯基来说,这种前景让她所有的工作都有了价值。“我的工作是为动物创造更美好生活的推动者,”她说,“当我们知道我们的动物伙伴很快乐时,我们也会感到快乐。”
转载本文请联系原作者获取授权,同时请注明本文来自孙学军科学网博客。
链接地址:https://wap.sciencenet.cn/blog-41174-1473002.html?mobile=1
收藏