海豚语言被谷歌模型破译!有AI在研究猪叫,下一个最可能是狗

说宇宙寻真理 2025-04-20 14:04:52

声明:本文内容均引用权威资料结合个人观点进行撰写,文末已标注文献来源,请知悉。



AI产品越来越多,更是在迅猛发展。你有没有想过,未来的某一天,利用AI可以让人类轻松的与动物对话,也就是说,AI将能够听得懂动物语言。

听上去有些不可思议,谷歌近日表示,他们通过大模型正在逐步破解海豚的语言,相信在不远的未来,人类就能跟海豚展开无障碍交流。

实际上,借助AI理解动物的语言,近年来各国一直有研究,而且从科学和技术的角度出发,也找到了可行的方式方法。

那么,这具体是怎么操作的?AI真的能够理解动物的喜怒哀乐吗?

谷歌大模型即将听懂海豚话?

本月14号是世界海豚日,谷歌的CEO在当天宣布,他们推出的新的大模型接下来将实现和海豚的无障碍交流,未来跨物种交流将不再是梦。

谷歌方面新推出的模型很小,据说可以在手机上安装运行。至于是如何实现跨物种交流的,则是通过多年的声音数据训练,来逐步掌握海豚发声跟它的需求之间的关系。

从本质上来看,这种技术逻辑并不复杂。任何一种动物都会发出声音,海豚也不例外。动物发出的各种声音也都代表了不同的情绪和需求。

谷歌跟一个名为WDP的研究机构合作,这个机构常年在大西洋海域研究海豚,几十年的时间里积累了大量的视频和音频资料。

将这些资料和谷歌的大模型结合起来,通过分析和筛选以及运算,就能找出发出的声音信号之间的规律,再通过这种规律,就能逐步掌握海豚究竟在“说”什么。

比如海豚母子相见,就会发出类似于口哨的声音。如果海豚在打架,就会发出类似于脉冲一般的尖叫声。如果是求偶期,则会发出嗡嗡声。

所以说,谷歌方面宣布的大模型能够听得懂海豚的语言,实际上只是将过去的海量资料数据结合在了一起,通过AI的筛选以及运算分析,掌握了海豚发声的规律。

也可以这么说,这是人类多年以来收集的数据,只不过人类的运算分析能力有限,将这些数据交给AI,后者就能够逐步理解动物的叫声代表着什么。

类似的研究,其他国家也在推动,而且也是借助于AI。

AI听得懂猪的语言

2022年,一个跨国研究小组推出了一款AI产品,主要来翻译猪的叫声。这个研究小组由哥本哈根大学、苏黎世联邦理工学院、法国农业研究所的科研人员组成。

研究小组推出的AI产品能够听得懂猪的叫声,从而分析猪的情绪。研究团队录下了411头家猪,在不同场景下的7000多次叫声。

然后通过运算分析叫声,AI逐渐“理解”了猪发出叫声背后的信号所代表的含义。比如,一头猪如果很高兴,呼叫声会更短,振幅更低。如果一头猪在生气或者情绪低落,声音背后的信号则正好相反。

研究人员通过进一步的分析运算,最终使得AI产品理解猪叫声的准确率达到了92%。利用这样的产品,接下来养殖户就能准确的辨别猪的情绪是什么。

所以,还是那句话,听起来很复杂,但实际上这并不是什么高深的理论。只要拥有海量的动物叫声的样本,分析和运算这些叫声,就能从中找出规律。

除了分析动物的叫声外,再结合动物面部的表情,也能让AI理解动物在“说什么”。

AI分析绵羊的表情

剑桥大学的研究人员此前曾利用AI来分析绵羊的面部表情,绵羊不管是痛苦还是高兴,面部表情会发生显著的改变,只不过从人类的角度去看,难以捕捉和分析不同表情背后的含义。

AI产品则不一样,其强大的运算能力可以捕捉到绵羊面部表情的细微变化,将这种变化串联起来,分析背后的规律,就能逐步掌握不同表情代表了什么样的情绪。

科研人员给AI提供了大量的绵羊表情数据,AI分析之后逐渐标记出了不同表情背后的细微变化,比如鼻孔的变形、耳朵的旋转、眼睛的扩大和缩小。这种细微的变化人类通常捕捉和注意不到。

AI运用算法可以掌握绵羊表情的变化,最终就能判断绵阳处在什么样的状态之下。假设这项技术未来和视频监控结合在一起,AI每时每刻监控着绵羊,就能理解它们想要做什么。

不得不说,借助于AI的分析,人类就能逐步掌握动物的喜怒哀乐,不管是声音还是面部的表情,有些变化人类肉眼捕捉不到。但AI是理性而高效的,它可以分析相关的数据,也能参与捕捉动物的面部表情和声音。

听抹香鲸“聊家常”

谷歌推出的大模型试图研究海豚的语言,此前的一些科研人员这在一直研究抹香鲸的声音。一个研究人员曾经在海底旁听过两只抹香鲸断断续续的“对话”。

这位研究人员相信,抹香鲸之间的对话就像是人类拉家常,发出的声音都不重样,而且还伴随着不同的肢体动作。

针对抹香鲸声音的研究,是《国家地理》近年来支持的鲸语翻译计划。科研人员通过AI处理系统,然后对抹香鲸发出的声音进行运算分析。

AI要将抹香鲸发出的声音与特定的背景联系起来,然后一点点去发现背后的规律。这项研究和分析已经持续了几年的时间,如果下一步能够取得突破的话,通过AI产品就能让人类和抹香鲸进行对话。

听起来很乐观,但实际上研究的工作量相当繁重而庞大。

AI能理解到什么程度?

为了研究和分析鲸类发出的声音,科研人员在加勒比海海域布置了大量的水下机器人和浮标,这些设备一年收集的鲸鱼发出的声音最多可以达到40亿条。

不得不说,光是工作量就相当庞大。从AI的角度来看,实际上目前所有的AI产品并不能够理解人类说话或者是动物发声,究竟是怎么工作的。

AI所谓的理解,只是从海量的数据中去搜寻和抓住规律,利用这些规律逐步掌握发出声音的各种痕迹和轨迹。

在研究人员看来,目前的AI虽然还不能够理解这些,但是通过长时间的运算分析,发现声音背后的本质和规律,以及其在不同背景下所代表的含义,实际也算是一种理解方式。

除了分析鲸类的声音之外,布置在海底的监测设备,还可以将鲸鱼的画面数据源源不断的传递给人类。

AI也在不断的识别和分析不同的鲸鱼个体,通过海量的数据分析,逐渐就能发现谁是谁,以及不同的鲸鱼个体之间,谁和谁在进行“谈话交流”。

至于AI最终的理解程度,关键还要看数据的多少。其实不光是针对鲸类声音的研究,其他动物的发声以及它们的动作表情,如果进行分析研究的话,也能掌握背后的规律。

在这个过程中,AI发挥的作用至关重要。毕竟数据太多,人类的大脑根本分析不过来,AI可以在细微之处发现太多不一样的地方,捕捉到的各种细节很可能就是最关键的破解。

虽然AI在研究跨物种交流的项目中作用很大,但在一些科学家看来,研究越是深入,AI也越可能对我们形成误导。

AI发现的规律有可能是错的

伦敦玛丽皇后大学的一位动物学家认为,人类借助于AI分析和运算动物发出的声音,但AI在运算过程中可能会对我们造成误导。

这位动物学家利用AI产品分析鸟的叫声,用以研究鸟类的发展和进化。但是经过长期的实验后,他发现,如果人类不进行正确的引导,所有的AI模型会将许多与语言无关的声学特性也糅杂到分析中。

换句话说,如果对AI分析运算的结果不加以甄别,研究人员最终理解的动物叫声可能就是南辕北辙的。

在这位动物学家看来,研究鸟类的叫声,AI只能辅助,真正发挥作用的还得是鸟类自己。动物学家训练一种鸟雀,通过跳跃的方式来帮助科学家指出哪些鸟的鸣叫声背后最为相似。

还有研究人员认为,AI并不能解决任何生物学问题,也不能理解真正的生物语言的意义,所以人类要想解决与动物的沟通交流,最主要的一步还是要观察。

就像对鲸类声音的分析,AI可以帮助研究人员发现不同的规律以及不同的声学特征。但最关键的问题是,AI不能理解这些叫声代表了啥意思,人类同样也不能理解。

显而易见的是,目前针对各种动物叫声的研究,AI发挥的作用就是运算和分析,真正起主导作用的还是人类自己。

如果人类没有认真的对动物进行观测观察,即便发现了一些声音背后的规律,也不明白它代表着什么。

结语

国外的一些研究人员,希望通过AI来建立起一种跨物种、无障碍交流的互联网。通过设置在野外的各种各样的设备,可以帮助人类与动物进行交流。

这样的设想可谓野心勃勃,但显然在短时间内根本无法达成。不要说野外的动物,就是与人类朝夕相处的猫狗,现在人类对它们的叫声也了解甚少。

所以说,跨物种之间的交流可以有美好而远大的设想,但要完成背后的工作,恐怕不是在短时间内就能达成的。哪怕有AI打辅助,人类也不太可能真正听懂动物说的是什么。

参考资料:

《借助AI,人类能听懂动物的喜怒哀乐?》 科技日报 2022年5月9日

《破译萌宠语言,与动物直接交流,AI时代会让物种间“互联网”成真吗?》 文汇报 2022年3月19日

0 阅读:0

说宇宙寻真理

简介:感谢大家的关注