加州大学圣地亚哥分校的研究人员最近建立了一个人工智能系统,可以预测一只鸟在唱歌时会唱什么。这里的主要想法是声带假体的实时语音合成。
根据研究人员的说法,教人工智能理解这些歌曲是训练系统的重要一步,更重要的目标是理解人类的思维,并最终“唱出来”。
鸣禽是学习复杂声音行为的具有吸引力的模型。鸟的“歌声”与人类的语言有许多独特的相似之处,它的研究有助于研究声音运动技能背后的多种机制和回路。
但实时翻译发声并非易事。当前最先进的系统速度都很难达到人类自然思维到语音模式的万分之一。
当你与 Google 助理或 Alexa 虚拟助理互动时,通常会出现比预期更长的停顿时间。这是因为 AI 正在处理你的语音,确定每个单词及其相关的含义,进而确定下一步访问和部署的包或程序来回答对话。
该团队在十几个鸟的大脑(具体来说是斑胸草雀)中植入电极,然后开始记录鸟儿唱歌时的活动。
但是,仅仅训练 AI 识别鸟儿唱歌时的神经活动是不够的,即使是鸟儿的大脑不像人类这么复杂,这种训练也无法描绘出其神经元之间的通信方式。
因此,研究人员训练了另一个系统,实时处理鸟鸣时的大脑活动,然后用语音翻译出来。
但是,这项早期工作还没有为泛化做好准备,当将它扩展到鸟类词汇之外时,它可能就不起作用了。
话虽如此,随着进一步的发展,这可能也是脑机接口的巨大技术飞跃之一。