神经网络论文好发吗 Nature论文找到新证据:神经网络“举一反三”能力或超人类
阅读此文之前,麻烦您点击一下“关注”,既方便您进行讨论和分享,又能给您带来不一样的参与感,感谢您的支持!
大自然图片
搜狐科技出品
作者郑松毅
人们期待已久的神经网络“从一个实例推论到另一个实例”的能力终于得到验证,甚至超越了人类水平?
近日,《自然》杂志发表论文称,纽约大学和西班牙加泰罗尼亚研究所(ICREA)的研究人员提出了一种名为MLC(Meta- for )的元学习神经网络模型,神经网络可以让。类似人类的“从一个实例推论到其他实例”的能力。
据了解,“举一反三”的专业术语叫“系统泛化”,指的是神经网络从数据训练过程中学习和泛化规律模式,在新的背景下使用新方法的能力使用。词汇学到了。例如,当孩子首先理解什么是“钢笔”时,他随后就能理解“铅笔”和“钢笔”。
长期以来,神经网络的运行机制就像一个“黑匣子”,没有明确的理论解释。当你处理熟悉的常规数据时,这没什么问题,但当你处理全新的、前所未见的数据时,神经网络有时会产生令人震惊的错误,让人们质疑从一个例子到另一个例子的推理能力.画
论文中提到的MLC方法现在找到了神经网络能够具有良好系统泛化能力的新证据,刷新了人们对神经网络“举一反三”能力的刻板印象。
为了证明 MLC 具有“从一个实例到其他实例进行推论”的能力,研究人员邀请了 25 个人与机器进行竞赛。比赛非常有趣。为了确保参与者第一次学习这些单词,研究人员建议用“Dax”、“Wif”和“Lug”等本身没有意义的新单词标记不同颜色的圆圈,然后标记圆圈上写着“fep”、“kiki”等代表具体动作指令的新词。
图片来自报纸
其实根据图来总结规律并不难。例如,“dax”代表红色圆圈,“wif”代表绿色圆圈等。对于动作词,“fep”表示重复三次,“kiki”表示颠倒颜色图案的顺序等。上面给出的模式和生词之间的对应规则必须由参与者自己观察和总结,机器也必须通过学习样本数据来总结规则。
图片来自报纸完成样本学习任务后,人类和机器必须根据研究人员的指令(文本字符串)输出序列(彩色圆圈)。实验结果表明,人类系统泛化后输出结果的准确率为80.7%,而MLC表现更好,系统泛化基准误差率小于1%。相比之下,GPT-4的错误率超过42%,不如MLC。
《自然》杂志指出,新墨西哥州圣达菲研究所的计算机和认知科学家梅兰妮·米切尔 (Mélanie ) 在谈到这项研究时表示:“这项研究是一个有趣的原理证明,但这种训练方法是否可以应用于更大的数据集,还有待扩展。”甚至图形还有待观察。”
德国奥斯纳布吕克大学自然语言处理专家 Elia Bruni 认为,这项研究可以让神经网络成为更高效的教师。这不仅减少了训练 等系统所需的数据量,而且还最大限度地减少了“幻想”。