困扰人工智能50多年的常识问题,是否迎来“破局”?
文 | 丛末 编 | 贾伟 一堆木柴加上一根火柴,能得到什么?人类会自然而然地得出答案:火。然而对于机器而言,这并不容易,因而它们缺乏这种常识推理能力。 人工智能要变得像人一样聪明,常识推理能力是其必备的能力之一。 这,迄今为止已是一个困扰了人工智能 50 多年的难题。 当下,随着人工智能界对该问题的日益重视和研究上的不断精进,现在是否迎来“破局”了呢? 大家可能最先想到的就是OpenAI 于去年初发布的GPT-2,但很遗憾,它在常识上的表现尚且比较“生涩”。 发布之初,GPT-2这个具有15亿参数的通用语言模型,一时引起了轰动——成为《经济学人》第一个被采访的人工智能系统,《纽约客》也专门为它做了一篇特写。该模型生成的句子流畅度惊人,几乎可以假乱真,以至于OpenAI 公开表示,担心它太过优秀带来隐患而没有将模型完全公开。 不过,以批判人工智能炒作闻名的人工智能研究者Gary Marcus 对于GPT-2所呈现出来的“优秀”不以为然。 对此,去年10月份的一个夜晚,他对GPT-2进行了一次突击测试,在 GPT-2中输入了以下内容: 当你把引火柴和木头堆在壁炉里,然后往里面扔几根火柴时,你一般是要...... 如果系统足够聪明,会很轻易地想到“fire(生火)”这个词,然而GPT-2的回答是:“ick”。再一次的尝试后