ChatGPT的智能还不如猫狗?
直至目前公开的对话AI仍存在严重缺陷。虽然是由AI读取大量数据,可以给出像模像样的答案,但也存在很多致命性错误。很难说AI真正理解了问题和自己用于作答的词汇的“含义”。通过梳理“ChatGPT”等对话AI出现的诸多错误,就可以发现机器要达到真正的智能所面临的核心技术课题。
事实上,领先一步的ChatGPT的基础是基于AI的大型语言模型,该模型建立在谷歌开发的被称为“Transformer”的技术之上。
谷歌和微软都强调,通过同时使用搜索和生成自然语言的功能,可以根据网上的最新信息生成语句。反过来说,对话AI此前一直不擅长追逐最新信息。
ChatGPT等的大型语言模型,每次更新信息内容时,都需要重新读取数量庞大的文献数据。因为很难频繁更新,所以模型内保存的信息大多比较旧。
除了上述的问题外,对话AI还存在根本性的课题。目前推出的对话AI基本上都很难说已经可以理解自己所使用的词汇的概念、含义、事物或现象的因果关系等“逻辑”。正因为如此,才会反复出现简单的事实误认。
例如,向ChatGPT询问“哥哥和姐姐有什么不同”时,得到的回答是“虽然兄弟姐妹关系因家庭结构和出生顺序不同而存在差异,但哥哥通常比姐姐年龄大”。之所以给出这样不知所以然的答案,是因为没有“理解”哥哥、姐姐等词语的概念、相互之间的关系、家庭构成等全局情况。
之所以会出现这样的错误,是因为现在使用的绝大部分语言模型是机器学习型AI。因此,使用的语言基本上是单词和短语的“排列”,机器通过读入数量庞大的过去的文献来识别排列类型。然后再计算出各类型出现的概率,寻找出接在问题之后的概率较高的字符串并加以显示。
也就是说,聊天AI不过是根据读取数据找出概率高的词序,并不是理解单词、语句的“含义”以及家庭成员之间的关系等“常识”。因此,它不擅长回答那些不理解意义和常识就难以回答的问题。
由于不擅长逻辑,因此Chat GPT也不擅长简单的计算。让它做任意4位数之间的乘法,大都会算错,并且反复输入相同算式时,总是给出错误的答案。
也就是说,现有的聊天AI不适合用于调查事实。而应该仅限于在不管内容的真实性和准确性,只需要自动生成自然语句和软件程序等文字列的目的时使用。
AI掀起过3次新技术浪潮。分别是1960年代、1980年代及从2010年代持续至今的第三次。其中,1960年代和1980年代是计算机根据人类预先编制好的逻辑,分析数据得出结论。由此也发现编制支持现实的无数逻辑不太可能,于是上一波浪潮在1990年代开始走向衰退。
2010年代开始、持续到现在的AI浪潮并不是人类思考逻辑,而是由让计算机自己归纳出数据的各种类型的机器学习来引领。随着相当于计算机大脑的半导体性能越来越高以及互联网普及,可以收集全世界的数据,被称为“深层学习”的可以识别复杂类型的软件技术问世等要素全部得以实现。
如果将机器学习型AI和“大数据”结合起来,限定于特定用途,就可以完成人类不可能完成的工作。比如,通过读取大量的面部照片,提高图形识别能力,从而实现智能手机开机时的面容解锁。
不过,要实现自动驾驶及自律型多功能机器人,相当于头脑的AI要具有识别眼前物体和周围情况的能力,其中包括过去没经历过的情况。
这需要基于逻辑和常识的推论能力,仅靠依赖“过去”事例的机器学习型模型并不能顺利实现。
对话型AI缺乏“常识”和“道理”也源于根据数据以归纳法方式探索相关类型的机器学习型AI的弱点。
兼具常识和逻辑思考的新一代AI如何才能实现?参考人类儿童自然掌握语言、空间认识及社会关系等的过程,让计算机学习逻辑和常识的研究正以脑科学家和认知科学家也参与的跨学科途径推进。另外,也有将在第2次AI浪潮下失败的人类输入逻辑和常识与尖端的深层学习相融合的尝试。
关于通过机器实现与人类接近的智能这一长期目标与现有AI技术的差距,开拓深层学习基本技术的美国Meta首席AI科学家、纽约大学教授Yann Lucan形容道:“目前先别说人类,就连猫狗的智能都远未达到”。
我们不能因为看到对话AI的流畅文章就误以为AI智能已经接近超越人类的“特异功能”(Singularity)。人类的科学技术在达到这一水平之前还需要实现众多突破。
页:
[1]