|
廖俊平 广州学者 最近智能聊天机器人程序ChatGPT大热,我也凑热闹,有事没事去问它两句。看到有人问它“潘金莲千里走单骑”“刘姥姥醉打蒋门神”之类,它一本正经地给出不靠谱的答案,我也试了一下,问它“关公和秦琼谁赢了?”,它开口说的第一句还挺靠谱:“关公和秦琼是中国历史上的著名人物,但是并不存在任何记载证明两者有过战斗。”接着介绍关公也挺准确,但再往下就胡说了:“秦琼是中国历史上的一位名妓,因其美貌和才华而闻名于世。她曾是明朝皇帝的宠妃。” 我怀疑系统要先把中文翻译成英文,然后在知识库中搜索,秦琼译成英文以后可能在和知识库匹配的时候就出错了。 再试:“请说说贾宝玉倒拔垂杨柳的故事。”这次开口就胡说八道了:“贾宝玉倒拔垂杨柳是清代文学家金庸先生的小说《红楼梦》中的一个故事。”而且接下去还煞有介事地编了一段“贾宝玉倒拔垂杨柳的故事”,有场景有情节,最后还发掘出深刻的意义:“他意识到,在拔掉杨柳的同时,他也在摧毁美好的事物。” 有朋友认为这说明ChatGPT资料库的中国古代文化资料非常薄弱,这完全有可能。不过我也在想是不是有另一种可能:比如遇到有人编排我,把一些离奇古怪的事安到我头上,我可能并不去辩解,而是顺着他继续编排出更加离奇古怪的事,旁人听了就知道我是啥意思了。ChatGPT是不是也有这样的高级幽默能力——你拿这种胡编乱造的东西来跟我聊,那我比你更能胡编乱造。之所以这么猜测,因为“清代文学家金庸先生的小说《红楼梦》”这个错法太低级,低级到像是故意在出错。