1941年的小说,就构想了ChatGPT?
添加书签专注AIGC领域的专业社区,关注GPT-4、百度文心一言、华为盘古等大语言模型(LLM)的发展和应用落地,以及国内LLM的发展和市场研究,欢迎关注!
ChatGPT的“前世”《巴别塔图书馆》
1941年,博尔赫斯在短篇小说《巴别塔图书馆》(Babel Library) 中,构想了一个可能的图书馆式的宇宙:图书馆由数目不能确定的,也许是无限的,六角形回廊组成,每个六边形的墙壁都有五个书架,每个书架有32本相同版式的书,每本书有410页,每页有40行,每行大约有80个黑体字母。
这座图书馆由数目不能确定的、也许是无限的,六角形回廊组成。图书馆容纳了一切事物,它的书柜包含了这二十多个拼写代号的所有可能的组合(组合的数目,虽然很大,但不是无限的),它们就是我们所有语言可以表达的事物的总和。不管是已写成的还是永不被写的书,都会被收集在图书馆内,因此它充满了意想不到的可能和困惑。
建筑师王澍设计的“反转的巴别塔图书馆”的草图。
博尔赫斯认为图书馆收藏的书籍是对世界秩序和所有知识、问题的阐释。这个万能的图书馆、万能的宇宙对人类知识是无所不包、无所不容的。它涵纳了所有的书籍、所有可能排列组合的语言和文字,这些无限可能的语言、文字构成了解释世界秘密秩序的代码,并隐藏了预示着人类未来社会发展的秘密。
博尔赫斯把书籍里的书写符号概括为25个,即空格、句号、逗号和22个字母。所有书籍不管怎么变化,都是由这25个书写符号构成,它们的任意排列组合组成了所有书籍的可能,这体现了博尔赫斯的语言观,即语言是世界的本质。
用生成式AI的视角来看,这座图书馆简直就是ChatGPT的前世,有众多同样的技术特质:拥有海量的数据(书),无穷尽的排列组合玩法,甚至连意想不到的“涌现能力”都如出一辙。
如果博尔赫斯看到现在的ChatGPT,会有何感想呢?他会向ChatGPT提问:“巴别塔图书馆,是你的前世吗?”
回到人类发展演化的原初,语言在人类历史中扮演了一个关键性的角色,语言组成了世界秩序的内核,构成了世界的存在。西方哲学家海德格尔也曾有类似的论断。
美国布鲁克林作家乔纳森·巴斯勒则开始在一个名为“巴别塔图书馆”的网站上,以一种更具体有形的形式重建这个图书馆。这个网站将包含所有可能结合的1312000个字符。
人类恐怕永远无法了解巴别塔图书馆的秘密,但在这个过程中,“它允许理性可能会战胜非理性,然后粉碎它的短暂希望的存在……由此图书馆创造了一个理性的诱人承诺,在其页面某些位置有遗失在亚历山大图书馆的熊熊大火之中的所有作品,和每一部因废话连篇而被埋没的未来的杰作。”
刘慈欣的《诗云》也勾画了ChatGPT原型
无独有偶,刘慈欣于2003年发表的《诗云》中还讲述了另一个故事。一个掌握强大技术的外星文明,有能力毁灭恒星,却在被他们视为杂草和虫豸的地球生物面前遭遇到挑战,因为他们发现人类所拥有的“诗艺”远在技术的控制范围之外。
无法克隆人类“诗艺”的外星文明干脆开发出一种程序,以穷举的方式演算出所有文字可能的排列组合,并耗尽太阳系的全部能量,将规模惊人的数据存储起来,形成一片状如银河系的星云。
凭借超级技术创造的“诗云”虽然能存储人类所有已经写成与未来可能写出的文字组合,但最后只有具备鉴赏能力的人,才可以剔除其中毫无意义的冗余信息,找到一首真正的诗。
一个高等外星文明为了写出超越李白的诗歌,穷尽了太阳系的大部分能量,列举出了所有可能的字词组合,最终,他们“借助伟大的技术,我写出了诗词的巅峰之作”,却还是选择了认输,因为他们“不可能把它们从诗云中检索出来”。故事主要描述了一次技术与艺术的对抗。
为什么上帝会觉得好诗难找呢?是上帝算力不够?还是缺乏选择好诗的标准?刘慈欣在2003年再大的脑洞也想不到今天ChatGPT的所作所为。
“人类一思考,上帝就发笑”,人类思考越多,以为越接近真理了,却发现我们反被上帝愚弄了。人类所谓的推理能力、创造力和想象力,也许是人类发明出来自我安慰的概念。
推理力是指人们能够从已知的信息中推断出新的结论或答案的能力,也许所谓的“新的结论或答案”却早已存在,不过是之前人类无法记忆和理解的东西,就如同AlphaGo在围棋上展现出来的“神之一手”。想象力的本质,是人们面对复杂度高一点的,那些没见过的事物组合,觉得新颖的,自己没想到的,于是假象的赋予自己一种称为“想象力”的词语来表达这种情况。创造力也是人们把觉得那些无关联或弱关联的事物组合出新的成果,获得了超出预期的效果。
所以推理力、创造力和想象力本质上是一种“组合各种可能性”的能力。
在生物角度来说,人脑是无法想象自己没见过的东西的,人类的本质就是一个复读机,无法真正“凭空想象”出东西,不可能突破知识边界的封锁。如果AI能够拥有这些能力,那么它处理的方式和人类的方式是不一样,主要是看机器对于组合和评估各种信息的能力,在复杂度上什么时候能超过人类,对各个组合好坏的评估能力是否和人类的理解一致。《诗云》里上帝最大的问题,就是缺乏一个对各种组合结果的评估能力,而这个能力是可以通过大语言模型训练来完成的。
思维链
以ChatGPT为代表的大语言模型,可以在人工引导(RLHF)下,让大模型一步一步的处理,最后它能展示出思维链(CoT,Chain of Thought)的特征。推理能力是一种从已有经验推广到另外事物的能力,最简单的推理能力在表现上就是经验本身,也就是统计能力。大模型擅长的是统计能力,但为什么能从统计能力基础上演化出了推理力,人们还尚未知晓。
换种方式理解,在大语言模型看来,推理力也许只是一种高级的统计能力,所以逻辑推理也不过是一种统计模型,基于当前环境变量落在可能性最大的地方。而所谓的想象力和创造力也不过是那些概率排列组合的那些可能性小的一些地方。如果这种低概率组合后产出的效果超出了预期,就会变成知识的一部分,成了下个迭代周期里可能性更大的地方。
如此迭代,“知识”就产生了。据说,AlphaGo和李世石在围棋比赛中的那手“五路肩冲”,在后续查看记录来看,发现机器认为这步是万分之一的可能性,但它仍然认为这样是“对的”,可以胜利的。这就是在人类在传统理解上的一种“创新”。其实,我们在大语言模型上也看到了类似的现象。
语言是人类知识的载体,正因为人类语言的资产中带有极大的冗余性,所以之前机器无法在语言文本里找到这些知识。如果今天,大语言模型可以找到,那么就表带着它在某种程度上就是世界里的知识性的真实反映。
目前ChatGPT的推理复杂度和可靠性的上限就是互联网知识边界,平均质量并没有很高,目前GPT只是知识的复读机。未来,人类负责开拓知识边界,比如持续收集将各个行业数据、企业数据,以及人脑中的经验数据,大模型负责承接并帮助人类快速到达知识边界以及提高相关领域的知识水平,如此迭代往复。高质量的语料数据将成为关键,这些是需要人来采集、标注和训练的,也可以依靠高级的大语言模型来产出,例如现在ChatGPT的回答结果已经作为其他模型训练的数据集。
总之,不管是数据采集、模型训练和调优,还是RLHF,都是人与大模型相互合作开拓的,生成已有知识,再形成新知识,不断扩大它的知识边界。
END
加入AIGC开放社区交流群
添加微信:13331022201 ,备注“职位信息&名字”
管理员审核后加入讨论群