数字化 | 大语言模型不能做什么?

玩技站长
玩技站长
玩技站长
管理员, Keymaster
10848
文章
669
评论
科技百科评论145字数 2789阅读9分17秒阅读模式
摘要最佳答案:数字|大语言模型做不到什么? 并将其数字化 人工智能并不是另一个灶台将人类智能远远甩在后面,AlphaFold这样的知识生产应用也说明了人工智能未来发展趋势深厚的人机协作...

数字化 | 大语言模型不能做什么?

▋数字化文章源自玩技e族-https://www.playezu.com/793308.html

人工智能不太可能另起炉灶将人类智能远远甩在身后,像AlphaFold这样的知识生产应用也表明,人工智能的未来发展趋势将是深度的人机合作。文章源自玩技e族-https://www.playezu.com/793308.html

原文:大语言模型不能做什么文章源自玩技e族-https://www.playezu.com/793308.html

作者 | 上海社会科学院哲学研究所助理研究员 阮 凯文章源自玩技e族-https://www.playezu.com/793308.html

图片 |网络文章源自玩技e族-https://www.playezu.com/793308.html

以大语言模型为代表的大模型技术正在引领新的人工智能热潮,人文社会科学领域也对大模型多有关注,相关讨论多集中于它的社会影响、伦理风险和治理策略。但在技术治理之外,如果我们以大语言模型为切入口,系统地总结大模型能做什么、不能做什么,哪些事情是人能做得好而大模型做不好的,这将有助于我们更好地发挥其优势、认清其局限,避免对它的过度神化。文章源自玩技e族-https://www.playezu.com/793308.html

不能创造语言文章源自玩技e族-https://www.playezu.com/793308.html

大语言模型代表了人类在人机交互事业上的巨大进步,其成功也是人类智能的成功,表明了自然语言是人机交互的核心语言媒介,不是人说机器的语言,而是机器在说人的语言;不是人在模仿机器的思想表达,而是机器在模仿人类的思想表达。因此大模型至多是会使用语言,而远谈不上能创造语言、发明语言。恩格斯认为人类从劳动中创造了语言,他写道:“语言是从劳动中并和劳动一起产生出来的,这个解释是唯一正确的……动物,甚至高度发达的动物,彼此要传递的信息很少,不用分音节的语言就可以互通信息。”动物之间只需要传递危险到来、食物在哪等简单信息,但劳动让人类的语言得以产生,社会劳动和社会分工愈复杂,语言也就愈复杂。著名语言哲学家维特根斯坦和恩格斯的观点不谋而合,他做了这样一个比喻:“我们的语言可以被看作一座老城,错综的小巷和广场,新旧房舍,以及在不同时期增建改建过的房舍。”语言之所以像老城一样,是因为老城是不断修建、错综复杂的,而语言也同样随着劳动和实践的深入而不断地生成、变化与发展。文章源自玩技e族-https://www.playezu.com/793308.html

而大语言模型的基础仍然是深度学习技术,即利用大量的文本数据来训练模型,只不过模型的参数规模更为庞大,但与产生语言的劳动、实践根本不沾边,比如,用英语语料训练的模型也自然只会说英语。反观人类,不同国家、不同民族的人往往说着不同的语言,即使同一个国家也有不同的方言,比如汉语方言就通常分为十大方言,这些多样的语言生长在人们的生产劳动和生活实践土壤之上。如果大语言模型不能像人一样创造语言,那么我们就清楚了大语言模型的第一个局限性,更没有必要对大语言模型顶礼膜拜。文章源自玩技e族-https://www.playezu.com/793308.html

不能深度理解人类文章源自玩技e族-https://www.playezu.com/793308.html

大语言模型的优秀对话表现,缘于AI训练师对模型的不断训练,以及设计了强化学习的奖励机制。大语言模型在人机交互上的优秀表现,让一部分用户误以为人工智能一下子具有了像人一样的心智,人机之间达成了充分的理解,似乎通用人工智能近在咫尺。但从语言哲学的视角看,理解有多个层面和程度,能够给出恰当回应只是理解的一个部分,这并不意味着它能完全理解人类,因为深度理解一句话,需要对说话者的语境有全面理解。如同维特根斯坦所认为的,“环境给予这事情以重要性”,字面信息往往是浮出水面的冰山一角,而环境信息往往是水面以下的冰山,包括大到时代风貌、社会结构、生活形式,小到说话者的习惯态度、立场观点、情感情绪等丰富内容。熟人之间的深入理解,往往是因为对话双方熟知彼此的环境信息,一句话、一个单词甚至一个动作就能传递丰富的信息。

人类通过日积月累的具身体验、生存感受、经验观察、交往实践、总结概括等活动,才能准确把握对话的环境信息。而当人们与大语言模型对话时,就与熟人之间的对话理解有所不同,我们只管提出问题,而会极度省略环境信息,即使偶然附上环境信息,对这些信息的提供也不会完全穷尽和准确。大语言模型在应对人类问题时选择的策略是“既然你不说,我也不问”,也不会去搜集提问者的环境信息,而是专注像单字接龙般更好地回应提问者的问题。大语言模型虽然常常能回答人类提出的问题,但这种回答也只意味着对人类的浅层理解,而深层理解不仅需要语言上的恰当回应,也需要生活实践上的理解。从语言哲学角度看,语言理解问题要结合生活形式、人类生存问题加以考虑,只有关注生活形式和生活世界,在生活实践上达成理解才是深层的理解。比如我们看到天灾人祸,会有切身感受,这是一种悲喜与共的深层理解,罗素所言的“对人类苦难不可遏制的同情”也是超越浅层理解的深层理解。所以说,大语言模型目前只是人类生存实践的旁观者和应答者,缺乏共情能力,还达不到像人类理解那样的深刻性与丰富性,而深层理解更彰显人类智能的特殊性。

不能全面嵌入社会

人工智能的发展史,也是对什么是智能的理解史。一方面,随着人工智能的发展,被奉为圭臬的图灵测试已难以全面评估人工智能的智能水平了。即使有些机器通过图灵测试,它可能仍与人类智能相差很远。另一方面,包括“智能”在内的任何概念都与人类的话语实践紧密地结合在一起,智能概念的内涵不是固定的,而是随着人类对智能的认识而不断地被深入理解,在此过程中人们逐渐意识到,人类智能的提升离不开人类社会的进步。

马克思认为,人脑、劳动和语言三者互相促进,而社会为人类的大脑、劳动和语言的发展提供了“强有力的推动力”和“更加确定的方向”。从马克思哲学的视角看,社会无疑是人类智能的基石,聪慧的个体如果脱离社会,其智力发展也会停滞不前,残缺的个体如果嵌入社会,其智力也会得到尽可能充分的发展,“狼孩”、海伦·凯勒等案例无不说明这一点。著名社会学家哈里·柯林斯更是指出,当前的人工智能发展离完全嵌入人类社会还很远。他提出两大金律:其一,没有计算机能够流利地使用自然语言,通过严格的图灵测试并拥有完全的类人智能,除非它完全嵌入正常的人类社会;其二,基于当前技术的渐进式进步,无法让计算机完全嵌入人类社会。从柯林斯的观点看,大语言模型的技术特点仍然是深度学习的渐进式进步而已,它还不能完全社会化,因此无论它们变得多么好,以ChatGPT为代表的大语言模型仍然不能像人一样在社会中进行交往与实践,不能以人类体悟语境的方式来体悟语境,因此,谈论ChatGPT拥有媲美人类的智能,完全理解人类的语言,还为时尚早。

我们需要以客观中道和实事求是的态度看待大语言模型,大语言模型不能创造语言、不能深度理解人类、不能全面嵌入社会这三个层面揭示的是一个共同的问题,即人类和大模型的智能—语言机制有着根本的不同。今天我们思考大语言模型不能做什么,其价值是:第一,有助于提防新一代人工智能的泡沫化发展,明确大语言模型的界限。例如,由于盲目乐观,由欧盟牵头并耗费10年和近47亿人民币的“人类脑计划”如今仍然没能取得预期成果,饱受社会各界批评。如果不去思考大语言模型的界限,一股脑地发展大语言模型,也可能会陷入与“人类脑计划”相似的困境。第二,有助于全面思考人工智能未来的发展方向。既然现有的深度学习技术无法让人工智能全面社会化,那么这会引导科学家去探索,未来什么样的技术方案能让人工智能进一步社会化呢?第三,有助于凸显人机合作的重要价值。大语言模型等新兴AIGC技术体现了未来人工智能的发展方向将是更紧密的人机合作,人类智能中仍有很多精妙的地方值得机器学习,人工智能不太可能另起炉灶将人类智能远远甩在身后,像AlphaFold这样的知识生产应用也表明,人工智能的未来发展趋势将是深度的人机合作。

(本文系上海市社科规划青年课题“经典伦理学与认知科学哲学视域下的机器伦理研究”阶段性成果)

文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1867期第6版,未经允许禁止,文中内容仅代表作者观点,不代表本报立场。

本期责编:宋献琪

拓展阅读

人才强国 | 人工智能时代职业技能迭代向何处去

数字化 | 大语言模型需要克服诸多关键问题

 
匿名

发表评论

匿名网友
确定

拖动滑块以完成验证