AI表现出“意识”,人类该慌吗?

日期:04-13
AI人工智能

美国东部时间3月28日,未来生命研究所发表一封公开信,呼吁所有AI实验室立即暂停研发比GPT-4能力更强大的AI系统,时长至少为6个月。截至4月9日,这封公开信已收到超过5万个签名。

这次发布的公开信指出,近几个月,全球人工智能实验室“陷入一场失控的竞争”,以开发更强大的AI大模型,开发者乃至所有人都无法理解、预测或可靠控制这个AI系统。AI开发人员必须与政策制定者合作,以显著加快开发强大的AI治理系统。

4月11日,中国国家网信办就《生成式人工智能服务管理办法(征求意见稿)》征求意见,提出提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗。

ChatGPT在2022年11月推出后,在全球掀起热潮,谷歌、亚马逊及国内百度、阿里等一众大厂展开一场AI军备竞赛,致力于开发自己的大模型。OpenAI今年3月推出更高级别的大模型GPT-4,同时也在研发GPT-5。

图/视觉中国

图/视觉中国

4月10日下午,搜狗创始人王小川正式投身AI大模型的竞赛,创办公司百川智能,并称“年底前发布对标GPT-3.5的大模型”。同一天,商汤科技公布“日日新SenseNova”大模型体系。更早前,美团联合创始人王慧文创办光年之外。以ChatGPT为代表的大模型产品是否是AI发展的未来,又是否是通往通用人工智能的路径?面对人工智能的全面来袭,我们该恐慌吗?

欧盟正制定《人工智能法案》

“让我们享受一个漫长的AI之夏,而不是毫无准备陷入秋天。”公开信的结尾这样写道。公开信中,研究者们担心,AI生成的谎言将充斥信息渠道,自动化替代所有工作,进化中的AI未来可能会超越乃至取代人类的思维,甚至让人类失去对文明的控制。

未来生命研究所是位于美国马萨诸塞州的非营利组织,致力于推动AI负责任地发展,2018年,这一组织曾让SpaceX创始人埃隆·马斯克、谷歌旗下AI实验室DeepMind等一众AI从业者与机构签字承诺,永不开发杀手机器人。这次公开信获得的签名支持,包括2018年图灵奖得主、“深度学习三巨头”之一的约书亚·本吉奥,“AI领域最好的教科书”《人工智能:现代方法》的联合作者斯图尔特·罗素,以及曾是OpenAI创始人的马斯克等。

4月10日,OpenAI CEO山姆·阿尔特曼在东京会见日本首相岸田文雄后接受媒体采访。图/视觉中国

4月10日,OpenAI CEO山姆·阿尔特曼在东京会见日本首相岸田文雄后接受媒体采访。图/视觉中国

中科院自动化研究所人工智能伦理与治理研究中心研究员曾毅也在公开信上签了名,他告诉《中国新闻周刊》,呼吁者最担心两点,一方面,技术将对社会产生哪些潜在影响,人类对此还没有做好准备;另一方面,AI大模型生成的一些内容仍具有偏见和危害,不少AI大模型在开发时缺乏伦理安全框架。

曾毅强调,“AI末世论”不是当下需要担心的重点。OpenAI并没有表明目前GPT-4是通用人工智能,但“并非通用人工智能真正到来时,人类的文明才会失控”。在他看来,ChatGPT成为用户获取知识的一种工具。开发者为大模型投喂互联网级别的数据,输出端面对的又是开放性提问,这意味着不确定性大幅增加。多位业内人士认同,目前AI技术带来了巨大风险,但人类对此准备不足。面对数学、编程、归因等各类问题时编造与事实无关的答案,产生“幻觉”,是GPT-4等大模型最受诟病的缺陷,更关键的是,机器在呈现错误答案时仍看上去非常“自信且具有说服力”。

大模型生成内容时,“幻觉”并不都是坏事,但代价是,如果没有小心审查,错误的信息将在互联网上蔓延。人工智能公司小冰CEO李笛向《中国新闻周刊》举例,假如大模型生成内容中,编造的信息只有10%,如果一天中有一亿次的并发(单位时间内系统同时处理的请求数),便会产生1000万条假消息,如果被一些自媒体或个人不加审核就投放到市场,几轮转发后,人们便难以追溯假新闻来源。目前AI大模型的问题,不在于它会不会出错、它的能力比人类强,而是并发太高,加上AI极强的说服能力,会造成更严重的后果。

近期,大模型开始被指控侵犯个人数据隐私。3月30日,韩国有媒体报道,三星内部发生三起涉及ChatGPT误用与滥用案例,包括两起“设备信息泄露”和一起“会议内容泄露”,三星公司担心,在ChatGPT输入内容后,可能会让敏感内容外泄。当地时间3月31日,意大利宣布禁止使用ChatGPT,起因是一周前,多名ChatGPT用户表示看到其他人与ChatGPT对话记录的标题。意大利官方认为,OpenAI没有提前告知、非法收集用户个人信息,对OpenAI立案调查,并要求公司作出回应。4月初,德国、爱尔兰、加拿大等相继开始关注ChatGPT的数据安全问题。

当地时间4月5日,OpenAI在官网发布文章,详细介绍了公司在AI安全上的部署,回应相关争议,措施包括模型发布前构建完整的AI安全体系,从用户实际使用中积累经验以改善安全措施,保护儿童,尊重隐私,提高事实准确性等。文中特别提到,公司将努力在可行情况下,从训练数据集中删除个人信息,对模型微调以拒绝有关使用者个人信息的请求等。

这封公开信呼吁暂停对超过GPT-4能力的大模型的研发,换句话说,目前绝大多数大模型研发者并不会面临上述挑战,OpenAI仍是众矢之的。

并非所有人都同意公开信的内容。当地时间3月30日,当前人工智能和机器学习领域最顶级的学者之一、谷歌大脑的缔造者吴恩达连发4条推特,表达反对意见,他认为呼吁暂停研发的行为是“一个可怕的想法”,围绕大模型开发过程中的透明度和审计方式,制定法规,才是更实用且有效的做法。当地时间4月7日,2018年图灵奖另一位得主、Meta首席科学家杨立昆在一场直播中表达了相似的观点,支持监管相关AI产品,但不应该监管研究和开发。

多位受访AI从业者认为,公开信建议的措施都难以落地。比如说,对AI生成的内容加水印。吴恩达表示,对于想利用AI生成的内容伪装、造假的行为,增加水印会构成一定阻碍,但他对这一方案广泛应用并不乐观。这可能会让提供商在激烈的竞争中落后——用户更倾向于使用没有水印的AI系统,从而影响企业的积极性。

此前,OpenAI在相关AI伦理安全领域做了许多工作。媒体曾报道,OpenAI在非洲肯尼亚雇佣工人,对AI输出的暴力、性别歧视和种族主义言论进行标注,尽管这一做法被视为对当地人造成极大心理创伤,却能清洗不少大模型输出的有害数据。此外,GPT-4在2022年8月已完成训练,OpenAI对其安全风险进行了6个月调整,引入50多名专家测试,同时加入人类偏好训练提示、奖励模式等。

公开信发布后,针对大模型的伦理安全问题,曾毅所在的中科院自动化研究所人工智能伦理与治理研究中心等在国内发起线上调查,截至4月4日,全国超过500人参加,90%参与者认为,为社会服务的每一个AI大模型,都必须实现伦理安全治理框架。“这不应是一个可选项,而是大模型赋能社会前必须要做的工作。”曾毅建议,每个AI开发机构都应构建一个可技术落地的、有关人工智能安全自动化检测的系统或平台。多位受访者表示,这不能仅靠机构自律,AI在应用阶段仍需有更完善的法律、法规的监管。

4月11日,中国国家网信办起草的《生成式人工智能服务管理办法(征求意见稿)》,开始向社会公开征求意见。围绕近期生成式AI最受质疑的内容不准确、侵犯个人隐私等问题,《办法》要求开发者采取措施,对训练数据来源的合法性负责,不得非法留存能够推断出用户身份的输入信息等。

曾毅向《中国新闻周刊》介绍,目前,国内在人工智能领域顶层设计上有治理原则,但没有相关法律,对于AI的伦理安全只是非强制性约束。此外,他参与国内一些人工智能相关管理文件制定时注意到,一些管理办法只是限制研究行为,在应用层面的治理却是空白。因此,国内对人工智能的监管在法规和实施管理上仍需要加强。

一直在AI立法方面走在前列的欧盟正在制定一项《人工智能法案》,该法案正在欧洲议会讨论,预计将于4月26日投票,其核心是基于人工智能的风险等级进行分类监管。但有分析指出,如何定义“高风险AI系统”是一个复杂而困难的决策过程。

AI的“iPhone时刻”?

2018年起,清华大学人工智能研究院常务副院长、清华大学计算机系自然语言处理与社会人文计算实验室(THUNLP)负责人孙茂松带领团队开始研究大规模语言模型。THUNLP是国内最早开展自然语言处理研究且极具影响力的科研机构。

这一年,谷歌推出预训练模型BERT,OpenAI推出GPT-1,预训练语言模型成为自然语言处理任务的主流范式。开发者靠不断扩大参数规模,提升AI的能力,比如2019年OpenAI推出参数为15亿的GPT-2,2020年推出GPT-3,将参数提升到了1750亿。

“当时我们在讨论这条路能走多远,即数据和模型规模的增大,会不会达到一个饱和点,能力趋于极限。结果不但没有饱和,反而出现了质的提升。”孙茂松告诉《中国新闻周刊》。大模型的能力在2020年GPT-3推出时已经显现,但仍主要是完成特定任务,缺乏随机应变的能力。直到ChatGPT出现,在性能上有了一个质的飞跃,显示出了某些通用人工智能的特质。

2月1日,瑞士日内瓦,一些高中教师们参加一场由公共教育部门组织的ChatGpt研讨会。图/视觉中国

2月1日,瑞士日内瓦,一些高中教师们参加一场由公共教育部门组织的ChatGpt研讨会。图/视觉中国

ChatGPT发布后,孙茂松在一次测试中让ChatGPT写一首五言绝句,ChatGPT写得并不完全合乎对仗、押韵的要求。但是让孙茂松惊喜的是,当他问道,“你觉得哪一句写得好?”机器回复,第二句,并分析因为其中两个词表达了什么情感,两者之间的关联。孙茂松进一步表示,“我认为第四句更好”,ChatGPT随后对第四句进行了赏析。2015年起,他曾研发过一个人工智能诗歌写作系统“九歌”,2017年面世。想要让AI写诗,他先要设计好一个小模型,输入诗歌类数据时,需要详细标注出一首诗每句的顺序,之后在向AI提问时,它才会挑出某一句来分析。

“现在不用教它,它能回答出来。我们测试ChatGPT的能力,不用多,只要两三个例子就知道,国内现在AI大模型做不出这一效果。”在孙茂松看来,ChatGPT的诞生,意味着人工智能迎来拐点,也将是未来5~10年人工智能发展的必然趋势。

2016年,AlphaGo打败围棋世界冠军李世石,让公众为人工智能深度学习的能力感到振奋,但之后,AI的发展陷入寒冬。多位受访者表示,ChatGPT展现的能力与AlphaGo有本质差别。国内人工智能公司出门问问CEO李志飞告诉《中国新闻周刊》,AlphaGo的表现,是在有清晰的规则、不涉及与复杂世界交互、相对简单的环境下发生的。但ChatGPT背后的大模型,展现了语言、知识、逻辑推理等人类通用的技能,并让人们亲身感受到。

“ChatGPT展现的能力非常实用,与每个人的生活与工作密切相关,这是人工智能发展70多年来从未达到过的时刻。”THUNLP副教授刘知远告诉《中国新闻周刊》,但最终ChatGPT是人们生活中必不可少的工具,还是会诞生另一种形态的产品,有待商榷。

当地时间3月21日,英伟达CEO黄仁勋在春季开发者大会上,公开了两款为AI大模型提供动力的新款芯片,并三次激动地说,“我们正处于AI的‘iPhone时刻’”。

李笛对AI大模型的看法更为冷静。他认为,过去5年,自然语言处理技术的发展面临很大压力,比如机器难以理解人的意图,知识图谱的效果不理想,AI大模型解决了这些瓶颈。但尝试将它与某个时代对标,“或多或少处于各自(商业或事业)发展的考量”。

在李笛看来,相比GPT-3.5,GPT-4并没有涌现新的能力,比如突破GPT-3.5时期逻辑思维的方式等。依据AI过去每一轮浪潮的发展,他判断,“目前的AI大模型已经面临瓶颈,行业很快会基于(ChatGPT)的创新,进入到焦灼的竞争状态,直到下一次创新到来。”

近期,OpenAI发布GPT-4和ChatGPT插件功能,都意图明显指向了商业应用。OpenAI推出ChatGPT的插件功能,用户可以安装插件,拓展AI应用的边界。在此之前,ChatGPT的知识只停留在2021年,如今可以与5000多个第三方插件交互,实现联网,查看体育比分、股票等实时信息,检索公司或个人文档,还可以订机票、订餐。

有网友在ChatGPT接入数学知识引擎Wolfram Alpha插件后注意到,其与ChatGPT对话时,Wolfram会在涉及数学相关知识时现身作答,并同时在后台不断与GPT系统对话和修正结果,即实现机器间的会话。这被业内视为ChatGPT打造出了“APP Store”,开始变成一个无所不能的业务生态系统。有专家认为,未来GPT-3.5和GPT-4的应用场景会增加很多,可能会颠覆现有的许多服务。

ChatGPT推出后,一度引发全球教育界的强烈抵制。伴随着大模型的热潮,更多人开始重新思考教育与ChatGPT的关系,并认为与其将ChatGPT定性为作弊手段,不如让老师给学生展现ChatGPT如何发挥作用,并保证每个学生的独立思考能力。

孙茂松认为,AI大模型展现的分析能力,如果利用得当,可以成为一名优秀的“智能助教”,帮助人们随时随地学习。美国芝加哥的一位高中生曾对媒体分享了使用ChatGPT的体验:辅助做作业时,ChatGPT能帮他更快、更好地收集和理解主题,他还尝试把ChatGPT当做一名程序员,向他学习如何写代码。

OpenAI的官方演示中,GPT-4还能假装自己是“以苏格拉底风格回应的导师”,不给学生确定的答案,而是将问题拆分成更简单的部分,帮助学生独立思考。在该模式下,GPT-4循循善诱,帮助使用者解出了一个二元一次方程组。

AI不应该取代老师,一些老师开始尝试让AI辅助教课,比如生成教学大纲、生成对学生阶段性学习的评估问题,或是生成高质量的教学案例,不过,这考验着使用者能否问出好的问题。好的Prompt(提示词)就像是一个咒语,能让ChatGPT发挥最大潜力。有老师考虑到学生能力的不一,希望ChatGPT给每个学生量身定制差异化作业,便要求ChatGPT“创建一项作业,对于在该学科知识上有深刻理解的学生来说具有挑战性,但对于那些不擅长这门课的学生,可以给予一些帮助”。

与此同时,ChatGPT将会对更多工作造成冲击。3月,高盛发布一份研究报告显示,以ChatGPT为代表的生成式AI产品,具有超强智能自动化能力,将来会实现“人机协作”的工作模式。根据数千种职业通常执行的任务数据,高盛计算出美国和欧洲大约2/3的工作受到了生成式AI自动化的影响,行政和法律从业者最容易被机器代替,而像建筑、维修、清洁等体力型职业受影响较小。

AI伦理专家呼吁,业内长期讨论的是“有限度地使用AI”,并非所有工作都应该被AI取代。实际上,这个浪潮并不以个人意志转移。但刘知远告诉《中国新闻周刊》,未来AI仍然只是人的工具,人类应将ChatGPT作为一个外部的知识库充分利用,更重要的是,“人类快速吸收和利用这些信息,接受ChatGPT提供的启发,去做更有创新性的工作,这也是人类特有的能力”。

3月24日,手机上展示的“文心一言”AI画作。图/视觉中国

3月24日,手机上展示的“文心一言”AI画作。图/视觉中国

“炼大模型”风潮

一个有趣的说法是,ChatGPT被推出后, AI世界被划分成了两派:OpenAI和追赶OpenAI的公司,全球科技公司掀起了“炼大模型”的风潮。

李志飞毕业于美国约翰霍·普金斯大学语言与语音处理实验室,曾在谷歌工作了三年,任谷歌总部科学家,从事机器翻译的研究和开发工作,2012年回国,在语音交互领域创业。ChatGPT面世后,他预感“自己的时代到了”。他一个月飞往硅谷两次,与谷歌、微软、OpenAI、Meta等公司的AI工程师交流。他注意到,美国知名孵化器Y Combinator,可能三分之一以上的项目都是基于大模型做的应用。2月15日,他公开宣布,将在大模型领域创业,要做“中国版的OpenAI”。

4月8日,浙江大学人工智能研究所所长吴飞在一次论坛中分享,ChatGPT的技术路线中,数据是燃料、模型是引擎、算力是加速器。ChatGPT和GPT-4未公开更多技术细节,但参照GPT-3,吴飞估算训练ChatGPT的门槛:数据方面,训练中使用了45TB数据、近1万亿单词,数十亿行源代码。模型规模上,1750亿参数如果被打印在A4纸上,加起来将超过上海中心大厦632米的高度。算力方面,2020年微软为OpenAI打造了一台超级计算机,其中包含1万个英伟达V100 GPU(图形处理器),吴飞估算投入超过10亿人民币。

李志飞估算,做大模型的入门门槛至少需要5000万美元,2000万购买算力,2000万招募人才,1000万购买数据。对标ChatGPT,4月7日,阿里巴巴推出自研超大规模语言模型“通义千问”,开启内测。一个月前,百度发布大语言模型“文心一言”。此外,华为在打造盘古大模型,腾讯在加快推进大模型“混元”,字节跳动也开始布局。

未来是否需要这么多大模型?支持者称,大模型将是未来人工智能发展的基础设施,像水或电一样随取随用。前述公开信将现状描述为“一场失控的竞赛”,加州理工学院电气工程和计算机科学教授阿布-穆斯塔法对《中国新闻周刊》说,这是一种“情绪化”的表述,短期内,只有2~3个像ChatGPT这样强大的AI工具会占领全球市场,未来也只有谷歌、微软等少数几家科技巨头能在世界级竞赛中胜出。

李志飞向《中国新闻周刊》解释,不同于互联网大厂,国内一些创业公司可以针对具体应用场景去定义大模型的能力、参数规模及需要哪些领域的数据,“模型质量不单依赖于模型和数据规模,数据质量非常重要,如果以应用为驱动,数据可以更有针对性选择”。

复制ChatGPT并不简单。2022年5月,由Facebook更名的Meta开源了大模型OPT,并在相关论文中写到,“考虑到计算成本,如果没有大量资金,这些模型很难复制。对于少数可通过API获得的大模型,无法访问完整的模型权重,使得他们难以被研究。”今年3月,OpenAI首席科学家兼联合创始人伊利亚·苏茨克维尔解释,不开源大模型是因为担心竞争及担心安全。GPT-4开发不易,很多公司都想做同样的事情。从安全角度考虑,模型的能力正在变得越来越强,如果开源,可能有人会利用这个模型作恶。

以Transformer为底层技术的大模型至今仍是“黑盒子”,开发者无法从科学上解释其内在机制,只能通过观察、经验总结一些结论。有研究者提到,同一组数据,输入先后顺序不同,效果也会有差异。在李志飞看来,小模型跑数据更容易,炼大模型时,工程师在什么时间把什么类型的数据“喂”给大模型,都变得非常重要。

“目前为止,没有哪一个大模型能复现哪怕是GPT-3.5的能力。即使OpenAI自己重做,也不一定能复现出之前模型的效果。”李笛向《中国新闻周刊》说。但也有学者对国内研制出GPT保持乐观,OpenAI从2018年以来持续投入完善大模型,有“时间壁垒”,不存在技术壁垒。

超大的参数规模,是目前OpenAI走出的经验。孙茂松介绍,业内评估大模型会关注一个点,是否产生思维链。2022年1月,这一概念首次在谷歌的一篇论文中被介绍。简单讲,训练大模型时,不同于传统上给出一个正确答案提示,而是会额外增加一段推理过程。如向大模型提问,“罗杰有5个网球,他又买了两罐网球,每罐有3个网球。他现在有多少个网球?”过去工程师仅在后台提示模型答案为11,但思维链提示是告诉它,“罗杰一开始有5个球,2罐3个网球是6个网球,5+6=11。”增加这一步后,模型会模仿人类思考过程,输出结果的正确性显著提升,这也是ChatGPT有别于GPT-3、涌现出推理逻辑的关键能力之一。

孙茂松告诉《中国新闻周刊》,目前大模型的参数规模超过约860亿时,思维链才会起到效果,但“这不是科学导出的结果,而是观察出来的”。人们将炼大模型形容为“炼丹”,方法不同、水平不一,效果也有所差异,未来也可能有人用100亿参数做出相同的效果。

炼大模型需要极大算力。李志飞提到,如果做多模态模型或是一些通用人工智能(AGI)模型,需要的算力更高。

大模型能让机器产生意识吗?

3月,OpenAI发布GPT-4后,微软随后发表了一篇早期GPT-4的能力测评的论文,提出“GPT-4可被视为通用人工智能(AGI)系统的早期版本”的观点。

目前,业内对AGI尚未有明确且有共识的定义。1994年,52名心理学家将智能定义为一种非常普遍的心理能力,包括推理、规划、解决问题、抽象思维、理解复杂思想和从经验中学习等能力。这也是微软科学家在论文中明确界定的AGI范畴。文中提到,GPT-4的早期版本在各个领域和任务上表现卓越,达到或者超越了人类水平,包括抽象、理解、视觉、编码、数学、对人类动机和情感的理解等,因此,作者认为,“GPT-4是迈向AGI的重要一步”。

麻省理工学院大脑与认知科学系教授、大脑心智和机器中心主任托马斯·波焦是计算神经科学领域巨匠,他在回复《中国新闻周刊》的邮件中表示,他认为GPT-4确实显示了AGI的火花。但它是互联网信息的缩略版,还是真的可以产生新的想法,比如证明数学中的新定理,目前还是一个悬而未决的问题。GPT-4还达不到完全的AGI,但未来一些类似的版本也许可以做到。

孙茂松理解的AGI,是机器拥有人的全部能力,即除了上述“智能”包含的能力外,不管处在任何环境下,机器能够根据对方的意图做出正确的反应。在他看来,ChatGPT具备了一部分AGI能力,比如能进行语言交互、理解图像,但对连续变化的世界的理解、对复杂逻辑的推理等还不够好,“但现在具备的一些能力已经能靠近本质,我以前觉得机器掌握这种能力遥遥无期”。

GPT-3.5和GPT-4为代表的大模型是否是通往AGI的可行路径,业内仍有分歧。今年2月,吴恩达曾在社交平台表示,人类的确在深度学习上取得了令人兴奋的进展,但完全不必拿它与AGI牵强的关系来炒作。

这背后的核心在于,大家理解的AGI各不相同。阿布-穆斯塔法向《中国新闻周刊》解释,“如果说GPT-4能够完成很广泛的任务,甚至某些情况下,在一些任务中的表现超过了人类,这就是AGI吗?并非如此”。对于通用人工智能,人类更想追求的目标是:AI突然之间学会了以上所有,能举一反三,就像魔法一样,但这是一个非常模糊的描述。

人们对AGI混乱的解读,由人工智能研究长期存在的路径分歧造成。计算机科学家与神经科学家杰夫·霍金斯在新近出版的《千脑智能》一书中写道,人工智能研究者制造智能机器时有两条路,第一条路是目前人工智能领域研究的主要方向,即让计算机在某些具体任务上超过人类,通过这种方式实现人工智能,系统工作原理以及计算机是否灵活则无关紧要。另一条路是创造可以做各种事情、并且将从某个任务中学到的东西应用于另一个任务的机器。沿着这条路径成功制造的机器,可能具备5岁孩子的能力,这是早期人工智能研究的重点。

以ChatGPT为代表的大模型看上去会思考和推理,但与人类智能完全不同。李笛向《中国新闻周刊》解释,如果询问ChatGPT“刺杀林肯的凶手在刺杀林肯时,跟林肯是不是在同一个大陆?”更早版本的GPT无法回答这个问题,ChatGPT能给出正确答案,但它的思考逻辑是,先查询刺杀林肯的凶手在刺杀林肯时在哪里,再查林肯当时在哪里,最后对比两个地点后回答,“这对于人来说,是非常荒唐的逻辑链”。

在托马斯·波焦看来,GPT-4和人的不同之处在于,GPT-4没有个性,因为它没有超越个人会话之外的记忆,就像电影《记忆碎片》的主人公,当下的记忆只能停留几分钟。GPT-4没有任何在物理世界的直接经验,所以可能很难控制机器人的肌肉或电机,此外,GPT-4比人脑消耗非常多的训练能量。

“如果把大模型类比成一个生命体,它的人生目标是由人类制定,而目标之外的事情它并不知道。这是大模型与人最大的区别。”刘知远认为,大模型不知道什么是自我,可能完全没有考虑过,人们可以去询问它这个问题,它也会给出答案,但这是因为你问了问题,它需要预测下一个词是什么,它没有产生意识。

孙茂松对《中国新闻周刊》分析说,一年前,如果有人问他,他绝对不说大模型会导致通用人工智能,但ChatGPT出现后,他认为这是一条可行的路径。即便谈到机器的意识和情感,他认为,大模型也可以试着让机器具备某种“意识”,哪怕只是看上去有意识。比如,开发者可以明确告诉机器扮演一个人设,它就会表现出好像具有某种意识。

“这是行为主义的逻辑,你可以认为它只是表象,不是本质,但能做到这点,内在机制一定有其合理性。只要现象足够好,可以为人所用。”在孙茂松看来,从人工智能概念诞生之初,人们就试图用摸清人脑机理的方式来做人工智能,这是理性主义的做法,无疑是一条正确的道路,不会出现大模型高耗能的缺点,但问题是实现难度要比大模型大得多。“这两条道路没有对错之分,现阶段是以成败论英雄。但理性主义这条路人们也从未放弃,总有人在坚持,需要天才式的科学家。”

记者:杨智杰霍思伊

韩媒:韩军方称朝鲜今向东部海域发射弹道导弹 卢拉抵沪准备参观华为,南南携手应对复杂挑战,“金砖”合作给世界新选择
相关阅读: