梅宏院士:当前 AI 存在三大问题!
“通过算法,平台可以个性化推送内容,但也可能形成用户的信息茧房,我最近最大的困扰就是拿着手机却读不到想读的有价值的内容。”梅宏表示,目前几乎所有网络平台都在AI算法和大数据驱动下运营,这就带来对算法和数据应用的有效监管问题
从智能制造到智慧城市,从医疗健康到金融服务,以及当前大语言模型的火爆,人工智能风头正盛,但11月22日在以“跨越边界的科技伦理”为主题的第二届中国科技伦理高峰论坛上,中国科学院院士、北京大学教授梅宏,再度发声认为,当前AI面临此三大问题。
(1)泡沫太大,仍处于技术成熟度曲线(hype cycle)的高峰阶段,喧嚣埋没理性,需要一个冷静期;
(2)以偏概全,对成功个案不顾前提地放大、泛化,过度承诺;
(3)期望过高,用户神化AI的预期效果,提出难以实现的需求。
当前AI存在三大问题
当前,社会对“AI+”或“AI for everything”抱有很高的期望,然而,现实情况却不尽如人意。
“雷声隆隆,雨点并不大。”梅宏坦言,“从当前的热潮中,我看到了太多‘炒作’和‘非理性’导致的 AI‘过热’现象,也对当前AI发展技术路径多样性的欠缺萌生了一些担忧。”
“大语言模型的成功依赖于人类长时间积累的庞大语料库,文生视频的成功也依赖于互联网上存在的海量视频。然而,其他行业的数据积累尚未达到这个量级。获取全数据,关键是跨越足够的时间尺度。”梅宏表示,AI的应用还需要经历一段时期的探索、磨合和积累,才可能迎来繁荣。
“在我看来,AI当前的问题有三个:泡沫太大,仍处于技术成熟度曲线(hype cycle)的高峰阶段,喧嚣埋没理性,需要一个冷静期;以偏概全,对成功个案不顾前提地放大、泛化,过度承诺;期望过高,用户神化AI的预期效果,提出难以实现的需求。”梅宏说。
面对AI技术发展及其应用的现状,梅宏建议,在尚搞不清如何应用、用到何处时,不妨先积累数据,“可采尽采、能存尽存”。
大胆预测,大模型要走向开源
那么,大语言模型能走向“通用”人工智能吗?梅宏认为,从基本原理来看,目前的大语言模型没有跳出概率统计这个框架。
梅宏并不认为现在的AI有所谓的“意识”或者知识涌现能力。以大语言模型为例,模型本身无法产生新的东西,其生成的内容取决于对大量文本内容的统计,如果某些内容反复出现,它们大概率就会将之视为“合理存在”的内容。
“就这个意义而言,大模型可被视为是由已有语料压缩而成的知识库,生成结果的语义正确性高度依赖于数据的空间广度、时间深度以及分布密度,更高度依赖于数据的质量。”他提到,学术界的研究更应关心大模型构建过程的可重复性和可追溯性,尽可能保证结果的可解释和可信任。
他表示,“大胆预测大预言模型的未来,作为压缩了人类已有的可公开访问的绝大多数知识的基础模型,大语言模型在未来需要像互联网一样,走向开源,全世界共同维护一个开放共享的基础模型,尽力保证其与人类知识的同步。”
梅宏说,“这至少也是表达自己的一种期望。”
免责声明:本号所载内容均为原创、投稿、授权转载或网络公开资料搜集整理,仅供读者交流学习使用,版权归原作者所有,且仅代表作者个人观点,与本号立场无关。若所引用的图片、数据、文字等来源标注有误或涉及侵权,烦请及时联系删除。