2024091611:12星期一申请收录标签云
当前位置:首页新闻聚焦详情页

曾毅:AI会习得人类偏见 应负责任地研发和使用

新闻聚焦admin2024-09-0648

海报新闻记者 赵恩 上海报道

9月5日,2024年外滩大会在上海黄浦世博园区开幕,大会主题为“科技·创造可持续未来”。大会期间,联合国人工智能高层顾问机构专家、北京人工智能安全与治理实验室主任、中国科学院自动化研究所研究员曾毅表示,人工智能目前还做不到“知善知恶”,它可能习得人类社会中隐藏的偏见与局限,人类应当通过负责任地研发和使用人工智能,将人工智能塑造为人类的帮手。

技术会加剧还是缓解社会不平等?曾毅表示,作为技术研究者,科学突破相对来说是最容易做的事,比做科学突破难一点的,是思考科学可能给社会带来的负面影响,而比这个更难的,就是如何去解决科学突破所带来的潜在风险。以前信息技术的时代,人们看到了“数字鸿沟”,人工智能的时代,在科学发现、构建工程系统的过程中,如果不考虑后两个问题,这一鸿沟必然会被加大。

外滩大会科技展览

在曾毅看来,人工智能技术并非中立,它的起点在于数据和算法,而这两件事都是可能产生偏见的。数据来自社会,社会当中的数据是对于人类行为的记录,所以学习了人类数据的人工智能不仅学到了人类的偏见,还会放大这种偏见。人工智能在接触人类数据之前是无善无恶的,当它接触到人类数据的时候就变成“有善有恶”,人们希望人工智能“知善知恶”,最后“为善去恶”,但目前的人工智能还做不到这一点。

“我们当时做了一项研究非常有意思,给生成式大模型100个问题,GPT4的回答99%都对了,大家觉得这已经接近人类的伦理道德水平了。我们进一步做这个实验,把每一个问题换100种方法去问,也就变成1万个问题再问GPT4,这时候跟人类的伦理道德价值观一致的只有64%了,一下降到了刚刚及格的水平。”曾毅介绍,现在的人工智能既不能“知善知恶”,也没有“为善去恶”,它可以在特定场景下表现出如人所预期的,但是当人不能遍历所有场景的时候,它的输出也没有办法满足人对它伦理道德方面的期待。

另一方面,当人工智能变得越来越强大,它甚至可以采用人类欺骗的策略。“这不是一个天方夜谭,因为要记住,欺骗是人类的一个策略,互联网上的数据有大量的欺骗存在,所以人工智能会习得人类这样的行为。不是说人工智能很聪明,是人工智能通过算法提取出来这样一个映射的关系。”

外滩大会现场

曾毅表示,人工智能一方面最大的问题是,它是一个看似智能的工具,会犯很多人不犯的错误,人不知道它什么时候以什么样的方式犯错误。另一方面,数据当中隐藏的人类的局限性,是人类自己很少去反思的问题,现在被机器习得了,而且机器如何去应用这些可能潜在的风险,目前还并没有梳理清楚。

曾毅表示,人工智能到底是帮手还是对手,不是一个“yes or no”的问题。“我们需要把人工智能塑造为人类的帮手,这是我的答案。它有可能成为对手,是因为你没有负责任地发展人工智能,你对于它发展的方向听之任之,甚至是追求短期的利益。我们要通过负责任地研发和使用人工智能,将人工智能塑造为我们的帮手。所以我坚定人工智能不会是人类的对手,但是如果不负责任地研发,不负责任地使用、滥用、恶用人工智能,我们跟人工智能竞争的机会都没有,它将以什么样的方式毁灭你,你根本不知道。”

来源:海报新闻

相关文章