中科院曾毅:提高人工智能大模型的安全性,并不会影响其求解能力_经济_宏观频道首页_财经网 - CAIJING.COM.CN
当前位置:宏观频道首页 > 经济 >
 

中科院曾毅:提高人工智能大模型的安全性,并不会影响其求解能力

本文来源于《财经》新媒体 2025-03-27 13:35:47
字号:

来源 | 博鳌亚洲论坛2025年年会     

3月26日,中国科学院自动化研究所人工智能伦理与治理中心主任曾毅在博鳌亚洲论坛2025年年会上表示,DeepSeek的有些进展可能被大家忽略了。比如,它做到了用相对的小数据、相对的小算力但做到了更高的智能表现,这些是如何实现的?

1

此外曾毅还指出,人工智能的发展应用和安全之间的关系不是相互掣肘的关系。“我们现在有很多人工智能的大模型,包括我们国内的人工智能大模型,在认知问题求解能力上与GPT系列是同一水平上的,但是在伦理框架上还有提升空间。”

曾毅强调,“我们有一个新的研究,证明了当你提升人工智能大模型安全能力的时候,对它求解能力的影响几乎可以忽略。我们尝试了十几个人工智能大模型,可以把它的安全能力提升百分之二三十,对它的问题求解能力的影响几乎可以忽略,这说明安全和发展之间不是掣肘的关系,可以做到人工智能充分安全的情况下,它的能力几乎不受损。”

以下为发言实录:

主持人:接下来请曾毅教授给我们讨论一下今天人工智能的前沿进展,有请。

曾毅:我们去年讨论科学上的进展还有很多问题没有解决,比如去年我们讨论的一个问题就是人工智能发展的两个渠道,符号主义和连接主义,现在来看还没有完全走到一起,但是今年基于生物智能精神网络的推理,我们可以在科学视角下比较深入地将推理能力与人工智能网络的表征编码深度融合,所以我想在工程化应用的背景下来看,符号和连接这两个不同的科学途径真正在工程应用上深度融合的机遇,看上去应该已经到来了。

其实DeepSeek的有些进展可能被大家忽略了,我觉得也是非常重要的,首先它做到了相对的小数据、相对的小算力但是更高的智能表现,但这些是如何换取的,比如在算法层面,解决一个特定问题时并不需要整个生成式神经网络上更新所有的权重,可以利用一种基于路由的机制去做任务,这样就极大地降低了算力。其实我们人类的大脑当中丘脑就是发挥了路由的机制,遇到问题的时候究竟哪些脑区参与任务,而不是整个大脑同步动起来。这样一个算法并不是完全地受大脑启发的,但是可以说跟我们的生物大脑演化的结果应该是异曲同工的。

所以我觉得在技术变革的层面,在我看来以前不同的人工智能发展道路达到了前所未有的发展程度。另一方面自然演化的规律与我们计算演化的结果也在深度融合,使得人工智能的发展自然或不自然地受到大自然的启发,我想未来的人工智能的发展,我想人脑毕竟是数亿年演化的结果,人工智能发展过程中不仅仅是在行为尺度达到用户可接受甚至类人水平,在计算机制上进一步受到自然机制的启发,不仅仅受到学习机制的启发,也受到人类发育演化机制的启发,我想这可能是未来人工智能在科学上非常重要的走向。

刚才杨老师和张亚勤老师都提到安全的问题非常重要,去年我和张亚勤老师讨论是不是应该暂停六个月的人工智能大模型的研究,先把安全护栏做好,很多人都误解了这样的倡议,以为是不要推进人工智能的研究。其实这个倡议告诉大家的是人工智能发展的速度与我们构建安全护栏的速度没跟上,能不能先建立安全护栏,但是去年的博鳌论坛上,全世界的科学家对于如何构建安全护栏是不知道答案的。但是经过了半年多一年的探索,我们有了初步的答案。我要告诉大家人工智能的发展应用和安全之间的关系不是相互掣肘的关系,人工智能的模型在表现上表现最好的仍然是OpenAI和DeepSeek这个系列,但是它的安全属性也是最好的。

我要说的是人工智能大模型的进展,你的模型能力上来了并不代表着你的安全能力自然的就好,我们现在有很多人工智能的大模型,包括我们国内的人工智能大模型,在认知问题求解能力上与GPT系列是同一水平上的,但是在伦理框架上还有提升空间。我要告诉大家安全和发展之间为什么不是掣肘的关系,我们有一个新的研究,证明了当你提升人工智能大模型安全能力的时候,对它求解能力的影响几乎可以忽略。我们尝试了十几个人工智能大模型,可以把它的安全能力提升百分之二三十,对它的问题求解能力的影响几乎可以忽略,这说明安全和发展之间不是掣肘的关系,可以做到人工智能充分安全的情况下,它的能力几乎不受损。这是有科学证明的,我们的工作发表在了今年人工智能机器学习的顶会上。我们可以把人工智能掰到更安全的方向上,又不需要重新训练它,是对这个模型本身的向量编码的认知。所以我想以前大家说管控人工智能让它更安全会不会影响它的发展,那么现在结论是这样的,我们可以用科学的方式让它更安全,但同时几乎对它的认知能力没有负面影响的。

主持人:这是特别重要的前沿进展,也就是说我们人工智能的发展和安全不再是矛盾的,是可以一起往前走的。

曾毅:我要说一个结论,去年我们重视人工智能的安全,今年伦理安全应该作为人工智能大模型发展的基因,应该作为第一性原理,不可删除,不可违背,同时可以做到稳健发展。

曾毅:我们讨论智能体的安全问题,多位嘉宾提到一个观点就是不要让人工智能完全代替人的决策,一定要让决策权利在人类手中,这是当代人工智能应用时我们必须注意的问题。刚才杨老师问到怎么运用国际协调机制往前走,目前世界上有三分之一的人没有进行互联网的介入,数字鸿沟已经变成了智能鸿沟,如何弥补这个数字鸿沟,我想应该去找有资质的国际组织去协调全世界的多边组织和我们的会员国,去真正解决这样的问题,应当发挥以联合国为核心的作用,去团结不同的国际组织,去解决人工智能不同侧面的问题,联合国没有办法解决人类的所有问题,但是根据我们可以跟踪的记录,我们似乎没有其他的选择,就是相信另外一个组织去协调全世界190多个国家的共同利益问题。这也是去年为什么联合国人工智能机构给的建议是成立全球人工智能基金,推进人工智能真正的普惠,我们国家后来推进了人工智能普惠计划,做人工智能的能力建设,通过DeepSeek这样的例子,DeepSeek做了自己该做的,大家把DeepSeek的模型拿去了,使得人工智能真正普惠了。DeepSeek是由社群的发展,由全世界共同的行为,使得DeepSeek的技术为全世界所使用。联合国发挥的作用应该是把大家交织在一起,而不是做所有的事情,但是它应该发挥核心作用。

(编辑:文静)
关键字:
分享到:
相关阅读

要闻

编辑推荐

  • 宏观
  • 资本
  • 金融
  • 产经
  • 汽车
  • 科技
  • 地产