AI崛起:OpenAICEO呼吁中美合作应对AI风险,探讨安全与可解释性

小微 科技AI崛起:OpenAICEO呼吁中美合作应对AI风险,探讨安全与可解释性已关闭评论93字数 804阅读模式

AI崛起:OpenAI CEO呼吁中美合作应对AI风险,探讨安全与可解释性

文丨科技前沿探索站文章源自微观生活(93wg.com)微观生活-https://93wg.com/81874.html

近期,人工智能的迅猛发展让我们离科幻世界越来越近。然而,就在人们对AI充满期待的同时,也有部分人士对AI可能带来的风险表示担忧。波士顿的生命未来研究所就曾发表公开信,呼吁全球实验室暂停研发比OpenAI GPT-4更先进的人工智能,并得到了多位科技界知名人士的支持。文章源自微观生活(93wg.com)微观生活-https://93wg.com/81874.html

针对这一观点,数据公司Palantir CEO表达了不同意见,他认为暂停AI研发的想法是错误的,因为那些提出这一观点的企业并没有自己的AI产品。就在昨天,6月12日,OpenAI CEO山姆·奥特曼(Sam Altman)在北京召开的AI会议上表示,他呼吁美国与中国合作应对AI风险。他认为,中国拥有世界上最优秀的AI人才,他希望中国的AI研究人员能在这一领域做出巨大贡献。文章源自微观生活(93wg.com)微观生活-https://93wg.com/81874.html

在对话中,AI教父杰弗里·辛顿强调了AI的安全性和可解释性。过去,AI安全性主要关注对抗攻击,尽管这很重要,但没有引起足够重视。随着GPT和扩散模型能力的提升,文字图像混淆网络信息变得更加容易,人们过于相信GPT的生成内容,导致知识污染和记忆篡改等问题,这些问题的影响巨大且深远。因此,进一步关注AI安全性对于学术界来说是一件好事,这意味着在这个领域中有新的问题等待我们去研究和解决。文章源自微观生活(93wg.com)微观生活-https://93wg.com/81874.html

Sam Altman特别提到了OpenAI最近在可解释性方面的工作,即使用GPT-4解释GPT-2中的神经元激活模式。这表明OpenAI内部非常重视这项工作,而且这项工作也非常有趣。由于GPT模型本身就是文本生成模型,因此可以为神经元提供语义文本解释,从而提高解释性和逻辑性。因此,利用一个功能强大、逻辑严密的AI模型解释自身的运行行为可能是一种可行的方法,就像人类需要为自己的行为找到合理的解释一样。文章源自微观生活(93wg.com)微观生活-https://93wg.com/81874.html

在大型模型时代,研究可解释性是一个充满机会的领域。随着更多新问题和新方法的出现,这个领域值得我们关注。文章源自微观生活(93wg.com)微观生活-https://93wg.com/81874.html 文章源自微观生活(93wg.com)微观生活-https://93wg.com/81874.html

继续阅读
 
小微
  • 版权声明: 本文部分文字与图片资源来自于网络,转载此文是出于传递更多信息之目的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们(管理员邮箱:81118366@qq.com),情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!
  • 转载请务必保留本文链接:https://93wg.com/81874.html