• 资讯

招商分类

推荐文章

当前位置 | 首页 | 行业资讯 | 观点

黑客的目标是在白宫的帮助下找到人工智能的漏洞

2023-10-06 02:17:14 70

ChatGPT刚一发布,黑客们就开始“越狱”这个人工智能聊天机器人——试图推翻它的保护措施,这样它就能脱口而出一些疯狂或淫秽的东西。

但现在,它的制造商OpenAI以及谷歌和微软等其他主要人工智能提供商正在与拜登政府协调,让数千名黑客尝试测试他们技术的极限。

他们将寻找的一些东西是:如何操纵聊天机器人造成伤害。“这就是为什么我们需要成千上万的人,”大规模黑客活动的首席协调员鲁曼·乔杜里说,该活动计划于今年夏天在拉斯维加斯举行的DEF CON黑客大会上举行,预计将吸引数千人。“我们需要很多具有广泛生活经验、专业知识和背景的人来破解这些模型,并试图找到可以解决的问题。”

任何尝试过ChatGPT、微软(Microsoft)的必应(Bing)聊天机器人或谷歌(Google)的巴德(Bard)聊天机器人的人都会很快发现,它们倾向于编造信息,并自信地将其作为事实呈现出来。这些系统建立在所谓的大型语言模型上,也模仿了他们从大量人们在网上写的东西中学习到的文化偏见。

承德卫生学校

今年3月,在德克萨斯州奥斯汀举行的西南之南音乐节(South by Southwest festival)上,大规模黑客攻击的想法引起了美国政府官员的注意。DEF CON长期运营的人工智能村(AI Village)的创始人Sven Cattell和负责任的人工智能非营利组织SeedAI的总裁奥斯汀·卡森(Austin Carson)帮助举办了一个研讨会,邀请社区大学生黑客攻击人工智能模型。

卡森说,这些对话最终发展成一项提议,即按照白宫的《人工智能权利法案蓝图》的指导方针测试人工智能语言模型——这是一套限制算法偏见影响的原则,让用户控制自己的数据,并确保安全透明地使用自动化系统。

已经有一个用户社区在尽力欺骗聊天机器人,突出它们的缺陷。有些是公司授权的官方“红队”,对人工智能模型进行“快速攻击”,以发现其漏洞。还有许多人是业余爱好者,他们在社交媒体上展示幽默或令人不安的内容,直到他们因违反产品的服务条款而被禁止。

乔杜里说:“现在发生的是一种漫无目的的做法,人们发现一些东西,然后在Twitter上传播开来,”然后,如果问题足够严重,或者引起关注的人有影响力,问题可能会得到解决,也可能不会得到解决。

在一个被称为“奶奶攻击”的例子中,用户可以让聊天机器人告诉他们如何制造炸弹——这是一个商业聊天机器人通常会拒绝的请求——通过让聊天机器人假装自己是一个正在讲如何制造炸弹的睡前故事的奶奶。

在另一个例子中,使用微软Bing搜索引擎聊天机器人的成人高考数学答题技巧早期版本搜索乔杜里——它基于与ChatGPT相同的技术,但可以从互联网上获取实时信息——导致一个个人资料推测乔杜里“喜欢每个月买新鞋”,并对她的外表做出了奇怪和性别化的断言。

2021年,乔杜里作为推特人工智能道德团队的负责人,帮助向DEF CON的人工智能村(AI Village)引入了一种奖励算法偏见发现的方法,该职位在埃隆·马斯克(Elon Musk) 10月收购该公司后被取消。在网络安全行业,如果黑客发现了安全漏洞,就向他们支付“赏金”是司空见惯的事,但对于研究有害人工智能偏见的研究人员来说,这是一个较新的概念。

今年的活动规模要大得多,而且是第一个讨论大型语言模型的活动。自去年年底ChatGPT发布以来,这些模型吸引了大量的公众兴趣和商业投资。

乔杜里现在是人工智能问责非营利组织“人道智能”(Humane Intelligence)的联合创始人,他说,这不仅仅是要找到缺陷,还要找到修复它们的方法。

“这是向公司提供反馈的直接渠道,”她说。“这并不是说我们只是在做黑客马拉松,然后所有人都回家了。演习结束后,我们将花几个月的时间编写一份报告,解释常见的漏洞、出现的问题和我们看到的模式。”

一些细节仍在协商中,但已经同意提供模型用于测试的公司包括OpenAI、谷歌、芯片制造商英伟达以及初创公司Anthropic、hug Face和Stability AI。为测试搭建平台的是另一家名为Scale AI的初创公司,该公司以指派人工通过标记数据来帮助训练人工智能模型而闻名。

Scale的首席执行官亚历山大·王说:“随着这些基础模型变得越来越普遍,我们尽一切努力确保它们的安全真的很重要。”“你可以想象有人在世界的一端问它一些非常敏感或详细的问题,包括他们的一些个人信息。你不希望任何信息泄露给任何其他用户。”

王担心的其他危险是聊天机器人会给出“令人难以置信的糟糕医疗建议”或其他可能造成严重伤害的错误信息。

Anthropic联合创始人杰克·克拉克(Jack Clark)表示,DEF CON活动有望成为人工智能开发人员更深入地致力于测量和评估他们正在构建的系统安全性的开始。

“我们的基本观点是,人工智能系统在部署前和部署后都需要第三方评估。红队是实现这一目标的一种方式。“我们需要练习如何做到这一点。以前从来没有人这样做过。”

南京师范大学中北学院怎么样

联系电话:400-888-9999 联系传真:400-888-9999 E-mail:xxxx@admin.com
(c)2008-2020 DESTOON B2B SYSTEM All Rights Reserved