• 资讯

招商分类

推荐文章

当前位置 | 首页 | 行业资讯 | 热点

随着人工智能的兴起,社交媒体平台可能会在2024年面临错误信息的完美风暴

2023-11-30 19:43:32 40

CNN报道

纽约(CNN)——上个月,佛罗里达州州长罗恩·德桑蒂斯的总统竞选团队在推特上发布了一段视频,视频中使用了似乎是由人工智能生成的图像,显示前总统唐纳德·特朗普拥抱安东尼·福奇博士。这些图片似乎是为了批评特朗普没有解雇美国顶级传染病专家而设计的,但很难辨认:它们与这对夫妇的真实照片一起展示,并附上文字,上面写着“现实中的特朗普”。

随着这些图片开始传播,事实核查组织和眼尖的用户迅速将其标记为假照片。但Twitter并没有删除这段视频。最近几个月,Twitter在新东家的领导下大幅裁员。相反,它最终在帖子中添加了一个社区说明——一个由贡献者主导的功能,以突出社交媒体平台上的错误信息——提醒网站用户,视频中“特朗普拥抱福奇的三张照片是人工智能生成的图像”。

数字信息完整性专家表示,这只是人工智能生成内容在2024年美国总统大选之前被使用的开始,这些内容可能会混淆或误导选民。

一批新的人工智能工具提供了生成引人注目的文本和逼真的图像的能力,以及越来越多的视频和音频。专家,甚至是一些监管人工智能公司的高管都表示,这些工具可能会传播虚假信息,误导选民,包括在2024年美国大选之前。

华盛顿大学(University of Washington)教授、知情公众中心(Center for a Informed Public)联合创始人杰文·韦斯特(kevin West)说,“竞选活动开始升温,选举来得很快,技术进步也很快。”“我们已经看到了人工智能可能产生影响的证据。”

专家们表示,社交媒体公司在应对此类风险方面负有重大责任,因为数十亿人会去社交媒体平台获取信息,不良行为者也经常去社交媒体平台传播虚假言论。但他们现在面临着一系列因素的完美风暴,这些因素可能会使他们比以往任何时候都更难跟上下一波选举错误信息的步伐。

在过去的六个月里,几家主要的社交网络已经撤回了对一些与选举有关的错误信息的执行,并进行了大规模裁员,在某些情况下,这影响了选举的完整性、安全性和负责任的人工智能团队。美国现任和前任官员还警告称,一名联邦法官本月早些时候做出的限制一些美国机构与社交媒体公司沟通方式的决定,可能会对联邦政府和各州如何处理与选举有关的虚假信息产生“寒蝉效应”。(周五,一家上诉法院暂时叫停了该命令。)

与此同时,人工智能正在快速发展。尽管业内人士和其他人发出了呼吁,但美国立法者和监管机构尚未对人工智能技术实施真正的保护措施。

“我甚至对他们处理老类型威胁的能力都没有信心,”技术心理学研究所(Psychology of Technology Institute)的人工智能研究员和伦理顾问戴维·埃文·哈里斯(David Evan Harris)说,他曾在facebook母公司meta从事负责任的人工智能研究。“现在又出现了新的威胁。”

主要平台告诉CNN,他们已经制定了与错误信息相关的现有政策和做法,在某些情况下,专门针对“合成”或计算机生成的内容,他们说这将有助于他们识别和解决任何人工智能生成的错误信息。没有一家公司同意让任何从事生成式人工智能检测工作的人接受采访。

塔夫茨大学弗莱彻学院全球商学院院长巴斯卡尔·查克拉沃蒂在接受CNN采访时表示,这些平台“过去还没有准备好,我们绝对没有理由相信它们现在会准备好。”

“威胁到我们区分事实与虚构的能力”

误导性的内容,尤其是与选举有关的内容,并不是什么新鲜事。但在人工智能的帮助下,现在任何人都可以快速、轻松、廉价地制作大量虚假内容。

鉴于人工智能技术在过去一年的快速发展,到明年美国大选时,假图像、文本、音频和视频可能会变得更加难以辨别。

“距离大选还有一年多的时间。这些工具会变得越来越好,在老练的用户手中,它们会变得非常强大。”他补充说,2016年和2020年在社交媒体上发生的各种错误信息和选举干预可能只会因人工智能而加剧。

开源人工智能公司hug Face的研究员兼首席伦理科学家玛格丽特·米切尔(Margaret Mitchell)表示,各种形式的人工智能生成的内容可以一起使用,使虚假信息更可信——例如,一篇人工智能撰写的虚假文章配上一张人工智能生成的照片,旨在展示报告中发生的事情。

人工智能工具可能对任何想要误导的人都很有用,尤其是对有组织的团体和受到激励干预美国大选的外国对手。曾在谷歌工作过的米切尔说,大量的外国巨魔农场被雇佣来试图影响美国和其他地方之前的选举,但“现在,一个人可以负责部署成千上万的生成式人工智能机器人”,在社交媒体上大量发布内容,误导选民。

广受欢迎的人工智能聊天机器人ChatGPT的制造商OpenAI在最近的一篇研究论文中对人工智能产生的错误信息的风险发出了严厉警告。报告称,来自人工智能系统的大量虚假信息,无论是故意的,还是由系统的偏见或“幻觉”造成的,都“有可能让人对整个信息环境产生怀疑,威胁到我们区分事实和虚构的能力”。

人工智能产生的错误信息的例子已经开始出现。今年5月,几个Twitter账户,包括一些支付了蓝色“验证”勾号的账户,分享了虚假图像,声称显示五角大楼附近发生了爆炸。虽然这些图片很快就被揭穿,但它们的传播之后,股市短暂下跌。推特暂停了至少一个负责传播这些图片的账户。Facebook将有关这些图片的帖子标记为“虚假信息”,并进行了事实核查。

一个月前,共和党全国委员会发布了一个30秒的广告,以回应乔·拜登总统的官方竞选声明,该声明使用人工智能图像来想象第46任总统连任后的反乌托邦美国。共和党全国委员会的广告在屏幕上有一个小小的免责声明,“完全由人工智能图像制作”,但CNN向华盛顿特区的一些潜在选民展示了这段视频,他们第一次看时并没有发现它。

数十名民主党议员上周致信美国联邦选举委员会(Federal Election Commission),呼吁考虑打击在政治广告中使用人工智能技术,并警告称,欺骗性广告可能会损害明年选举的公正性。

防范人工智能产生的错误信息

在2024年之前,许多平台表示,他们将推出保护选举公正性的计划,包括免受人工智能生成内容的威胁。

今年早些时候,抖音推出了一项政策,规定人工智能创造的“合成”或被操纵的媒体必须明确贴上标签,此外,它的公民诚信政策禁止有关选举过程的误导性信息,它的一般错误信息政策禁止可能对个人或社会造成“重大伤害”的虚假或误导性言论。

YouTube有一项被操纵的媒体政策,禁止以误导用户和“可能造成严重伤害的严重风险”的方式“操纵或篡改”的内容。该平台还制定了政策,反对可能误导用户投票方式和时间的内容、可能阻碍投票的虚假声明,以及“鼓励他人干预民主进程”的内容。YouTube还表示,它在其平台上突出展示有关选举的可靠新闻和信息,其专注于选举的团队包括其信任和安全、产品和“情报台”团队的成员。

YouTube发言人Ivy Choi在一份声明中表示:“在技术上被操纵的内容,包括误导用户并可能造成严重伤害的选举内容,是不允许出现在YouTube上的。”“我们使用机器学习和人工审查来执行我们的操纵内容政策,并继续改进这项工作,以保持领先于潜在威胁。”

一位meta发言人告诉CNN,该公司的政策适用于其平台上的所有内容,包括人工智能生成的内容。其中包括其错误信息政策,该政策规定该平台删除可能“直接导致干扰政治进程和某些高度欺骗性的被操纵媒体的运作”的虚假声明,并可能减少其他误导性声明的传播。meta还禁止含有已被其第三方事实核查网络揭穿的内容的广告。

TikTok和meta还加入了一个由非营利性人工智能伙伴组织协调的科技行业合作伙伴组织,该组织致力于开发一个负责任地使用合成媒体的框架。

当被问及对这个故事的评论时,推特回复了一个大便表情符号。

自亿万富翁埃隆·马斯克(Elon Musk)接管该平台以来,推特在几个月里取消了大部分内容审核,转而更多地依赖于“社区笔记”功能,该功能允许用户批评他人帖子的准确性,并为其添加背景。推特在其网站上还表示,它有一项“合成媒体”政策,根据该政策,推特可以标记或删除“可能欺骗或混淆人们并导致伤害的合成、操纵或脱离背景的媒体”。

不过,就像社交媒体经常遇到的情况一样,面临的挑战可能不是政策是否到位,而是政策的执行。这些平台主要使用人工和自动审查相结合的方式来识别错误信息和被操纵的媒体。这些公司拒绝提供有关其人工智能检测过程的更多细节,包括有多少员工参与了此类工作。

但人工智能专家表示,他们担心这些平台对计算机生成内容的检测系统可能很难跟上技术的进步。甚至一些开发新的生成式人工智能工具的公司也在努力构建能够准确检测人工智能生成的服务。

一些专家敦促所有社交平台实施政策,要求对人工智能生成或操纵的内容进行明确标记,并呼吁监管机构和立法者在人工智能周围建立护栏,并让科技公司对虚假声明的传播负责。

有一件事是明确的:成功的风险很高。专家表示,人工智能生成的内容不仅会给互联网用户带来被虚假信息误导的风险;这也可能使他们更难相信从投票到危机局势等所有事情的真实信息。

米切尔说:“我们知道,我们将进入一个非常可怕的局面,不清楚到底发生了什么,到底没有发生什么。”“当你看到的内容是否真实是一个问题时,它完全破坏了现实的基础。”

The-CNN-Wire?&?2023有线新闻网,Inc.,华纳兄弟发现公司。版权所有。

联系电话:400-888-9999 联系传真:400-888-9999 E-mail:xxxx@admin.com
(c)2008-2020 DESTOON B2B SYSTEM All Rights Reserved