• 资讯

招商分类

推荐文章

当前位置 | 首页 | 行业资讯 | 科技

人工智能模型难以识别语言

2023-11-01 15:58:05 190

巴黎:根据周四发布的一项研究,为聊天机器人和其他应用程序提供动力的人工智能模型仍然难以区分废话和自然语言。

广东最好的大专美国哥伦比亚大学的研究人员表示,他们的工作揭示了当前人工智能模型的局限性,并建议在法律或医疗环境中放开它们还为时过早。

他们让9个人工智能模型进行测试,向它们发射数百对句子,并询问哪些句子可能在日常讲话中听到。

他们让100人对几对句子做出同样的判断,比如:“一个买家也可以拥有正品/一个精通高中周边的人我漫步。”

这项研究发表在《自然机器智能》杂志上,然后将人工智能的答案与人类的答案进行了权衡,发现了巨211里最烂的大学大的差异。

像GPT-2这样的复杂模型,即为病毒式聊天机器人ChatGPT提供动力的模型的早期版本,通常与人类的答案相匹配。

其他更简单的模型表现就没那么好了。

西安职业技术学校但研究人员强调,所有的模型都有错误。

该研究报告的作者之一、心理学教授克里斯托弗·巴尔达萨诺说:“每个模型都有盲点,把一些人类参与者认为是胡言乱语的句子标记为有意义的。”

“这应该让我们三思,我们希望人工智能系统在多大程度上做出重要决策,至少目前是这样。”

该论文的另一位作者Tal Golan告诉法新社,这些模型是“一项令人兴奋的技术,可以极大地补充人类的生产力。”

考研复试需要准备什么材料

然而,他认为“让这些模型在法律、医学或学生评估等领域取代人类决策可能还为时过早。”

戈兰说,陷阱之一是,人们可能会故意利用盲点来操纵模型。

去年,随着ChatGPT的发布,人工智能模型突然进入公众视野。自那以后,ChatGPT通过了各种考试,并被吹捧为医生、律师和其他专业人士的潜在助手。

联系电话:400-888-9999 联系传真:400-888-9999 E-mail:xxxx@admin.com
(c)2008-2020 DESTOON B2B SYSTEM All Rights Reserved