OpenAI已经显著升级了其在线聊天机器人的技术。它更准确了,但仍然会编造东西。
四个月前让科技行业为之倾倒的人工智能聊天机器人的新版技术在其前身的基础上有所改进。它是一系列主题的专家,甚至以其医疗建议让医生惊叹。它可以描述图像,也可以讲出搞笑的笑话。
但传闻已久的新人工智能系统GPT-4仍有一些怪癖,并会犯一些同样的习惯性错误,这些错误在那个聊天机器人ChatGPT推出时令研究人员感到困惑。
尽管它是一个非常好的应试者,但该系统(来自旧金山的初创公司OpenAI)还没有达到与人类智力相匹配的程度。以下是对GPT-4的简要介绍:
1、它已经学会了更加精确当人工智能专家、风险投资公司Page One Ventures的合伙人Chris Nicholson在最近一个下午使用GPT-4时,他告诉机器人,他是一个讲英语的人,不懂西班牙语。
他要求提供一个可以教他基本知识的教学大纲,机器人提供了一个详细而有条理的大纲。它甚至还提供了一系列学习和记忆西班牙语单词的技巧(尽管并不是所有的建议都能达到目的)。
GPT-4
注意:在此示例中,仅显示较长响应的第一部分。
Nicholson先生要求以前的ChatGPT版本提供类似的帮助,该版本依赖于GPT-3.5。它也提供了一个教学大纲,但它的建议更笼统,帮助不大。
Nicholson先生说:“它已经突破了精确的障碍。它包括了更多的事实,而且这些事实往往是正确的。”
2、它已经提高了其准确性当人工智能研究员和教授Oren Etzioni第一次尝试新的机器人时,他问了一个简单的问题:“Oren Etzioni和Eli Etzioni之间是什么关系”?机器人的回答是正确的。
上一个版本的ChatGPT对这个问题的回答总是错误的。能答对说明新的聊天机器人有更广泛的知识。
3、它还是会犯错机器人接着说:“Oren Etzioni是一位计算机科学家,也是Allen人工智能研究所(AI2)的首席执行官,而Eli Etzioni 是一位企业家”。其中大部分是准确的,但这个机器人(其培训是在去年8月完成的)没有意识到Etzioni博士最近卸任了Allen研究所的首席执行官。
4、它能以令人印象深刻的细节描述图像GPT-4有一种新的能力,可以对图像以及文字做出反应。OpenAI的总裁和联合创始人 Greg Brockman演示了该系统如何对哈勃太空望远镜的一幅图像进行细致的描述。该描述持续了好几段。
它还可以回答关于图像的问题。如果给它一张冰箱内部的照片,它可以建议用手头的东西做几道菜。
该系统似乎作出了适当的反应。但是答案并没有考虑到门口的高度,这可能也会阻碍坦克或汽车的通过。
OpenAI的首席执行官Sam Altman说,新的机器人可以 “一点点”进行推理。但它的推理能力在很多情况下都会出现问题。上一版本的ChatGPT对这个问题的处理要好一点,因为它认识到高度和宽度很重要。
9、它可以在标准化测试中取得好成绩OpenAI说,新系统可以在统一律师考试中的前10%左右的学生中得分,该考试使41个州和地区的律师获得资格。根据该公司的测试,它还可以在SAT考试中获得1300分(满分1600分),在生物学、微积分、宏观经济学、心理学、统计学和历史等高中高级课程考试中获得5分(满分5分)。
该技术的前几个版本在统一律师考试中没有通过,在大多数大学先修课程考试中的得分也没有那么高。
在最近的一个下午,为了展示它的测试技能,Brockman先生给新的机器人提供了一段很长的律师考试问题,内容是关于一个经营柴油卡车维修业务的人。
答案是正确的,但充满了法律术语。因此,Brockman先生要求机器人用普通英语向外行人解释答案。它也这样做了。
10、它不善于讨论未来尽管新的机器人似乎能够推理已经发生的事情,但当被要求形成关于未来的假设时,它就不那么擅长了。它似乎借鉴了别人说过的话,而不是创造新的猜测。
当Etzioni博士问新机器人:“未来十年N.L.P.研究中需要解决的重要问题是什么”?(指的是推动ChatGPT等系统发展的那种 “自然语言处理”研究)它无法提出全新的想法。
而且它还在产生编造内容这个新的机器人仍然在编造东西。这个问题被称为 “幻觉”,困扰着所有领先的聊天机器人。因为这些系统不了解什么是真的,什么是假的,它们可能产生完全错误的文本。
当被要求提供描述最新癌症研究的网站地址时,它有时会生成不存在的互联网地址。
相关文章
猜你喜欢