创建ChatGPT的公司背后的首席执行官认为,人工智能技术将重塑我们所知的社会。他认为它会带来真正的危险,但也可能是“人类迄今为止发展出的最伟大的技术”,可以极大地改善我们的生活。
“我们在这里必须小心,” OpenAI首席执行官萨姆奥特曼说。“我认为人们应该为我们对此有点害怕而感到高兴。”
Altman 坐下来接受 ABC 新闻首席商业、技术和经济记者 Rebecca Jarvis 的独家采访,谈论GPT-4 的推出——AI 语言模型的最新版本。
在接受采访时,Altman 强调 OpenAI 需要监管机构和社会尽可能地参与 ChatGPT 的推出——坚持认为反馈将有助于阻止该技术可能对人类造成的潜在负面影响。
他补充说,他与政府官员保持“定期联系”。
ChatGPT是一种AI语言模型,GPT代表Generative Pre-trained Transformer。
仅在几个月前发布,它已被认为是历史上增长最快的消费者应用程序。该应用程序在短短几个月内就达到了 1 亿月活跃用户。
相比之下,根据瑞银的一项研究,TikTok 用了九个月才达到这么多用户,而 Instagram 用了将近三年。
虽然“不完美”,但根据 Altman 的说法,GPT-4 在统一律师考试中得分为第 90 个百分位。它还在 SAT 数学测试中取得了近乎满分的成绩,现在它可以熟练地用大多数编程语言编写计算机代码。
GPT-4 只是朝着 OpenAI 最终构建通用人工智能的目标迈出的一步,即当 AI 跨越一个强大的阈值时,这个阈值可以被描述为通常比人类更聪明的 AI 系统。
尽管他庆祝自己产品的成功,但 Altman 承认 AI 可能的危险实施让他彻夜难眠。
“我特别担心这些模型可能会被用于大规模的虚假信息,”Altman说。“现在他们在编写计算机代码方面做得越来越好,[他们] 可以用于攻击性网络攻击。”
Altman没有分享的一个常见的科幻恐惧:不需要人类的人工智能模型,它们自己做出决定并策划世界统治。“它等待有人给它输入,”Altman说。“这是一种非常受人类控制的工具。”
然而,他说他确实担心哪些人可以控制。“会有其他人不设置我们设置的一些安全限制,”他补充说。
“我认为,社会只有有限的时间来弄清楚如何对此做出反应,如何监管,如何处理。”
2017 年开学第一天,俄罗斯总统弗拉基米尔·普京 (Vladimir Putin) 告诉俄罗斯学生,无论谁在人工智能竞赛中领先,都可能“统治世界”。
“所以这肯定是一个令人不寒而栗的声明,”Altman说。“相反,我希望的是,我们不断开发出越来越强大的系统,我们都可以以不同的方式使用这些系统,将其融入我们的日常生活,融入经济,并成为人类意志的放大器。”
对错误信息的担忧
根据 OpenAI 的说法,GPT-4 与之前的迭代相比有了巨大的改进,包括将图像理解为输入的能力。演示展示了 GTP-4 描述某人冰箱里的东西、解决难题,甚至阐明互联网模因背后的含义。
目前只有一小部分用户可以使用此功能,包括参与 Beta 测试的一群视障用户。
但根据 Altman 的说法,ChatGPT 等 AI 语言模型的一个持续问题是错误信息:该程序可以为用户提供事实上不准确的信息。“我最想提醒人们的是我们所说的‘幻觉问题’,”Altman说。“该模型会自信地陈述事物,就好像它们是完全虚构的事实一样。”
根据 OpenAI 的说法,该模型存在这个问题,部分原因是它使用演绎推理而不是记忆。
OpenAI 首席技术官 Mira Murati 告诉美国广播公司新闻:“我们从 GPT-3.5 到 GPT-4 看到的最大差异之一是这种新兴的更好推理能力。”
“我们的目标是预测下一个词——由此,我们看到了对语言的理解,”Murati 说。“我们希望这些模型能像我们一样看待和理解世界。”
“考虑我们创建的模型的正确方法是推理引擎,而不是事实数据库,”Altman 说。“它们也可以充当事实数据库,但这并不是它们的特别之处——我们希望它们做的是更接近于推理能力,而不是记忆能力。”
Altman 和他的团队希望“随着时间的推移,这个模型将成为这个推理引擎,”他说,最终能够使用互联网和它自己的演绎推理来区分事实和虚构。
根据 OpenAI 的说法,GPT-4 产生准确信息的可能性比其之前的版本高 40%。
尽管如此,Altman表示,依赖该系统作为准确信息的主要来源“是你不应该使用它的地方”,并鼓励用户仔细检查程序的结果。
防范不良行为者
ChatGPT等AI语言模型所包含的信息类型也一直备受关注。例如,ChatGPT 是否可以告诉用户如何制造炸弹。
根据 Altman 的说法,答案是否定的,因为编码到 ChatGPT 中的安全措施。
“我担心的一件事是……我们不会成为这项技术的唯一创造者,”奥特曼说。“会有其他人不对我们施加的一些安全限制加以限制。”
根据 Altman 的说法,针对 AI 的所有这些潜在危害,有一些解决方案和保护措施。其中之一:让社会在风险较低的时候玩弄 ChatGPT,并学习人们如何使用它。
Murati 表示,目前,ChatGPT 向公众开放主要是因为“我们正在收集大量反馈”。
随着公众继续测试 OpenAI 的应用程序,Murati 表示,识别需要保护措施的地方变得更加容易。
“人们用它们做什么,还有它的问题是什么,缺点是什么,以及能够介入 [和] 改进技术,”Murati 说。Altman 表示,让公众与每个版本的 ChatGPT 进行互动非常重要。
“如果我们只是秘密地开发这个——在我们这里的小实验室里——然后制造出 GPT-7,然后一下子把它投放到世界上……我认为,这是一个有更多不利因素的情况,”
Altman 说。“人们需要时间来更新、做出反应、习惯这项技术,[并]了解缺点在哪里以及可以采取哪些缓解措施。”
关于非法或道德上令人反感的内容,Altman 表示他们在 OpenAI 有一个政策制定者团队,他们决定将哪些信息输入 ChatGPT,以及允许 ChatGPT 与用户共享哪些信息。
“[我们]正在与各种政策和安全专家交谈,对系统进行审计,试图解决这些问题,并推出我们认为安全和好的东西,”Altman 补充道。“再一次,我们不会在第一次就做到完美,但吸取教训并在风险相对较低的情况下找到优势非常重要。”
人工智能会取代工作吗?
这项技术的破坏性能力令人担忧的是工作的替代。Altman 说这可能会在不久的将来取代一些工作,并担心这会发生多快。
“我认为经过几代人的努力,人类已经证明它可以很好地适应重大技术变革,”Altman 说。“但如果这种情况发生,你知道,在个位数的年数中,其中一些转变,这是我最担心的部分。
但他鼓励人们更多地将 ChatGPT 视为一种工具,而不是替代品。他补充说,“人类的创造力是无限的,我们找到了新的工作。我们找到了新的事情要做。”
“我认为在几代人的时间里,人类已经证明它可以很好地适应重大技术变革,”Altman 说。“但如果这种情况发生在个位数年内,其中一些转变......这是我最担心的部分。”
根据 Altman 的说法,ChatGPT 可以用作人类工具的方式超过了风险。
Altman说:“我们都可以在口袋里拥有一位为我们量身定制的不可思议的教育者,它可以帮助我们学习。” “我们可以为每个人提供超出我们今天所能获得的医疗建议。”
ChatGPT 作为“副驾驶”
在教育领域,ChatGPT 引起了争议,因为一些学生用它来作弊。教育工作者对这是否可以作为他们自己的延伸,或者是否会阻碍学生自学的动力感到困惑。
Altman说:“教育将不得不改变,但随着技术的发展,这种情况已经发生了很多次,”他补充说,学生将能够拥有一种超越课堂的老师。“让我最兴奋的其中一个是提供个人学习的能力——为每个学生提供很好的个人学习。”
在任何领域,Altman 和他的团队都希望用户将 ChatGPT 视为“副驾驶”,即可以帮助您编写大量计算机代码或解决问题的人。
奥特曼说:“我们可以为每一个职业都做到这一点,我们可以拥有更高质量的生活,比如生活水平。” “但我们也可以拥有我们今天甚至无法想象的新事物——所以这就是承诺。”