AI生成的文本的潜力和风险

随着越来越多的AI驱动作品栩栩如生,它们对企业揭示了新的好处,并需要更好地了解AI对社会的影响。

朱利安·史密斯(Julian Smith)

朱利安·史密斯(Julian Smith)2023年2月1日

语言可能是人类提出的最复杂的行为。教学机器如何理解和使用它一直是人工智能(AI)领域最大的挑战之一。经过数十年的进步,机器学习的最新创新有助于推动这一过程的前进。现在,高级算法可以以英语和其他语言生成(主要是)连贯的文本,并具有惊人的(有时甚至令人担忧)的结果。

语言远不止是词典和语法指南。单词可以以无限,微妙且通常模棱两可的方式组合在一起,这意味着教计算机的语言规则列表是不够的。2019年,研究实验室Openai发布了GPT-2,这是一种“大型语言模型”,它刮掉了互联网上的大量单词。几乎就像一个种植孩子一样,它浸入文本中,学会预测单词和短语的模式。

该过程耗资数千万美元,需要数​​百个并行处理器。它的继任GPT-3于2020年推出,并接受了大约2000亿个单词的培训,可以在各种各样的主题上创建一段文本段落,这些文本很难与(Ahem)人所写的故事区分开来。

Openai优惠商业访问通过应用程序编程界面(API)向研究人员和初创企业致算法。在2023年,在Openai的Chatgpt围绕着巨大的媒体嗡嗡声之后,微软通过投资对Openai进行了又一个大的赌注100亿美元。OpenAI模型已部署在Microsoft的Azure公共云服务和Power类别中,定义了AI产品,例如Github Copilot,Dall·E 2和Chatgpt,Microsoft博客文章

有关的

AI帮助音乐家和科学家完成贝多芬的第十交响曲

大多数当前语言模型都集中在英语文本上,包括Gopher来自DeepMind;GPT-Neox-20b来自AI研究人员的基层集体Eleutherai;和侏罗纪-1,来自以色列AI21实验室。仅去年,华为最近就宣布了一种类似GPT的中文模型,称为pangu-alpha,以及韩国搜索公司Naver引入了韩国语言模式,称为Hyperclova

“这些模型中的任何一个都能够制作出看起来完全现实的文本,尽管通常它们在某些任务上比其他任务更可信。”米卡·穆瑟(Micah Musser)乔治敦大学的安全与新兴技术中心(CSET)。

AI越来越对话纽约时报2023年1月下旬,在一个名为“角色”的网站上报道,该网站允许人们“与几乎任何人的传真,生死,真实或想象中的人聊天”。

AI如何进入商业世界

尽管这些新创造引起了人们对他们可能对社会产生的负面影响的担忧,但它们越来越多地展示了AI的可能性,包括如何帮助企业创新并保持竞争力。

语言AI已被Facebook等公司使用谷歌微软通过多种方式,包括语言翻译,智能电子邮件助手,改善搜索结果以及生成营销副本和计算机代码。云计算中随时可用的资源使来自不同行业的大小企业更容易使用AI。A德勤研究发现70%的公司通过基于云的软件获得了AI功能,而65%的公司使用云服务创建了AI应用程序。

有关的

AI在云计算中的作用

实际上,IT部门使用的许多新产品和服务提供AI驱动的自动化使管理数据系统更容易。每年,更多的AI驱动和AI-Facilitatinig产品和服务都会上市。围绕业务的证据,以加强他们使用AI的使用并暗示其运营中的使用实验。

演员如何滥用AI文本生成器

必须理解让计算机代码创造出令人信服的段落的无尽回报的黑暗面。专家经常指出,AI语言系统仅与受过训练的文本一样好 - 互联网充满了文化偏见,谎言和仇恨言论。喜欢歧视某些种族的面部识别系统,语言AIS可以回应其培训数据的错误和文化偏见。

“看到她这样学习真是令人兴奋,”人工智能研究员杰里米·霍华德(Jeremy Howard)在纽约时报介绍后采访chatgpt给他7岁的女儿。他认为这是一种回答女儿的问题的导师。

“但是我也告诉她:不要相信它给您的一切。它会犯错。”

有关的

6将塑造2023的IT趋势

随着进入进入的障碍稳步缩小,人们对该技术可能被滥用的许多方式感到担忧。垃圾邮件和假产品评论正在弹出。乔治敦大学的报告解释了阴谋理论家和极端主义团体如何利用语言ai来制造假新闻和仇恨言论

穆瑟说:“从理论上讲,AI语言模型可以用来对任何主题产生错误信息。”

Twitter,Facebook和其他社交媒体服务的许多用户声称这已经发生了多年,引起了关于监管或保护措施的需求的大声,持续的社交和政治辩论。

AI如何产生错误信息

简短的文本片段可能是最令人信服的语言模型的错误信息。这使Twitter成为自动欺骗的理想环境。有了一些关于给定主题的示例,模型可能会吐出数百个类似推文。

更长的文字可能是一个挑战。一旦训练了语言模型,它对世界的理解就会有些固定,就像说话的鹦鹉一样。但是,提供一个关于不断发展的主题的上下文的模型可以使其能够产生完美的内容。

有关的

AI对棒球运动员对游戏的影响有更深入的了解

Musser说:“大型语言模型有时可以但不能可靠地描述一个突发的新闻故事并'旋转'以更好地与预先指定的叙述保持一致。”

AI语言最艰巨的任务是在不失去对话的情况下以真实的人类来来回来回争论。穆瑟说,语言模型还没有,但这并不意味着它们不会有一天。

这已经发生了吗?

穆瑟说:“一个简单的答案是,我们不知道,因为非常困难 - 可能是不可能的 - 可靠地检测出大型语言模型的输出。”

他将挑战比较了在数字图像中发现更改的挑战。数以百万计的像素提供了一个大型数据集来检测机器生成的统计模式。相比之下,在单个推文或几百个单词的Facebook帖子中找到此类模式要困难得多,甚至使用AI语言模型。

如何识别AI生成的文本

Musser说,随着模型变得更大,更现实的方式,用于检测文本是否为AI生成的方法往往会变得更糟。CSET目前正在与Openai合作,斯坦福大学互联网天文台检查可能的解决方案,以打击大型语言模型产生的虚假信息。

一个更有希望的路线可以使用AI根据其提出的实际错误主张来标记内容,而不是其来源。这在很大程度上将是社交媒体公司的领域,其战斗错误信息的往绩充其量是斑点。穆瑟解释说,即使那也不是一个完美的解决方案。

他说:“我不清楚,就像我认为每个人一样,关于诸如误解内容的自动标签的有效性实际上是在减少人们相信它的意愿。”

随着越来越多的新用例出现,因此,对潜在和风险的更广泛的意识和更深入的了解。如今,有一个普遍的避免说明了AI的当前状态:“我们在飞行时正在建造飞机。”

混合和多云管理

朱利安·史密斯(Julian Smith)是一位贡献者。他是执行编辑Atellan Media和作者Aloha RodeoSmokejumper由HarperCollins出版。他撰写了有关绿色技术,可持续性,冒险,文化和历史的文章。

©2023 Nutanix,Inc。保留所有权利。有关其他法律信息,请去这里。

相关文章

关键业务应用程序
技术

关键业务应用程序进入未来

企业在私人和公共云计算技术上运行越来越多的应用程序至关重要的应用程序,使其比以往任何时候都更加灵活,适应性和弹性。

Baidu