我要投搞

标签云

收藏小站

爱尚经典语录、名言、句子、散文、日志、唯美图片

当前位置:双彩网 > 语言生成 >

令人印象深刻的新语言AI撰写产品评论和新闻文章

归档日期:06-28       文本归类:语言生成      文章编辑:爱尚语录

  我所见过的最酷的人工智能系统之一也可能会让我失去工作。本周早些时候,我参加了OpenAI的研究团队的一个演示,这个旧金山的非营利组织正在与顶级科技公司合作,对人工智能的前沿进行令人印象深刻的新研究。他们向我展示的系统是一种语言学习模型,可以编写新闻,解读阅读理解问题,并开始在翻译等任务中表现出前景。

  在周四发布的一篇论文中,OpenAI团队证明我们可以从“无人监督”的人工智能中获得这些结果 - 这意味着系统从阅读800万篇互联网文章中学习,而不是通过明确的任务培训。他们的人工智能推动了最先进的技术 - 在某些情况下,通过很多方面。OpenAI团队表示,他们的系统在所谓的Winograd架构上创造了性能记录,这是一项艰难的阅读理解任务; 在儿童书籍考试中达到近乎人性的表现,这是对阅读理解的另一种检查; 并且 - 最激动人心的 - 产生自己的文本,包括非常有说服力的新闻文章和亚马逊评论。

  AI一次选择一个单词,然后考虑下一个应该是什么。添加句子需要几秒钟。 这绝不是完美的: 散文非常粗糙,偶尔也会有不成文,而且文章越长越不连贯。纽约大学自然语言处理和计算语言学专业的萨姆鲍曼在一封电子邮件中告诉我,“该模型最终似乎仍然偏离主题,输出上限为几百字。”

  而且要明确的是,虽然人工智能可以撰写有时令人信服的新闻文章,但我不会对在报纸上看到它们感到惊讶,但它不能写出真正的新闻文章; 报价和统计数据全部组成。

  在过去十年中,我们在自然语言处理方面取得了巨大进步。翻译已经改进,变得高质量,你可以阅读其他语言的新闻文章。谷歌去年夏天证明谷歌助理可以打电话和预约,同时听起来就像一个人(虽然该公司承诺它不会在实践中使用欺骗性的策略)。

  AI系统在自然语言处理之外也看到了同样令人印象深刻 新技术 - 以及更强大的计算能力 - 使研究人员能够发明逼真的图像,擅长Go等双人游戏,并与Starcraft和DOTA 等战略视频游戏中的专业人士竞争。

  但即使对于我们这些习惯于在这个领域取得快速进展的人来说,OpenAI的最新版本也令人印象深刻。

  到目前为止,试图在语言任务上获得世界纪录结果的研究人员将“微调”他们的模型,以便在所讨论的特定任务中表现良好 - 也就是说,AI将针对每项任务进行训练。

  名为GPT-2的OpenAI系统不需要进行微调:它在我们用来判断语言AI的许多核心任务中实现了创纪录的性能,而没有经过专门的训练来处理这些任务他们。它也开始展示一些阅读理解,总结和翻译的才能,而没有对这些任务进行明确的培训。

  GPT-2是一种称为“无监督学习”的方法的结果。这就是这意味着什么。当今工业中的主流方法是“监督学习”。在这里,您可以获得包含所需输入和所需输出的大型,精心标记的数据集。你教AI如何根据输入产生输出。

  这可以获得很好的结果,但它需要构建庞大的数据集并仔细标记每一位数据。值得注意的是,有 监督的学习并不是人类获得技能和知识的方式。我们在没有监督学习的仔细描述的例子的情况下推断出这个世界。

  许多人认为,一般人工智能能力的进步将需要在无监督学习方面取得进展- 也就是说,人工智能只会暴露于大量数据并且必须自己弄清楚其他一切。无监督学习更容易扩展,因为非结构化数据比结构化数据更多,无监督学习可以更好地概括任务。

  OpenAI用于测试GPT-2功能的一项任务是机器学习中的着名测试,称为Winograd模式测试。Winograd模式是一个语法模糊但对人类不模糊的句子 ​​- 因为我们有上下文来解释它。

  对于人类读者来说,很明显这意味着奖杯太大了,而不是手提箱太大,因为我们知道物体如何适应其他物体。但是,人工智能系统很难解决这些问题。

  OpenAI表示,在本文之前,能够解决Winograd模式的最先进的AI在63.7%的时间内正确使用它们。(人类几乎从来没有弄错过他们。)GPT-2在70.7%的时间内得到了正确的答案。这仍然远远低于人类水平的表现,但它比以前可能的表现更加惊人。

  GPT-2也设置了其他语言任务的记录。LAMBADA是一项测试计算机使用故事中前面提到的上下文来完成一个句子的能力的任务。之前的最佳表现准确率为56.25%; GPT-2的准确率达到63.24%。(同样,人类在95%以上的时间都能获得这些权利,因此人工智能还没有取代我们 - 但这是能力的大幅提升。)

  鲍曼指出,对文本生成人工智能系统的一种持怀疑态度的观点是,“这样的模型有时看起来只是重复他们训练过的确切文本而看起来很好看。”例如,如果你这么做就很容易得到连贯的段落。从其他来源抄袭整个段落。但这不是正在发生的事情:“这是以一种不能真正做到这一点的方式建立的。”因为它一次选择一个单词,所以不是抄袭。

  人工智能的另一个持怀疑态度的观点是,它们并没有反映出我们对计算机系统的理解的“深刻”进展,只是能够使用更多数据和更多计算能力所带来的浅薄改进。批评者认为,几乎所有预测为人工智能发展的东西实际上只是从增加更多计算能力到现有方法的渐进过程。

  OpenAI的团队对此表示质疑。GPT-2使用了一种新发明的神经网络设计,称为变形金刚,由Google Brain的研究人员在18个月前发明。性能的一些提升肯定得益于更多的数据和更强的计算能力,但它们也受到该领域最近强大创新的推动 - 正如我们所期望的那样,人工智能作为一个领域正在各方面都有所改进。

  “这是更多的数据,更多的计算,更便宜的计算和架构改进 - 大约一年半前由Google的研究人员设计,”OpenAI研究员Jeffrey Wu告诉我。“我们只是想尝试一切,看看实际结果在哪里。”

  OpenAI团队正在做出不寻常的选择,不公开发布他们的系统,让每个人都能与之互动。这太糟糕了 - 从我这里拿走它,尝试它是非常有趣的 - 但它们有很好的理由。

  OpenAI一直在努力弄清楚如何限制滥用AI的可能性,并且他们得出结论,在某些情况下,正确的解决方案限制了他们发布的内容。

  例如,通过这样的工具,可以很容易地欺骗亚马逊的评论并在人类需要的时间内抽出假新闻文章。稍微复杂一点的版本可能足以让学生生成剽窃的论文,垃圾邮件发送者可以改进他们对目标的消息传递。

  OpenAI政策主管杰克克拉克告诉我,“我担心会产生任意大量的垃圾意见内容,这是性别歧视和种族主义者。” 他还担心“扮演虚假信息的人,更复杂的人”,并指出可能有其他滥用途径,我们还没有想到。所以他们让这个工具保持离线状态,至少现在是这样,而每个人都可以权衡如何安全地使用这些AI。(有一个较小的版本可以公开试用。)

  这个关于东北地区暴风雪的故事 - 加上当地政府发明的报价 - 花了大约10秒钟来“写”。

  当然,保持一些私有功能可能效果不大。“我相信,一个人单独使用足够的计算资源可以在一两个月内重现这些结果(或者是拥有大量设备和时间的业余爱好者,或者更有可能是科技公司的研究人员),”Bowman写道。我。“鉴于将模型公之于众是标准做法,这一决定只是推迟了短时间内这类模型的发布。”并且保持私有能力存在缺陷 - 这使得公众更难以独立评估工作。正在完成。

  “我们希望以负责任的方式沟通我们所做的事情,使其他重要的利益相关者,如记者和政策制定者,能够理解和验证我们所做的事情,”Clark写道。这是一种平衡,需要采取一些适当的练习,但他们认为这一发现 - 尽可能成为假新闻的危险工具 - 是开始调查如何打击它的正确场所。

  虽然他们没有在网上提供语言生成器本身,但是OpenAI的团队让我可以访问它,所以我可以查看他们的结果并写下这篇文章。

  所以,当然,我做了显而易见的事 - 我要求OpenAI的新语言AI为我完成这篇文章。

  “OpenAI发布了一种名为GPT-2的新语言模型,它超越了各种任务的最新技术水平,”我提示道。在接下来的15秒内,AI为我扩展了这一点。

  怀疑论者说语言模型无法做到推理,但GPT-2证明比最好的人工智能模型更强大。[...]

  GPT-2并不完美 - 即使是最好的AI模型也是如此 - 但它每天都在不断改进。随着技术的进步,构建模型变得越复杂。AI研究人员继续为图像识别和机器视觉等任务创建模型。[...]

  人工智能正在以最快和最积极的方式改变我们的生活。人工智能将允许智能机器人和计算机与我们一起工作,甚至可以使我们能够与其他智能代理一起工作,无论他们是人还是机器。

本文链接:http://beforelasik.com/yuyanshengcheng/252.html