您的位置:首页>动态 >内容

OpenAI宣布他们正在开发一种用于自然语言处理的强大的新型神经网络

2020-07-07 17:35:22来源:
导读人工智能实验室OpenAI宣布,他们正在开发一种用于自然语言处理的强大的新型神经网络,并将有限地向公众发布。该实验室由埃隆·马斯克(Elon

人工智能实验室OpenAI宣布,他们正在开发一种用于自然语言处理的强大的新型神经网络,并将有限地向公众发布。
 

该实验室由埃隆·马斯克(Elon Musk)创建,最近得到了微软(Microsoft) 10亿美元的资助。该实验室已经设计出了文本生成器,可以生成与人类书写的文本几乎没有区别的可读文本。

OpenAI的机器学习方法从网络上抓取大量数据,并分析其统计模式,使其能够实际预测接下来可能会出现的字母或单词。

当用户输入一个单词、短语或更长的文本片段到生成器时,它会以令人信服的类似人类的文本扩展这些单词。这些结果可以用来创建故事,解决阅读理解练习,回答问题,总结论文,甚至可以下棋,解决数学问题,或者创建基于文本的地下城场景。

这个被称为GPT-3的文本生成器依赖于一个巨大的数据库,该数据库由从网络帖子和电子书扫描中收集的近一万亿单词组成。微软为这个项目建造了一台拥有数十万个处理器的超级计算机。

该程序擅长创作事实段落和虚构作品。早期版本的文本生成器,事实上,非常擅长创建原始文本,人们担心它的创造者,它能够被用于邪恶的目的,如散布虚假新闻在网络上或从事计划通过虚假欺骗消费者在线聊天。

出于这些担忧,OpenAI在2019年2月采取了不寻常的措施,拒绝发布早期版本GPT-2,理由是担心潜在的滥用可能会带来危险。

“我们需要进行实验,看看他们能做什么,不能做什么,”OpenAI政策主管杰克•克拉克(Jack Clark)当时表示。“如果你不能预测一个模型的所有能力,你就必须刺激它看看它能做什么。比我们更善于恶意思考的人要多得多。”

该项目最终向公众发布,OpenAI最担心的事情没有发生。

现在新的GPT-3将只对有限的几个来源提供商业租赁。

根据OpenAI的报告,比GPT-2强大100倍的GPT-3在测试中表现出色。它处理了需要填空的阅读压缩练习,处理“即时推理”,以及生成多达500个单词的作文。

谷歌已经将这种技术应用到它处理复杂搜索查询的算法中。微软在其Office产品中使用该程序来不断改进语法检查功能。

OpenAI仍然担心诸如假新闻发布、垃圾邮件和网络钓鱼的滥用。他们在网上的论文中写道,“我们将终止对明显有害的用例的API访问,如骚扰、垃圾邮件、激进化或占星化(掩盖消息背后的人)。”但我们也知道,我们无法预测这项技术可能带来的所有后果,所以我们今天推出的是一个内测版(测试版),而不是普遍可用的。”

只有通过邀请才能访问GPT-3 API。早期的用户包括自然语言网络搜索公司Algolia、心理健康社交网络Koko和人工智能聊天机器人“伴侣”的创造者Replika。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章