? 特朗普一行访韩获EXO签名专辑 韩媒:他家人是粉丝_今日消息 单双倍投方法
文章故事
首页 | 爱情文章 | 亲情文章 | 友情文章 | 生活随笔 | 校园文章 | 经典文章 | 人生哲理 | 励志文章 | 搞笑文章 | 心情日记 | 英语文章 | 会员中心
当前位置:文章故事>爱情文章>文章内容 经典美文欣赏

重庆看夜景

特朗普一行访韩获EXO签名专辑 韩媒:他家人是粉丝

????

  原标题:特朗普一行访韩获赠EXO签名专辑 韩媒:他家人是粉丝

  [环球网报道 记者 丁洁芸]当特朗普遇到EXO,你想象过这个场景吗……

  29日晚,这一“打破次元壁”的画面,真的出现在了韩国青瓦台。

  据韩联社报道,29日下午,特朗普结束访日行程后又马不停蹄前往韩国进行访问。当晚,韩方在青瓦台设晚宴招待特朗普一行。晚宴前的鸡尾酒会上,青瓦台还为特朗普一行准备了特别嘉宾——韩国偶像组合EXO。

  而他们的出现,也成了网民热议的话题。

  韩国《世界日报》称,在文在寅向特朗普介绍EXO是“在韩国有名的K-pop歌手”后,特朗普表示,伊万卡来的路上还在说EXO呢。

  《世界日报》称,EXO和特朗普一行打完招呼后,文在寅表示,听说伊万卡的女儿下个月生日,带一张EXO的CD应该不错。说完,EXO的成员们送上自己的签名专辑。“还有签名呢,”伊万卡面带笑容说道。

  纽西斯通讯社表示,青瓦台的这一安排,是考虑到特朗普的家人是EXO的粉丝。据韩联社介绍,这位粉丝就是伊万卡的女儿阿拉贝拉。此前伊万卡还曾在平昌冬奥会时见过EXO,“我们家的孩子是你们的粉丝,难以置信我们会这样见面”。

  这一打破次元壁的画面在韩国引发热议,不少韩国网友为EXO是特朗普家人粉丝感到开心↓

   zhe yi da po ci yuan bi de hua mian zai han guo yin fa re yi, bu shao han guo wang you wei EXO shi te lang pu jia ren fen si gan dao kai xin

  哇,特朗普家人是EXO的粉丝?k-pop也太伟大了吧哈哈哈

  美国总统家人竟然是EXO粉丝,EXO人气不减啊。

  为EXO加油,想见他们,值得骄傲

  EXO最厉害啦

  还有网友“跑了题”,开始争论起EXO和防弹少年团谁的人气更高↓

  看吧,在美国exo的人气还是比防弹少年团高。

  不管别人怎么说,世界明星就是防弹少年团

  特朗普和EXO同框照传回中国后,还上了微博热搜↓

  中国网友也注意到了“特朗普获赠EXO签名专辑”这个画面↓

  有网友笑称EXO专辑是“韩国土特产”↓

  还有网友各种脑补特朗普内心OS:他们真靓,好开心↓

  网友还套用特朗普的“惯用句式”:没有人比我更懂EXO↓

责任编辑:余鹏飞

当前文章:http://www.0515zxw.com/j3ix/327982-524504-76567.html

发布时间:01:56:06

大丰最终幻想游戏??荆门租车公司排名??连云港荣信??澄迈古代酒的名字??汕尾君言不得意??扬州天润曲轴股票??金华蝤蛑??武威三不政策??象山爱的被告小说??博尔塔拉香樟树的资料??

{相关文章}

要啥给啥的写作AI:新闻评论小说都能编,题材风格随便选

????

  鱼羊乾明发自凹非寺
量子位报道公众号 QbitAI

  AI 编故事,一模更比一模秀。

  这里“一模”,自然是 OpenAI 横空出世的 GPT-2。但今日更秀的另一模型,来自 Salesforce——全球最大的 SaaS 提供商,虽然之前 AI 能力展露不多,但这一次,绝对一鸣惊人。作家知道会沉默,评论水军看了要流泪。因为定向化编故事、生成文案评论的能力,实在太强了!

  话不多说,直接看“作品”。

  定向化编故事,真假难辨

  给它一把刀,它编出了这样的“恐怖故事”:

刀柄从洞里拔了出来。当刀击中我时,我吓了一跳,惊恐地睁大了眼睛。除了呜咽声,我只听到她的尖叫声。

蜘蛛准备挖她上面的拱顶时,碰到了她的脚,小家伙的眼泪开始流下来。蜘蛛抬头看着她,回望着我,眼里充满了热泪。我的心开始狂跳……

  有情景、有逻辑、有细节,还有故事性,写作功力简直职业作家水平。

  还能编出“买家好评”:

刀是一种工具,这个很好用。这是我买给我丈夫的。他拿到它们之后就一直用它们来切肉。

他说它们很锋利,所以使用时要小心,但这似乎不是什么大问题。从鸡胸肉到牛里脊肉,他都切过……

  相比无脑好评的水军,AI 给出的结果很难想象是机器写的,核心信息点、细节,全都有了。但写得好、写得真假难辨,还不是重点!

  更关键的是,这个模型的独特之处——只需要给出条件,它就能“定向”编故事,写命题作文,指哪打哪,想写什么风格就写什么风格。与脑洞过于天马行空的 GPT-2 相比,它更能够被人驯服利用。

  于是模型放出后,很快就引起了业内人士的关注。也有人给出评价:

这太酷了!能够以更结构化的方式控制文本生成非常有价值。

  而且,这个 NLP 模型具有 16 亿参数,比之前最大的 GPT-2 还要多一个亿。

  虽然同样担心模型被滥用,但在研究人员看来,开放可能会更好,能让更多的人参与进来,一起抵抗。所以,他们直接在 GitHub 上放出了多个全尺寸的、经过训练的 CTRL 版本。而不是像 GPT-2 一样,挤牙膏开源。

  而且,它还是个全能选手,不仅能编故事,比如在 Reddit 论坛健身、理财板块发表不同的评论。它还有很多正经用途:编写维基百科词条、回答各类常识问题、翻译文字等等。

  那么这是一个怎样的 NLP 模型?

  16 亿参数的语言模型

  这个模型,有一个非常有“灵性”的名字:CTRL,全称为 Conditional Transformer Language,基于条件的 Transformer 语言模型。

  自从有了 Transformer,文本生成领域的大前辈就一个接着一个,这厢 BERT 开创先河,那厢 GPT-2 都能写论与卓越同行_今日消息文了。

  但是,与人类的创作方法不同,生成的文本再以假乱真,语言模型前辈们也不能按照特定的主题来写作内容。于是,CTRL 诞生了。

  这是一个拥有多达16 亿参数的条件 Transformer 语言模型(GPT-2 模型参数 15 亿),采用无监督学习,并且正如其名,能够对文本生成的内容进行更精准的控制。

  比如给出一个商品评分:1.0。GPT-2 生成的内容是这样的:

  而 CTRL,会生成这样的结果:

我为我儿子买了这个,他是这个节目的忠实粉丝。在拿到它之前,他非常期待。但当他打开它时,我们都非常失望。产品质量太差了。它看起来就像是一元店里的东西。

这玩意儿状况很差。前盖上有几处划痕以及其他一些轻微磨损……

  实现的关键,在于控制代码(control codes)

  CTRL 以控制代码c为条件,学习分布 p ( x c )。这一分布可以用额尔敦仓_今日消息概率链规则分解,并通过考虑控制代码的损失来进行训练。控制代码能使用户意图为语言模型所理解。

  通过标注训练数据集的特定标签,CTRL 模型中大部分控制代码能指定生成文本的整体样式。即使给出的提示(prompt)相同,控制代码也允许生成多样化的内容。并且,就算不给提示,CTRL 一样能生成特定风格的文本。


在有控制代码的情况下,开头也不用给

  而将控制代码添加到标签代码中,可以进一步限制生成。

  比如在 OpenWebText 版本中,在每一个文档后面加入 URL 地址,作为输入序列的开头。

  这样,CTRL 在训练过程中,就会学习这些 URL 的结构和文本之间的关系。在推理过程中,URL 可以指定各种功能,包括域,子域,实体,实体关系,乃至日期。除此之外,还有一小部分控制代码是与问答、翻译这样的特定任务相关的。这些控制代码相对复杂。

  好玩的是,混合控制代码会产生一些有意思的文本。比如把翻译控制代码混合到饮食这个标签中,生成的文本就拥有了两种不同语言的版本:

  再比如说把政治和法语提示混到一起:

  这些组合,在此前的训练中都没有出现过

  值得一提的是,CTRL 的训练文本数据多达 140GB,包括维基百科,Gutenberg 上的书籍,OpenWebText2 数据集(GPT-2 网页文本数据集克隆版),大量新闻数据集,亚马逊评价,来自 ELI5 的问答,以及包括斯坦福问答数据集在内的 MRQA 共享任务等等等等。

  数据集虽然没有开源,但 Salesforce 表示,他们会发布与数据收集相关的代码。

  以及,由于控制代码和用于训练模型的文本之间存在直接关系,CTRL 能判断出新文本生成时对其影响最大的数据源是哪一个。

  全球最大的 SaaS 服务提供商出品

  这篇论文来自Salesforce——全球最大的 SaaS 服务提供商。

  最近最为人关注的是一次大规模商业并购:豪掷 157 亿美元收购大数据公司 Tableau。Salesforce Research 是其内部的研究部门,核心目标是用 AI 来解决业务中的问题,已经在 NLP 领域颇有建树。目前,这一部门由 Salesforce 的首席科学家 Richard Socher 领导。

  他博士毕业于斯坦福大学计算机系。2016 年,自己创办的公司被 Salesforce 收购后,加入 Salesforce。根据他个人网站杨宝河_今日消息信息,仅在 2019 年他就发布了 11 篇顶会论文,其中 ACL 2019 3 篇;ICLR 2019 6 篇;CVPR 2019 1 篇;ICML 2019 3 篇。

  他也是这篇论文的作者之一。这篇论文的其他作者,都是 Salesforce Research 的研究员。第一作者有两位,分别是 Nitish Shirish Keskar 和 Bryan McCann。

  其中,Nitish Shirish Keskar 是 Salesforce 的高级研究员,博士毕业于西北大学,研究方向为深度学习及其在自然语言处理和计算机视觉方面的应用。他的个人页面显示,已经发表了 14 篇论文,其中不乏 ICLR 等顶会。

  Bryan McCann 也是 Salesforce 且加偏旁组词_今日消息高级研究员,毕业于斯坦福大学,曾经担任过吴恩达机器学习课程的助理,研究方向是深度学习及其在自然语言处理方面的应用。个人网站显示,他发表过 7 篇论文,不乏 ACL、NeurIPS、EMNLP 等 AI 顶会。

  引发参数热议

  这一研究成果,也引起了大家对模型参数的讨论。

  有人说,15 亿参数也好,16 亿参数也罢,要是英伟达的 Megatron 放出来,80 亿参数肯定都通通碾压。但也有人给出冷思考,表示参数很多并不是优点,而是一个弱点。阿姆斯特丹大学的助理教授 Willem Zuidema 说:

为什么规模大是一个卖点?我理解人们为建立了一个非常好的模型而自豪,甚至为找到了在有限的计算资源上训练大型模型的方法而自豪。

但在我看来,16 亿参数本身似乎是一个弱点,而不是优势。

  对此,Richard Socher 也给出了回应:

确实,假设性能相同,较小的模型更好。但吉田一美_今日消息事实证明,只要你在大量的训练数据上训练它,语言模型的性能和记忆事实的能力与大小是密切相关的。

  Jelle Zuidema 再度回应,给出了进一步的解释:

令我惊讶的是,“最大”是声明中的第一个形容词,而“高质量”只是最后一点。

我认为有必要提醒人们,理想的方法仍然是更少的参数、更少的培训和更好的性能。

  你怎么看?

  传送门

  最后,如果你对这个研究感兴趣,请收好传送门:

  项目地址:

  https://github.com/salesforce/ctrl

  论文地址:

  https://einstein.ai/presentations/ctrl.pdf

  博客文章:

  https://blog.einstein.ai/intr南开校歌_今日消息oducing-a-conditional-transformer-language-model-for-controllable-generation/

Copyright ? 2007-2014 今日消息 版权所有.情感文章,散文随笔,美文故事在线阅读