发布时间:2019-10-17 阅读量:1191 来源: 智东西 发布人: Jane
10月17日消息,去年10月谷歌发布的BERT模型已经在阅读理解测试中全面超越人类,今天微软的UniLM模型将这一领域的研究推向了新的高度。
据外媒报道,微软近日推出的UniLM AI训练模型通过改变传统AI系统学习方式,成功实现单向预测,突破了自然语言处理中大量文本修改的瓶颈。
一、改变双向预测方式
语言模型预训练(Language model pretraining)是一种机器语言处理技术,它通过依据文本预测词汇的方式,教会机器学习系统(machine learning systems)如何把文本情景化地表述出来。它代表了自然语言处理(natural language processing)领域的最新突破。
目前,像谷歌的BERT模型,是双向预测,也就是根据左右两侧的词汇来预测,因此不适合大量文本的处理。
▲谷歌BERT模型
为此,微软科学家们研究出了UniLM(UNIfied pre-trained Language Model)这种新模型。该模型可以完成单向、序列到序列(sequence-to-sequence)和双向预测任务,并且可以针对自然语言的理解和生成进行微调(fine-tuned)。
微软表示它在各类常见的基础测试中都要优于BERT,并且在自然语言处理的一些测试项目中取得了该领域的最新突破。
二、“变形金刚”的威力
▲UniLM模型概览
UniLM模型是一个多层网络,其核心是由Transformer AI模型组成的,这些模型针对大量文本进行了共同的预训练,并针对语言建模进行了优化。
跟其他AI系统学习预测方式不同的是,Transformer AI将每个输出元素都连接到每个输入元素。它们之间的权重是可以动态调整的。
微软研究人员认为,经过预训练的UniLM与BERT类似,可以进行微调以适应各种下游任务。但是与BERT不同,UniLM可以通过一种特殊方式(using different self-attention masks),汇总不同类型语言模型的上下文。
此外,Transformer网络可以共享从历史训练中学到的数据,不仅使学习到的文本表示更加通用,也降低了对单一任务的处理难度。
三、学海无涯
微软研究人表示,UniLM通过学习英语维基百科(English Wikipedia)和开源BookCorpus的文章后,已经拥有高达28996的词汇量。并且在预培训后,UniLM的跨语言任务表现也非常好。
团队人员表示,UniLM未来发展的空间还很大,例如在“网络规模(web-scale)”的文本语料库上训练较大的模型来突破当前方法的局限性。
他们还希望让UniLM在跨语言任务中取得更大突破。
结语:自然语言处理领域的重大突破
自然语言处理,是人工智能界、计算机科学和语言学界所共同关注的重要问题,它对于实现人机间的信息交流起着重要作用。
谷歌BERT和微软的UniLM是这一领域的开拓者,后者通过单向预测突破了大量文本处理的难题,进而提升了此类AI在实际应用中的价值。
此次谷歌霸主地位被动摇,也势必将在该领域引发更加精彩的AI大战。
原文来源:Venturebeat
本文将从技术原理、系统架构及工程实现角度,全解剖析新能源汽车的大三电和小三电系统
CAN总线技术通过单一总线替代复杂布线系统,极大提高了系统的可靠性与可维护性
数据采集的精度和可靠性,直接决定了整个BMS系统性能的天花板
英伟达投资50亿入股英特尔股票
在高速通信、精准导航与精密测量等尖端领域,电子系统的时序架构对时钟信号稳定性的要求已近乎苛刻——其精度如同机械钟表的游丝摆轮,微小偏差便可能引发整个系统的时序紊乱,导致数据传输错误、定位偏移或测量失准。环境温度的波动一直是普通晶振频率稳定性的最大挑战,而温补晶振(Temperature Compensated Crystal Oscillator,简称TCXO)作为高精度时钟基准的核心器件,正是为解决这一核心问题而生。它凭借内置的“感知-计算-补偿”机制,在宽温环境下实现对频率的精准锁定,将温度变化引发的漂移压制在极低水平,成为高端电子系统中不可或缺的“时序锚点”。要真正理解并选型这一精密器件,就必须深入剖析其决定性能优劣的几个重要参数。