当你在搜索引擎中搜索“在无路的山地如何停车”,搜索引擎会给你哪些答案?
两年前,网页可能会告诉你一些基本的停车方法或山地停车技巧,因为搜索引擎检测到了“停车”和“山地”这些关键字,而忽略了“无路”这一点。
但如今,搜索结果中能更精准地呈现你所关心的内容:在无车道的山坡上如何停车。因为搜索引擎不仅学会了识别关键字,还理解了这些词之间的逻辑关系。
在搜索引擎的背后,是谷歌的BERT模型逐渐开始理解人类语言,让搜索体验更加人性化。
今年十月份,在谷歌的“Search On”活动中,介绍了许多AI领域的新应用,其中就包括BERT模型的最新进展:已应用于谷歌上几乎所有的英文查询,并且拓展至70多种语言。BERT模型在英文查询中的使用比例大幅增加。
那么,BERT模型为何能有如此强大的语言理解能力呢?
BERT模型在训练时学会了“背单词”和“学语法”。它不是通过语境去理解词义,而是将单词转化为可以计算的向量或矩阵,再通过网络计算特征权重来“理解”人类语言。
BERT全名为Bidirectional Encoder Representations from Transformers,是一个基于Transformer模型建立的双向编码器。Transformer模型起源于机器翻译领域,利用注意力机制构建每个词的特征,通过分析词之间的相互影响得到特征权重。
BERT模型的双向编码特性使其能够同时进行正向和反向的上下文理解。这意味着BERT不仅能理解句子的上下文,还能关注到词与词之间的关系,从而更准确地“猜”出用户的心意。
在BERT出现之前,NLP领域面临着标记数据集不足和结果准确率低的问题。而BERT模型通过无监督学习和加深Transformer层数及双向编码的方法,有效解决了这些问题。
自2019年以来,BERT不仅在学术界取得了里程碑式的成就,在实际应用中也展现出了巨大的潜力。谷歌的搜索算法中加入了BERT模型后,不仅提高了搜索的准确性,还能识别并纠正用户的拼写错误。
随着时间的推移,BERT模型不断进阶,衍生出了ALBERT、ELECTRA等更轻量级的模型。这些模型在减少计算量的仍能保持出色的文本识别效果。
BERT的影响力也扩展到了NLP领域的各个子方向,如文本分类、机器翻译、阅读理解等。许多新的NLP模型如XLNet、GPT-3等也在不断涌现,旨在成为更通用、更强大的NLP模型。
从BERT的诞生到进阶,再到NLP领域的新秀轮番亮相,我们不难看出人工智能正在不断进步。如何让人工智能真正走入我们的生活?首先需要让机器真正理解我们的需求。而BERT模型的出现正是迈出了这一步。
通过自监督学习处理无标记数据,再结合双向编码理解文义,BERT打破了之前训练数据需要标记的“魔咒”,为NLP领域带来了性的变革。
如今已经两岁的BERT用时间证明了自己的巨大潜力。未来,随着新的应用和技术的发展,或许BERT将为我们带来更多的AI惊喜。