机器之心报道
机器之心编辑部
在前段时间举办的「SearchOn」活动中,谷歌宣布,BERT现在几乎为谷歌搜索引擎上的每一个基于英文的查询提供支持。而在去年,这一比例仅为10%。
BERT是谷歌开源的一款自然语言处理预训练模型,一经推出就刷新了11项NLP任务的SOTA记录,登顶GLUE基准排行榜。
具体到搜索引擎来说,BERT可以帮助搜索引擎更好地理解web页面上的内容,从而提高搜索结果的相关性。BERT模型中创新性的Transformer架构是一大亮点。Transformer处理一个句子中与所有其他单词相关的单词,而不是按顺序逐个处理。基于此,BERT模型就可以借助某个单词前后的词来考虑其所处的完整语境,这对于理解查询语句背后的意图非常有用。
2019年9月,谷歌宣布将BERT用到搜索引擎中,但仅有10%的英文搜索结果得到改善;2019年12月,谷歌将BERT在搜索引擎中的使用扩展到70多种语言。如今,这家搜索巨头终于宣布:几乎所有英文搜索都能用上BERT了。
BERT对于搜索引擎意味着什么?
作为自然语言处理领域里程碑式的进展,BERT为该领域带来了以下创新:
利用无标签文本进行预训练;
双向上下文模型;
transformer架构的应用;
masked语言建模;
注意力机制;
文本蕴涵(下一句预测);
……
这些特性使得BERT对于搜索引擎的优化非常有帮助,尤其是在消除歧义方面。用上BERT之后,对于比较长、会话性比较强的查询,或者在「for」、「to」等介词比较重要的语句中,谷歌搜索引擎将能够理解查询语句中词的上下文。用户可以用更加自然的方式进行搜索。
此外,BERT对于搜索中的指代消解、一词多义、同形异义、命名实体确定、本文蕴涵等任务也有很大的帮助。其中,指代消解指的是追踪一个句子或短语在某个语境或广泛的会话查询中指代的是谁或什么东西;一词多义指同一个词有多个义项,几个义项之间有联系,搜索引擎需要处理模棱两可的细微差别;同形异义是指形式相同但意义毫不相同的词;命名实体确定是指从许多命名实体中了解文本与哪些相关;文本蕴含是指下一句预测。这些问题构成了搜索引擎面临的常见挑战。
在过去的一年,谷歌扩展了BERT在搜索引擎中的应用范围,「搜索引擎营销之父」DannySullivan和G-SquaredInteractive的SEO顾问GlennGabe等人在推特中介绍了谷歌搜索的最近亮点。
在谷歌搜索中,有十分之一的搜索查询拼写错误。很快,一项新的变革将帮助我们在检测和处理拼写错误方面取得比过去五年更大的进步。
另一个即将到来的变化是,谷歌搜索将能够识别网页中的单个段落,并将它们处理为与搜索最相关的段落。我们预计这会改善7%的Google搜索查询。
SearchOn2020:谷歌可以索引一个网页的段落,而不仅仅是整个网页。新算法可以放大一段回答问题的段落,而忽略页面的其余部分。从下个月开始。
使用人工智能,我们可以更好地检测视频的关键部分,并帮助人们直接跳到感兴趣的内容,而不需要创作者手动标记。到今年年底,10%的谷歌搜索将使用这项技术。
此外,谷歌还表示,他们还应用神经网络来理解搜索相关的子主题,当你搜索宽泛的内容时,这有助于提供更多样化的内容。这项服务预计年底推出。
参考链接:
https://searchengineland.com/google-bert-used-on-almost-every-english-query-342193
https://searchengineland.com/a-deep-dive-into-bert-how-bert-launched-a-rocket-into-natural-language-understanding-324522
https://blog.google/products/search/search-on/