今天跟大家讲BERT,是google早前一个算法的更新,先用少许时间跟大家简单解释一下BERT的概念,维基百科上可以看到BidirectionalEncoderRepresentationsfromTransformers的条目。    

BERTNLP例子  

平时我们在google搜索天气,只需输入“天气”就可以得到所需资料,但如果通过语音搜索或者用googlehome的时候,我们通常会用简单句子。  

例如“今天的天气怎么样”、“今天是否会下雨”此类简单对话句子。  

Google会尝试理解用户说话的模式,然后将重要的关键字拆出来,然后再用平时用google搜索器那样的方法搜索。  

这其实不是新鲜的东西,2019年底大约11月开始推行,经过一年搜集结果和调整准确性,到现在2020年11月,已经不是如当初那样。局部将语音变成关键字再去搜索,而是整个数据库都可以用BERT的概念做了。  

DeepRank是什么?  

甚至现在有了一个新名称DeepRank,这纯粹是正式给这个项目一个名目,并非有什么新的内容,只是代表这个项目正式和全力进行中,不再是以前测试的模式。  

以前我不明白为何每次提到BERT,都会用芝麻街这个图片,后来找了一下资料,发现原来黄色面这个角色名字就是BERT。  

刚推出的时候,就是2019年底的时候,对10%语音有影响,到今时今日他们声称可用到DeepRank的地方已经全面使用了。  

至于以后还有什么加强,或者再深入到什么程度,可能就要拭目以待了,现在暂时大家只需要知道有DeepRank,而这并不是什么新鲜事,只是BERT的演算法。