当前位置: 首页 > news >正文

人才招聘网站怎么做沈阳seo网站推广

人才招聘网站怎么做,沈阳seo网站推广,上海外贸出口代理公司排名,网站首页收录突然没有了表示的基本原理: 机器无法理解文字,却能进行复杂的数学运算——神经网络只要够深、够复杂,就能拟合足够复杂的数学模式。把文字嵌入(embed)到一个向量空间中去。 词表示(Word Representation)…

表示的基本原理:

机器无法理解文字,却能进行复杂的数学运算——神经网络只要够深、够复杂,就能拟合足够复杂的数学模式。把文字嵌入(embed)到一个向量空间中去。

词表示(Word Representation)分为4代

1.独热(One hot)编码

基本原理:

假设中文字典有n个词元,那么第i(i=1,2,3,...,n)个词元的编码为一个长度为n的向量,它的第i位为1,其他为0。独热编码实现了对文本的向量化嵌入。

问题:

第一,向量的维度太长了,文本的表示过于稀疏;

第二,词向量与词向量之间完全正交,不具有相关性。

2.词频-逆文档词频(Term Frequency-Inverse Term Frequency, TF-IDF)

根据Zipf's Law,在给定的自然语言语料库中,任何一个词的频率与它在频率表中的排名成反比。

3.语境无关(Context-free/Non-contextual)的词表示:Word2vec

它对每一个词生成一个相同的词表示,不考虑同一个词在不同语境下含义的差别。

连续词袋法:

用一个浅层神经网络,依次遮住句子中的每一个词,然后用它的上下文来预测它

跳元法:

我们用一个k元词组来预测它的上下文

自监督预训练:

通过“破坏”句子的一部分,让模型预测它,从而实现对词的更精确的表示.

4.语境相关(Context-dependent/Contextual)的词表示:BERT

语言的多义性是人类自然语言的重要特点。

BERT考虑了三层嵌入:词嵌入、位置嵌入(词在句子中的位置)和句子嵌入,并把它们加起来作为最后的嵌入表示。

BERT使用WordPiece分词器(tokenizer),借鉴了自监督训练的思想,在两个任务上进行预训练:下句预测(Next Sentence Prediction)和掩码语言建模(Masked Language Modeling)。

下句预测是一个二分类任务:给定一个句子,判定另一个句子是否是它的下一句;

掩码语言建模任务随机掩盖其中15%的单词,并训练模型来预测被掩盖的单词,为了预测被掩盖的单词,模型从两个方向阅读该句并进行预测。

http://www.yidumall.com/news/51839.html

相关文章:

  • 沧州做网站优化哪家公司便宜百度产品大全
  • 江西做网站2021最近最火的关键词
  • 网站优化新闻江门网站优化公司
  • FLASK做wiki网站百度站长收录
  • 公司网站制作设电商网店
  • 凡科网站自己如何做西安seo托管
  • 旅游网站后台模板时事新闻最新消息
  • 合水网站建设宁波关键词网站排名
  • 石家庄模板自助建站网店推广方案范文
  • 网站设计导航栏高度电商培训内容
  • 最好的手机网站建设重大新闻事件2023
  • remal wordpress重庆网站优化
  • 私人网站建设成本如何做推广呢
  • 营销技巧分享沈阳关键词优化价格
  • wordpress第一篇文章seo综合查询接口
  • 做外贸接私单的网站seo优化费用
  • 苏州学习网站建设国内疫情最新情况
  • 短网址网站济南百度
  • 万网个人网站备案查询网站运营与维护
  • 可以做区块链推广的网站民宿平台搜索量上涨
  • 重庆做商城网站舆情信息在哪里找
  • 哪些网站做装修搜索引擎分哪三类
  • 郑州 网站建设 东区凌云seo博客
  • 枣庄网站建设价格seo优化与sem推广有什么关系
  • 桂林同城网站湖人队最新消息
  • 为什么网站需要维护华为seo诊断及优化分析
  • 漯河网站建设费用网络营销出来做什么
  • 东莞外贸网站搭建制作樱花bt引擎
  • 网站开发网页gif设计公司武汉大学人民医院光谷院区
  • 品牌设计的原则有哪些深圳百度网站排名优化