当前位置: 首页 > news >正文

万网免费网站网络营销心得体会800字

万网免费网站,网络营销心得体会800字,鞍山市网站建设,网站建设的目的和意义人工神经元模型 生物学上神经元通常由细胞体,细胞核,树突和轴突构成。 树突用来接收其他神经元传导过来的信号,一个神经元有多个树突; 细胞核是神经元中的核心模块,用来处理所有的传入信号; 轴突是输出信…

人工神经元模型


生物学上神经元通常由细胞体,细胞核,树突和轴突构成。

树突用来接收其他神经元传导过来的信号,一个神经元有多个树突;

细胞核是神经元中的核心模块,用来处理所有的传入信号;

轴突是输出信号的单元,它有很多个轴突末梢,可以给其它神经元的树突传递信号。




人工神经元的模型可以由下图来表述:



图中X1~Xn是从其它神经元传入的输入信号,Wi1~Win分别是传入信号的权重,θ表示一个阈值,或称为偏置(bias),偏置的设置是为了正确分类样本,是模型中一个重要的参数。神经元综合的输入信号和偏置(符号为-1~1)相加之后产生当前神经元最终的处理信号net,该信号称为净激活或净激励(net activation),激活信号作为上图中圆圈的右半部分f(*)函数的输入,即f(net); f称为激活函数或激励函数(Activation Function),激活函数的主要作用是加入非线性因素,解决线性模型的表达、分类能力不足的问题。上图中y是当前神经元的输出。


常见的激活函数


1.  Sigmoid


Sigmoid函数的特点是会把输出限定在0~1之间,如果是非常大的负数,输出就是0,如果是非常大的正数,输出就是1,这样使得数据在传递过程中不容易发散。

Sigmod有两个主要缺点,一是Sigmoid容易过饱和,丢失梯度。从Sigmoid的示意图上可以看到,神经元的活跃度在0和1处饱和,梯度接近于0,这样在反向传播时,很容易出现梯度消失的情况,导致训练无法完整;二是Sigmoid的输出均值不是0,基于这两个缺点,SIgmoid使用越来越少了。


2. tanh




tanh是Sigmoid函数的变形,tanh的均值是0,在实际应用中有比Sigmoid更好的效果。


3. ReLU



ReLU是近来比较流行的激活函数,当输入信号小于0时,输出为0;当输入信号大于0时,输出等于输入。


ReLU的优点:

1. ReLU是部分线性的,并且不会出现过饱和的现象,使用ReLU得到的随机梯度下降法(SGD)的收敛速度比Sigmodi和tanh都快。

2. ReLU只需要一个阈值就可以得到激活值,不需要像Sigmoid一样需要复杂的指数运算。

ReLU的缺点:

在训练的过程中,ReLU神经元比价脆弱容易失去作用。例如当ReLU神经元接收到一个非常大的的梯度数据流之后,这个神经元有可能再也不会对任何输入的数据有反映了,所以在训练的时候要设置一个较小的合适的学习率参数。


4. Leaky-ReLU



相比ReLU,Leaky-ReLU在输入为负数时引入了一个很小的常数,如0.01,这个小的常数修正了数据分布,保留了一些负轴的值,在Leaky-ReLU中,这个常数通常需要通过先验知识手动赋值。


5. Maxout




Maxout是在2013年才提出的,是一种激发函数形式,一般情况下如果采用Sigmoid函数的话,在前向传播过程中,隐含层节点的输出表达式为:



其中W一般是二维的,这里表示取出的是第i列,下标i前的省略号表示对应第i列中的所有行。而在Maxout激发函数中,在每一个隐含层和输入层之间又隐式的添加了一个“隐含层”,这个“隐隐含层”的激活函数是按常规的Sigmoid函数来计算的,而Maxout神经元的激活函数是取得所有这些“隐隐含层”中的最大值,如上图所示。

Maxout的激活函数表示为:


f(x)=max(wT1x+b1,wT2x+
b2
)


可以看到,ReLU 和 Leaky ReLU 都是它的一个变形(比如, w1,b1=0  的时候,就是 ReLU)。

Maxout的拟合能力是非常强的,它可以拟合任意的的凸函数,优点是计算简单,不会过饱和,同时又没有ReLU的缺点(容易死掉),但Maxout的缺点是过程参数相当于多了一倍。


其他一些激活函数列表:




3. 神经网络模型分类


神经网络由大量的神经元互相连接而构成,根据神经元的链接方式,神经网络可以分为3大类。


(1) 前馈神经网络 ( Feedforward Neural Networks )


前馈网络也称前向网络。这种网络只在训练过程会有反馈信号,而在分类过程中数据只能向前传送,直到到达输出层,层间没有向后的反馈信号,因此被称为前馈网络。前馈网络一般不考虑输出与输入在时间上的滞后效应,只表达输出与输入的映射关系;

感知机( perceptron)与BP神经网络就属于前馈网络。下图是一个3层的前馈神经网络,其中第一层是输入单元,第二层称为隐含层,第三层称为输出层(输入单元不是神经元,因此图中有2层神经元)。




(2)反馈神经网络 ( Feedback Neural Networks )


反馈型神经网络是一种从输出到输入具有反馈连接的神经网络,其结构比前馈网络要复杂得多。反馈神经网络的“反馈”体现在当前的(分类)结果会作为一个输入,影响到下一次的(分类)结果,即当前的(分类)结果是受到先前所有的(分类)结果的影响的。

典型的反馈型神经网络有:Elman网络和Hopfield网络。




(3)自组织网络 ( SOM ,Self-Organizing Neural Networks )


自组织神经网络是一种无导师学习网络。它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。



http://www.yidumall.com/news/38290.html

相关文章:

  • 虹口网站制作完整企业网站模板
  • 网站维护建设费应计入科目发布外链的步骤
  • 门户网站开发专业网推app
  • 门户网站建设厂商名录网络营销平台有哪些?
  • 中国自适应网站建设郑州seo公司排名
  • 专业建站报价短期职业技能培训班
  • php网站开发背景介绍seo免费优化网址软件
  • 微信微网站制作广州网络运营课程培训班
  • 嘉兴网络公司变更关键词优化报价怎么样
  • 著名网站设计公司深圳外贸网络推广
  • 学做粤菜的网站百度推广渠道
  • 武汉网站建设武汉网络公司天津百度seo代理
  • 太平洋电脑网自助装机长春网站优化体验
  • seo网站优化技术个人网站模板
  • 厚街做网站网站推广平台排行
  • 网站建设的布局对网络推广的影响百度地图导航2021最新版
  • 河北建设厅网站怎么搜索文件免费的关键词挖掘工具
  • wordpress 7牛云南京seo培训
  • 淘宝做网站靠谱google推广公司哪家好
  • 中华住房和城乡建设厅网站关键词优化公司排名榜
  • 网站备案全国合作拍照点 腾讯云整站优化关键词排名
  • 百度广告联盟收益南昌seo搜索排名
  • 苏州市优化网站推广哪家好北京seo代理公司
  • 基于互联网怎样做网站推广搜索引擎优化的基本方法
  • 治多县网站建设公司手机百度搜索app
  • 找团队做网站seo培训资料
  • 2级a做爰片免费网站什么是整合营销并举例说明
  • 网页游戏排行榜2011站长工具seo综合查询工具
  • 让人做网站需要注意什么广州网站排名优化报价
  • java在线编程网站最新营销模式有哪些