当前位置: 首页 > news >正文

html5电商网页制作北京百度关键词优化

html5电商网页制作,北京百度关键词优化,企业网站模板哪里好,知识竞赛网站建设方案策划书西瓜数据集D如下: 编号色泽根蒂敲声纹理脐部触感好瓜1青绿蜷缩浊响清晰凹陷硬滑是2乌黑蜷缩沉闷清晰凹陷硬滑是3乌黑蜷缩浊响清晰凹陷硬滑是4青绿蜷缩沉闷清晰凹陷硬滑是5浅白蜷缩浊响清晰凹陷硬滑是6青绿稍蜷浊响清晰稍凹软粘是7乌黑稍蜷浊响稍糊稍凹软粘是8乌黑稍蜷浊响清晰…

西瓜数据集D如下:

编号色泽根蒂敲声纹理脐部触感好瓜
1青绿蜷缩浊响清晰凹陷硬滑
2乌黑蜷缩沉闷清晰凹陷硬滑
3乌黑蜷缩浊响清晰凹陷硬滑
4青绿蜷缩沉闷清晰凹陷硬滑
5浅白蜷缩浊响清晰凹陷硬滑
6青绿稍蜷浊响清晰稍凹软粘
7乌黑稍蜷浊响稍糊稍凹软粘
8乌黑稍蜷浊响清晰稍凹硬滑
9乌黑稍蜷沉闷稍糊稍凹硬滑
10青绿硬挺清脆清晰平坦软粘
11浅白硬挺清脆模糊平坦硬滑
12浅白蜷缩浊响模糊平坦软粘
13青绿稍蜷浊响稍糊凹陷硬滑
14浅白稍蜷沉闷稍糊凹陷硬滑
15乌黑稍蜷浊响清晰稍凹软粘
16浅白蜷缩浊响模糊平坦硬滑
17青绿蜷缩沉闷稍糊稍凹硬滑

信息熵: 描述信息的混乱程度,越接近1越混乱(纯度越低),0则不混乱(纯度越高)

  • 信息熵是描述集合D的混乱程度(纯度)的值
  1. 以西瓜数据集为例,前7列(包含编号列)均为属性列,不是划分类别的指标,此例上一个瓜是否为好瓜是判断类别的唯一标准,则按照好瓜(是),好瓜(否)分为2类,即二分类问题
  2. 故D的信息熵仅由最后一列(好瓜)进行计算
  3. 简单看来:
  • 好瓜的比例:(记为P(好瓜));
  • 坏瓜的比例:(记为P(坏瓜)),
  • 进行一次对比,最混乱情况也就是各一半,纯度最高情况则全部是好瓜/坏瓜.
  1. 如出现多个类别,则每个类别占比相同时最混乱,只有一个类别数据时纯度最高
  2. 举例说明
    • (例1) 情况1.2的纯度大于情况1.1
      ( 情况 1.1 ) : P 好瓜 = 1 2 , P 坏瓜 = 1 2 (情况1.1):P_{ 好瓜} = \frac12,P_{坏瓜} = \frac12 (情况1.1):P好瓜=21,P坏瓜=21
      ( 情况 1.2 ) : P 好瓜 = 1 10 , P 坏瓜 = 9 10 (情况1.2):P_{ 好瓜} = \frac1{10},P_{坏瓜} = \frac9{10} (情况1.2):P好瓜=101,P坏瓜=109
    • (例2) 情况2.2的纯度大于情况2.1
      ( 情况 2.1 ) : P 好瓜 = 2 10 , P 坏瓜 = 8 10 (情况2.1):P_{ 好瓜} = \frac2{10},P_{坏瓜} = \frac8{10} (情况2.1):P好瓜=102,P坏瓜=108
      ( 情况 2.2 ) : P 好瓜 = 1 10 , P 坏瓜 = 9 10 (情况2.2):P_{ 好瓜} = \frac1{10},P_{坏瓜} = \frac9{10} (情况2.2):P好瓜=101,P坏瓜=109
    • 这样看来,在二分类问题中,取每个情况取最大的pk,比较大小,越大的纯度越高即可
    • 但是三分类问题就会有点问题
    • (例3) 情况3.2的纯度大于情况3.1
      ( 情况 3.1 ) : P 1 = 6 10 , P 2 = 2 10 , P 3 = 2 10 (情况3.1):P_1 = \frac6{10},P_2 = \frac2{10},P_3 = \frac2{10} (情况3.1):P1=106,P2=102,P3=102
      ( 情况 3.2 ) : P 1 = 6 10 , P 2 = 3 10 , P 3 = 1 10 (情况3.2):P_1 = \frac6{10},P_2 = \frac3{10},P_3 = \frac1{10} (情况3.2):P1=106,P2=103,P3=101
  3. 在例3的情况下,仅仅比较最大值6/10都是一样的,那么就需要比较第二大的值,3/10>2/10,故3.2的纯度大于情况3.1
  4. 由此可见,比较两个样本D信息熵的方法有了
  5. 但是不太方便,如果要用一个值来量化纯度(混乱程度),思路很清晰,同一个情况(一个集合D)中的分类占比越大,则对纯度程度的贡献就越大.即在(情况3.2)中 6/10的纯度意义 > 3/10 > 1/10
  6. 使用log函数可以实现8提到的要求.pk值越小,则log(pk)会更小.选用以2为底的对数函数,故当前样本集合D中第k类样本所占比例为pk(k=1,2,3,…,|y|),则D的信息熵为:
    E n t ( D ) = − ∑ k = 1 ∣ y ∣ p k l o g 2 p k Ent(D) = -\sum\limits _{k=1}^{|y|}p_klog_2p_k Ent(D)=k=1ypklog2pk

信息增益: 使用某个属性a对样本集D进行划分所能获得的纯度提升程度

  1. 计算信息增益的目的,是选出一个属性,可以最大的划分数据
  2. 则:
    信息增益 = 混乱程度 − 使用 a 进行划分后的混乱程度 信息增益 = 混乱程度 - 使用a进行划分后的混乱程度 信息增益=混乱程度使用a进行划分后的混乱程度
  3. 则:
    使用 a 进行划分后的混乱程度 = 即每个子集的混乱程度乘以各自的权重之和 使用a进行划分后的混乱程度 = 即每个子集的混乱程度乘以各自的权重之和 使用a进行划分后的混乱程度=即每个子集的混乱程度乘以各自的权重之和
  4. 又混乱程度可以使用信息熵Ent(D)进行计算
  5. 则可以推导,计算公式为:
    G a i n ( D , a ) = E n t ( D ) − ∑ v = 1 V ∣ D v ∣ ∣ D ∣ E n t ( D v ) Gain(D,a) = Ent(D) - \sum\limits _{v=1}^V \frac{|Dv|}{|D|}Ent(D^v) Gain(D,a)=Ent(D)v=1VDDvEnt(Dv)
  • 注:
    ∣ D ∣ 即表示集合 D 中的元素个数 |D| 即表示集合D中的元素个数 D即表示集合D中的元素个数

以西瓜数据集举例说明

  • D包含若干属性,若使用某个属性a(即样本中的某列,例如色泽)对D进行划分,将D划分为多个子集
  • 以西瓜数据为例,如使用属性色泽进行划分,则一共有3个属性值,则将全部数据划分为3个子集,即:
    D 按照色泽划分 = D 青绿 ∪ D 乌黑 ∪ D 浅白 D_{按照色泽划分} = D_{青绿} \cup D_{乌黑} \cup D_{浅白} D按照色泽划分=D青绿D乌黑D浅白
  • 故a在D上的信息增益为:
    G a i n ( D , 色泽 ) = E n t ( D ) − ( ∣ D 青绿 ∣ ∣ D ∣ E n t ( D 青绿 ) + ∣ D 青绿 ∣ ∣ D ∣ E n t ( D 乌黑 ) ∣ D 浅白 ∣ ∣ D ∣ E n t ( D 浅白 ) ) Gain(D,{色泽}) = Ent(D) - (\frac{|D_{青绿}|}{|D|}Ent(D_{青绿}) +\frac{|D_{青绿}|}{|D|}Ent(D_{乌黑}) \frac{|D_{浅白}|}{|D|}Ent(D_{浅白}) ) Gain(D,色泽)=Ent(D)(DD青绿Ent(D青绿)+DD青绿Ent(D乌黑)DD浅白Ent(D浅白))
  • 可以看出,属性(色泽)对样本集D进行划分所能获得的纯度提升程度即为:Gain(D,色泽). 如每次都选择提升程度最大的一个,则决策树的分支越少.

增益率:排除子集数量对信息增益的影响

  1. 上文中求信息增益中,我们是忽略掉编号这一列的,因为按照编号属性进行计算信息增益,会划分17个子集,每个子集的信息熵Ent均为0,则信息增益Gain就是D的信息熵Ent
    G a i n ( D , 编号 ) = E n t ( D ) − ( 0 + 0 + . . . . + 0 ) = E n t ( D ) = 0.998 Gain(D,{编号}) = Ent(D) - (0 + 0 + .... +0) = Ent(D) = 0.998 Gain(D,编号)=Ent(D)(0+0+....+0)=Ent(D)=0.998
  2. 显然,这个信息增益非常高,单却是没有意义的,按照编号建立决策树,将会建立一个一层17分支的决策树.
  3. 故,我们需要找到一个方法,解决信息增益对数数目校多的属性偏好这一个问题
  4. 如使用Gain直接除V的数量(V是D按照属性a分组的所有子集,即D的子集数量),好像可以处理掉数目较多属性偏好的这个问题
    G a i n ( D , 编号 ) V = 0.998 17 = 0.058 \frac {Gain(D,{编号})}{V} = \frac{0.998}{17} = 0.058 VGain(D,编号)=170.998=0.058
  5. 但是更适合的方法是除以IV(a),称为属性a的’固有值’(Intrinsic Value,IV),也称’ 分离信息 ’ (Split information):算法如下:
    I V ( D , a ) = S p l i t I n f o r m a t i o n ( D , a ) = − ∑ v = 1 V ∣ D v ∣ ∣ D ∣ l o g 2 ∣ D v ∣ ∣ D ∣ IV(D,a) =SplitInformation(D,a) = -\sum\limits _{v=1}^{V}\frac {|D^v|}{|D|}log_2\frac{|D^v|}{|D|} IV(D,a)=SplitInformation(D,a)=v=1VDDvlog2DDv
  6. 故增益率定义为
    G a i n _ r a t i o ( D , a ) = G a i n ( D , a ) I V ( D , a ) Gain\_ratio(D,a) = \frac{Gain(D,a)}{IV(D,a)} Gain_ratio(D,a)=IV(D,a)Gain(D,a)
  7. 但是会带来一个新的问题,这个增益率会对数目较少的属性,有更强的偏好.(正好与信息增益的偏好相反)
    8.故C4.5决策树算法,不是直接取增益率最高的属性,而是使用了一个启发式: 从候选划分属性中选出信息增益大于平均水平的属性,再选增益率最高的.

如有错误,敬请指正!

代码部分请参考:决策树代码实例(全部代码,包含绘图,ID.3算法,西瓜书示例)

http://www.yidumall.com/news/9877.html

相关文章:

  • 建设项目环境影响网站河南百度推广公司
  • 网站公安备案查询免费个人自助建站
  • 做简易动画的网站全网
  • 定制公交app下载聊城网站seo
  • 做企业英语网站要注意哪些新闻头条今天最新消息
  • 商务网站开发与建设论文怎么做电商新手入门
  • 做实体上什么网站找项目上海网络关键词优化
  • 做微商进哪个网站安全网络推广专员是做什么的
  • 陕西咸阳做网站的公司郑州seo教程
  • 淘宝店铺可以做网站优化么百度爱采购优化排名软件
  • 哪个全球购网站做的好处如何网络推广新产品
  • 网站备案查询官网入口查询天津的网络优化公司排名
  • 网站建设需求调研表今日最新足球推荐
  • 网站模板psd素材可视化网页制作工具
  • 咖啡网站建设今天最火的新闻头条
  • 注册大创网搜索引擎推广和优化方案
  • 武汉网站开发公司排名seo是什么级别
  • 网站程序是如何开发的网络公司
  • 网站全屏轮播怎么做免费企业建站
  • 网站建设如何开单友情链接交换工具
  • wordpress模板怎么调用css样式win7系统优化软件
  • phpstudy做网站推广文案
  • 哪个做简历的网站可以中英的百度开放平台
  • 做网站如何防止被抄袭市场调研的重要性
  • 成功网站运营案例怎么制作属于自己的网址
  • 政府门户网站群建设模式网络推广赚钱项目
  • 淘宝网站做推广收费吗百度统计收费吗
  • 深圳市建设厅网站网络推广营销公司
  • 深圳 网站建设公司百度人工客服电话怎么转人工
  • iis创建网站seo sem是什么