当前位置: 首页 > news >正文

中小企业建设网站应注意热搜榜上2023年热搜

中小企业建设网站应注意,热搜榜上2023年热搜,工业设计参考网站,四川汉舟电力建设有限公司网站通过反向传播进行自动求梯度1-requires_grad问题2-梯度3- detach() 和 with torch.no_grad()4- Tensor.data.requires_gradPyTorch提供的autograd包能够根据输入和前向传播过程自动构建计算图,并执行反向传播. 1-requires_grad问题 requires_gradTrue …

通过反向传播进行自动求梯度

        • 1-requires_grad问题
        • 2-梯度
        • 3- detach() 和 with torch.no_grad()
        • 4- Tensor.data.requires_grad

PyTorch提供的autograd包能够根据输入和前向传播过程自动构建计算图,并执行反向传播.

1-requires_grad问题

requires_grad=True
开始追踪(track)在其上的所有操作(这样就可以利用链式法则进行梯度传播了),完成计算后,可以调用.backward()来完成所有梯度计算。默认 requires_grad = False
完成计算后,可以调用**.backward()来完成所有梯度计算。此Tensor的梯度将累积到.grad**属性中。

#x是直接创建的,所以它没有grad_fn, 而
x = torch.ones(2, 2, requires_grad=True)
print(x)#tensor([[1., 1.],[1., 1.]], requires_grad=True)
print(x.grad_fn)#None#y是通过一个加法操作创建的,所以它有一个为的grad_fn。
y = x + 2
print(y)#tensor([[3., 3.],[3., 3.]], grad_fn=<AddBackward>)
print(y.grad_fn)#<AddBackward object at 0x1100477b8>#打印是否有叶子节点
print(x.is_leaf, y.is_leaf) # True False

若开始没有设置requires_grad 属性可通过 .requires_grad_()来用in-place的方式改requires_grad属性

a = torch.randn(2, 2) # 缺失情况下默认 requires_grad = False
a = ((a * 3) / (a - 1))
print(a.requires_grad) # False
a.requires_grad_(True)
print(a.requires_grad) # True
b = (a * a).sum()
print(b.grad_fn)#<SumBackward0 object at 0x118f50cc0>

2-梯度

标量:标量就是一个数字。标量也称为0维数组
向量:向量是一组标量组成的列表。向量也称为1维数组。
矩阵:矩阵是由一组向量组成的集合。矩阵也称为2维数组。
张量:张量是矩阵的推广,可以用来描述N维数据

注意在y.backward()时,如果y是标量,则不需要为backward()传入任何参数;否则,需要传入一个与y同形的Tensor

out.backward() # 等价于 out.backward(torch.tensor(1.)) 反向转播#求导
x = torch.tensor([1.0, 2.0, 3.0, 4.0], requires_grad=True)
y = 2 * x
z = y.view(2, 2)
print(z)#tensor([[2., 4.],[6., 8.]], grad_fn=<ViewBackward>)

现在 z 不是一个标量,所以在调用backward时需要传入一个和z同形的权重向量进行加权求和得到一个标量。

v = torch.tensor([[1.0, 0.1], [0.01, 0.001]], dtype=torch.float)
z.backward(v)
print(x.grad)#tensor([2.0000, 0.2000, 0.0200, 0.0020]) x.grad是和x同形的张量

3- detach() 和 with torch.no_grad()

两种方式中断梯度追踪,无法进行梯度链式法则梯度传播
1-detach()
将其从追踪记录中分离出来,这样就可以防止将来的计算被追踪,这样梯度就传不过去了

2-with torch.no_grad()
将不想被追踪的操作代码块包裹起来,这种方法在评估模型的时候很常用,因为在评估模型时我们并不需要计算可训练参数(requires_grad=True)的梯度。

x = torch.tensor(1.0, requires_grad=True)
y1 = x ** 2 
with torch.no_grad():y2 = x ** 3
y3 = y1 + y2print(x.requires_grad)#true
print(y1, y1.requires_grad) #tensor(1., grad_fn=<PowBackward0>) True
print(y2, y2.requires_grad) # False
print(y3, y3.requires_grad) # tensor(2., grad_fn=<ThAddBackward>)Truey3.backward()#y2被包裹 所以y2有关的梯度是不会回传的 结果只是y1 对x的梯度
print(x.grad)#tensor(2.)#使用y2的传播会报错
#RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn

4- Tensor.data.requires_grad

当你想要修改tensor的数值,但是又不希望被autograd记录(即不会影响反向传播),那么我么可以对tensor.data进行操作。

x = torch.ones(1,requires_grad=True)print(x.data) # tensor([1.]) #还是一个tensor
print(x.data.requires_grad) #False #但是已经是独立于计算图之外y = 2 * x
x.data *= 100 # 只改变了值,不会记录在计算图,所以不会影响梯度传播y.backward()#tensor([100.], requires_grad=True)
print(x) # 更改data的值也会影响tensor的值
print(x.grad)#tensor([2.])
http://www.yidumall.com/news/93930.html

相关文章:

  • 阿里巴巴免费做国际网站沈阳网站推广优化
  • 南京哪家公司做企业网站 做得比较好培训学校招生方案
  • 龙华网站建设首页地址最新seo教程
  • 宁波企业官网建设通州优化公司
  • b2c网站主营商品有哪些创新驱动发展战略
  • 西亚网站建设科技外包网站有哪些
  • 石家庄做网站百度推广百度竞价推广怎么收费
  • 肇庆市住房和城乡建设局网站今天发生的重大新闻5条
  • 哪个网站可以学做衣服免费外链工具
  • 购物平台推荐安卓优化大师下载
  • 网站怎么发布信息个人网页制作成品
  • 北京工程建设公共资源交易平台武汉网站seo推广公司
  • 宁波网站优化方法竞价托管推广公司
  • dreamweaver做动态网站推广seo优化公司
  • 郑州建网站价格搜索引擎seo优化怎么做
  • 昆山建设银行网站首页快速排名优化系统
  • wordpress 网站静态页面福州seo网址优化公司
  • 免费可商用的cmsseo关键词排名优化案例
  • 郑州专业做网站的公司谷歌优化seo
  • 招远 两学一做 网站怎样推广公司的网站
  • 汽车租赁网站开发优化网络搜索引擎
  • 网站排名对比老客外链
  • 盘古网络建站市场营销是做什么的
  • 公司怎么做网页网站论坛企业推广
  • 上传到网站根目录产品市场推广方案范文
  • 大学网站建设专业浏览器打开网站
  • 高端网站建设的介绍百度竞价推广点击软件奔奔
  • 广州建设银行网站长沙seo霸屏
  • 重庆营销网站建设网站软文推广网站
  • 做淘宝客网站一定要备案吗福州seo推广外包