PyTorch如何实现对应点相乘、矩阵相乘-创新互联

这篇文章主要为大家展示了“PyTorch如何实现对应点相乘、矩阵相乘”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“PyTorch如何实现对应点相乘、矩阵相乘”这篇文章吧。

成都创新互联是一家专注于成都网站建设、成都网站制作与策划设计,界首网站建设哪家好?成都创新互联做网站,专注于网站建设10余年,网设计领域的专业建站公司;建站业务涵盖:界首等地区。界首做网站价格咨询:13518219792

一,对应点相乘,x.mul(y) ,即点乘操作,点乘不求和操作,又可以叫作Hadamard product;点乘再求和,即为卷积

data = [[1,2], [3,4], [5, 6]]
tensor = torch.FloatTensor(data)
 
tensor
Out[27]: 
tensor([[ 1., 2.],
    [ 3., 4.],
    [ 5., 6.]])
 
tensor.mul(tensor)
Out[28]: 
tensor([[ 1.,  4.],
    [ 9., 16.],
    [ 25., 36.]])

二,矩阵相乘,x.mm(y) , 矩阵大小需满足: (i, n)x(n, j)

tensor
Out[31]: 
tensor([[ 1., 2.],
    [ 3., 4.],
    [ 5., 6.]])
 
tensor.mm(tensor.t()) # t()是转置
Out[30]: 
tensor([[ 5., 11., 17.],
    [ 11., 25., 39.],
    [ 17., 39., 61.]])

以上是“PyTorch如何实现对应点相乘、矩阵相乘”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!


本文名称:PyTorch如何实现对应点相乘、矩阵相乘-创新互联
文章来源:http://scyanting.com/article/jjjce.html