当前位置: 首页 > news >正文

pytorch(6)Tensor统计

# 一、Tensor统计

  • norm   范数   mormalize是正则化
a=torch.full([8],1)
b=a.view(2,4)
c=a.view(2,2,2)

b
Out[6]: 
tensor([[1., 1., 1., 1.],
        [1., 1., 1., 1.]])
c
Out[7]: 
tensor([[[1., 1.],
         [1., 1.]],
        [[1., 1.],
         [1., 1.]]])

a.norm(1),b.norm(1),c.norm(1)#1范数,绝对值求和
Out[8]: (tensor(8.), tensor(8.), tensor(8.))

a.norm(2),b.norm(2),c.norm(2)#2范数,平方和开根号
Out[10]: (tensor(2.8284), tensor(2.8284), tensor(2.8284))

b.norm(1,dim=1)#给定维度
Out[11]: tensor([4., 4.])

c.norm(1,dim=1)
Out[12]: 
tensor([[2., 2.],
        [2., 2.]])

c.norm(1,dim=2)
Out[13]: 
tensor([[2., 2.],
        [2., 2.]])

给定维度的范数计算:例如b,尺寸[2,4],dim=1维度上元素做1范数,[1+1+1+1,1+1+1+1]→[4,4]

  • mean sum
  • prod   累乘
  • max min argmin argmax 最大值位置 首先把tensor打平,再给索引   如果不想打平,就必须给定在某个维度求最值
a=torch.rand(4,8)

a
Out[15]: 
tensor([[0.1623, 0.6655, 0.1087, 0.1964, 0.0107, 0.0726, 0.6888, 0.2992],
        [0.4385, 0.5422, 0.6995, 0.5982, 0.8123, 0.0262, 0.1726, 0.2951],
        [0.8082, 0.7044, 0.3842, 0.4944, 0.3141, 0.6634, 0.2168, 0.1553],
        [0.2807, 0.8313, 0.8486, 0.2009, 0.3630, 0.3601, 0.7365, 0.2035]])

a.argmax()
Out[17]: tensor(26)

a.argmax(dim=1)
Out[18]: tensor([6, 4, 0, 2])

  • dim    keepdim  得到的tensor  dim和原来的一样
a.max(dim=1)
Out[19]: (tensor([0.6888, 0.8123, 0.8082, 0.8486]), tensor([6, 4, 0, 2]))

a.max(dim=1,keepdim=True)
Out[20]: 
(tensor([[0.6888],
         [0.8123],
         [0.8082],
         [0.8486]]), tensor([[6],
         [4],
         [0],
         [2]]))
  • kthvalue  topk
a.topk(3,dim=1)  #top 3
Out[21]: 
(tensor([[0.6888, 0.6655, 0.2992],
         [0.8123, 0.6995, 0.5982],
         [0.8082, 0.7044, 0.6634],
         [0.8486, 0.8313, 0.7365]]), tensor([[6, 1, 7],
         [4, 2, 3],
         [0, 1, 5],
         [2, 1, 6]]))

a.topk(3,dim=1,largest=False)
Out[23]: 
(tensor([[0.0107, 0.0726, 0.1087],
         [0.0262, 0.1726, 0.2951],
         [0.1553, 0.2168, 0.3141],
         [0.2009, 0.2035, 0.2807]]), tensor([[4, 5, 2],
         [5, 6, 7],
         [7, 6, 4],
         [3, 7, 0]]))

a.kthvalue(8,dim=1)#第8小  只能设置为小,默认为小
Out[24]: (tensor([0.6888, 0.8123, 0.8082, 0.8486]), tensor([6, 4, 0, 2]))
  • compare:  > >= < <= != ==  torch.eq(a,b)   返回一个tensor,元素为0或1,
  • torch.eq(a,b)返回True 或 False

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • 千万不要死于无知——前言
  • pytorch(7)Where和Gather
  • 千万不要死于无知——平衡饮食
  • pytorch(8)函数的梯度
  • MOOC python数据分析(1)Numpy
  • MOOC python数据分析(2)数据存取/随机数函数
  • 千万不要死于无知——有氧运动
  • 【GAN】生成对抗网络
  • 千万不要死于无知——心理状态
  • MOOC python数据分析(3)PIL库/图像处理
  • 江南水乡
  • 解决【This Python interpreter is in a conda environment, but the environment has not been activated.】
  • Oracle诊断案例-Job任务停止执行
  • MOOC python数据分析(4)Matplotlib库
  • Eclipse快速上手指南 (2)
  • [deviceone开发]-do_Webview的基本示例
  • 【mysql】环境安装、服务启动、密码设置
  • 【个人向】《HTTP图解》阅后小结
  • android高仿小视频、应用锁、3种存储库、QQ小红点动画、仿支付宝图表等源码...
  • Apache的基本使用
  • ECS应用管理最佳实践
  • Fabric架构演变之路
  • java正则表式的使用
  • NLPIR语义挖掘平台推动行业大数据应用服务
  • React组件设计模式(一)
  • vue数据传递--我有特殊的实现技巧
  • 编写符合Python风格的对象
  • 对话 CTO〡听神策数据 CTO 曹犟描绘数据分析行业的无限可能
  • 理解IaaS, PaaS, SaaS等云模型 (Cloud Models)
  • 理解在java “”i=i++;”所发生的事情
  • 聊聊hikari连接池的leakDetectionThreshold
  • 前嗅ForeSpider教程:创建模板
  • 我感觉这是史上最牛的防sql注入方法类
  • 翻译 | The Principles of OOD 面向对象设计原则
  • 关于Kubernetes Dashboard漏洞CVE-2018-18264的修复公告
  • ​二进制运算符:(与运算)、|(或运算)、~(取反运算)、^(异或运算)、位移运算符​
  • # 再次尝试 连接失败_无线WiFi无法连接到网络怎么办【解决方法】
  • #LLM入门|Prompt#1.8_聊天机器人_Chatbot
  • #QT项目实战(天气预报)
  • $.each()与$(selector).each()
  • (1)bark-ml
  • (3)(3.5) 遥测无线电区域条例
  • (4.10~4.16)
  • (7)摄像机和云台
  • (不用互三)AI绘画:科技赋能艺术的崭新时代
  • (没学懂,待填坑)【动态规划】数位动态规划
  • (免费领源码)python#django#mysql公交线路查询系统85021- 计算机毕业设计项目选题推荐
  • (一)C语言之入门:使用Visual Studio Community 2022运行hello world
  • (一)Docker基本介绍
  • (转)fock函数详解
  • ***监测系统的构建(chkrootkit )
  • ***详解账号泄露:全球约1亿用户已泄露
  • .apk 成为历史!
  • .bashrc在哪里,alias妙用
  • .Net Core 中间件验签