当前位置: 首页 > news >正文

深度学习的笔记

1. 从huggingface上仅下载pytorch模型权重和配置文件到服务器

import os
import shutil
from huggingface_hub import snapshot_download# 直接指定模型和下载路径
model_name = 'openai/clip-vit-base-patch32'
download_path = '/home/xxx/.cache/huggingface/hub/models--anas-awadalla--mpt-7b'# 确保下载路径存在
os.makedirs(download_path, exist_ok=True)
print('*'*10, f'Start downloading {model_name}', '*'*10)# 下载模型
snapshot_download(repo_id=model_name,cache_dir=download_path,local_dir=download_path,local_dir_use_symlinks=False,ignore_patterns=["*.h5","*safetensors","*msgpack"],force_download=True,resume_download=False,etag_timeout=60)print('*'*10, 'Download finish', '*'*10)# 清理下载的模型目录
for item in os.listdir(download_path):if os.path.isdir(os.path.join(download_path, item)) and item.startswith('models'):shutil.rmtree(os.path.join(download_path, item))

2. 从huggingface的镜像站上下载数据集:

import os
from datasets import load_datasetos.environ["HF_DATASETS_BASE_URL"] = "https://hf-mirror.com/"# 数据集名称
dataset_name = 'lukaemon/mmlu'
download_path = '/data/share/xxx/'# 子集列表
subsets = ['subset1', 'subset2', 'subset3']  # 替换为实际的子集名称# 确保下载路径存在
os.makedirs(download_path, exist_ok=True)
print('*' * 10, f'Start downloading subsets of {dataset_name}', '*' * 10)# 下载数据集的每个子集
for subset in subsets:print(f'Downloading subset: {subset}')dataset = load_dataset(dataset_name, subset, cache_dir=download_path,trust_remote_code=True)["test"]print(f'Finished downloading subset: {subset}')print('*' * 10, 'Download finish', '*' * 10)

3. 关于对数概率(logits)和softmax函数:

对数概率(Logits):指的是在应用 softmax 函数之前的层的输出。它们是模型输出的原始未归一化的分数,可以理解为模型对每个类别的信心度量。这些分数可以是任意实数值,不限于0到1之间。

Softmax 函数是一种将对数概率(或任意实数值向量)转换成概率分布的方法。具体来说,它会对每个输出应用指数函数,然后对这些指数值进行归一化,使它们的和为1,从而转换为概率分布。

总结一下,对数概率(logits)是 softmax 函数的输入,而 softmax 函数的输出是一个概率分布,即模型对各个类别的预测概率。这两者经常一起使用,尤其是在处理分类问题时。

4. 你可以通过指定–name或-n参数来创建并命名一个新的Conda环境:

conda env create -f environment.yml #改成如下:conda env create -f environment.yml -n openflamingov1

5. epoch , batch ,step的关系

step = batch number * epoch number,解释如下:
step表示参数更新的次数假设有1000个数据,我想遍历10个epoch,我假设 batch_size = 10,也就是一次处理10张图片,
那么1个epoch 会有 1000/10 = 100个batch,也就是batch number = 100运行完一个batch_size的数据之后才会 计算loss ,进行反向传播,更新参数,step+1,那么1个epoch之后,更新100次,step=100
10个epoch,则表示有100 * 10 = 1000 个step来更新参数

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • C++(C++的文件I/O)
  • OpenHarmony(鸿蒙南向开发)——标准系统方案之瑞芯微RK3566移植案例(下)
  • 苹果macOS 15.0 Sequoia正式版发布:iPhone应用镜像玩、手机消息电脑知
  • 二叉树的前中后序遍历(迭代法)( 含leetcode上三道【前中后序】遍历题目)
  • WPF自定义Dialog模板,内容用不同的Page填充
  • OJ题-合并K个已排序的链表
  • libmodbus:写一个modbusTCP服务
  • 【AI学习】AI绘画发展简史
  • Unreal像素流ubantu os部署细节
  • 使用Maven创建一个Java项目并在repository中使用
  • qwen2 VL 多模态图文模型;图像、视频使用案例
  • ElK 8 收集 Nginx 日志
  • windows server2012 配制nginx安装为服务的时候,直接跳要安装.net框架,用自动的安装,直接失败的解决。
  • 从入门到精通,带你探索适合新手的视频剪辑工具
  • STM32快速复习(十二)FLASH闪存的读写
  • JS 中的深拷贝与浅拷贝
  • Angular 响应式表单之下拉框
  • classpath对获取配置文件的影响
  • Hibernate最全面试题
  • Java比较器对数组,集合排序
  • Lucene解析 - 基本概念
  • NSTimer学习笔记
  • redis学习笔记(三):列表、集合、有序集合
  • Spring Boot MyBatis配置多种数据库
  • 给第三方使用接口的 URL 签名实现
  • 腾讯优测优分享 | Android碎片化问题小结——关于闪光灯的那些事儿
  • 吴恩达Deep Learning课程练习题参考答案——R语言版
  • 小程序button引导用户授权
  • Nginx实现动静分离
  • 积累各种好的链接
  • #LLM入门|Prompt#2.3_对查询任务进行分类|意图分析_Classification
  • #pragma 指令
  • #在线报价接单​再坚持一下 明天是真的周六.出现货 实单来谈
  • (2)nginx 安装、启停
  • (k8s中)docker netty OOM问题记录
  • (Python第六天)文件处理
  • (动手学习深度学习)第13章 计算机视觉---微调
  • (含笔试题)深度解析数据在内存中的存储
  • (十三)MipMap
  • (已解决)什么是vue导航守卫
  • (转)IOS中获取各种文件的目录路径的方法
  • (转贴)用VML开发工作流设计器 UCML.NET工作流管理系统
  • (最简单,详细,直接上手)uniapp/vue中英文多语言切换
  • .bashrc在哪里,alias妙用
  • .bat批处理(八):各种形式的变量%0、%i、%%i、var、%var%、!var!的含义和区别
  • .chm格式文件如何阅读
  • .net 7 上传文件踩坑
  • .net core + vue 搭建前后端分离的框架
  • .net core 6 集成和使用 mongodb
  • .net wcf memory gates checking failed
  • .NetCore实践篇:分布式监控Zipkin持久化之殇
  • .ui文件相关
  • /var/log/cvslog 太大
  • @EnableAsync和@Async开始异步任务支持
  • @Import注解详解