当前位置: 首页 > news >正文

【人工智能】-- 受限玻尔兹曼机

2a20c54b85e042bfa2440367ae4807e9.gif

https://blog.csdn.net/2302_76516899?spm=1000.2115.3001.5343

个人主页:欢迎来到 Papicatch的博客

 课设专栏 :学生成绩管理系统

专业知识专栏: 专业知识 

文章目录

🍉引言

🍉受限玻尔兹曼机

🍈RBM的结构

🍍RBM的架构图

🍍RBM的经典实现

🍍代码实现

🍍代码分析

🍉总结


2a20c54b85e042bfa2440367ae4807e9.gif

🍉引言

        在当今科技飞速发展的时代,人工智能的研究不断取得突破性的进展。其中,受限玻尔兹曼机作为一种重要的模型,正逐渐引起人们的广泛关注。它独特的结构和强大的学习能力,为解决各种复杂的问题提供了新的思路和方法。受限玻尔兹曼机不仅在理论研究上具有深刻的意义,在实际应用中也展现出了巨大的潜力,例如图像识别、语音处理、自然语言处理等领域。

🍉受限玻尔兹曼机

        受限玻尔兹曼机(Restricted Boltzmann Machine,RBM)是一种生成性随机人工神经网络,也是一种无向概率图模型,并且受限为二分图。

        整个模型有两层,即可见层(包含可见单元)和隐藏层(包含隐单元),满足层内无连接,层间全连接。这种限制使得它在神经元之间的连接上有特定的规则,来自两组单元中的每一组的一对节点(通常称为“可见”和“隐藏”单元)可以在它们之间具有对称连接,而组内的节点之间没有连接。相比一般的玻尔兹曼机,这种限制允许使用更有效的训练算法。

RBM 通常由二值隐单元和可见单元组成,其中权重矩阵 W=\left (w_{ij} \right ) 中的每个元素指定了隐单元 h_{i} 和可见层单元 v_{j} 之间边的权重。

        此外,对于每个可见层单元 v_{i} 有偏置项 a_{i},对每个隐层单元 h_{j} 有偏置项 b_{j}。具体来说,需满足以下条件

其能量函数对于一组给定的状态 \left ( v,h \right ) 定义为:

由能量函数可以给出状态 \left ( v,h \right ) 的联合概率分布:

其中,Z 是归一化常数,计算式为 Z=\sum_{v,h}e^{-E\left ( v,h \right )},其计算复杂度为 O(2^{p+q})。可见层的边缘分布: P\left ( v \right )=\sum_{h}^{}P\left ( v,h \right ) ;隐藏层的边缘分布: P\left ( h \right )=\sum_{v}^{}P\left ( v,h \right )

        RBM 的一个重要性质是,由于它是一个二分图,层内没有边相连,因而隐藏层的激活状态在给定可见层节点取值的情况下是条件独立的,类似地,可见层节点的激活状态在给定隐藏层节点取值的情况下也条件独立,用数学公式表示为:

由此可以推导得出在给定可视层 v 的基础上,隐层第 j 个节点为 1 或者为 0 的概率为:

在给定隐层 h 的基础上,可视层第 i 个节点为 1 或者为 0 的概率为:

        在训练 RBM 时,关键是计算模型中的参数 \theta =\left ( W,a,b \right ) 。通常采用对数损失函数,并考虑最大化对数似然函数。但直接按梯度公式计算梯度的复杂度很高,因为其中涉及到归一化常数 Z 的计算,而 Z 的计算复杂度为 O(2^{p+q}) 。

        为解决这个问题,一般使用基于马尔可夫链蒙特卡罗(MCMC)的方法来模拟计算梯度,如 Geoffrey Hinton 提出的对比散度(contrastive divergence,CD)算法。该算法给定样本 x 后,取初始值 v^{\left ( 0 \right )}:=x ,然后执行 k 步 Gibbs 采样,先后采样得到 h^{(t-1)} 和 v^{(t)} 。Gibbs 采样得到的样本服从联合分布 p(v,h) ,利用采样得到的 v^{(k)} 可以估算梯度公式中期望项的近似值,从而得到梯度的近似值,之后在每一步利用梯度上升法进行参数更新。

        RBM 可用于降维、分类、协同过滤、特征学习、生成模型等任务。根据任务的不同,它可以使用监督学习或无监督学习的方法进行训练。例如在推荐系统中,可以把每个用户对各个物品的评分作为可见层神经元的输入,从而进行训练。

        RBM 在深度学习中有重要应用,它可以通过“堆叠”形成深层信念网络等更复杂的结构。但 RBM 也存在一些局限性,例如在处理大规模数据时可能效率不高,对初始值敏感等。不过,研究人员仍在不断探索和改进 RBM 及其相关算法,以拓展其应用领域和提高性能。

🍈RBM的结构

🍍RBM的架构图

🍍RBM的经典实现

🍍代码实现

import numpy as np
import matplotlib.pyplot as plt
from sklearn import preprocessing
from sklearn.datasets import fetch_openml
from sklearn.model_selection import train_test_split# 加载 MNIST 数据集
mnist = fetch_openml('mnist_784', version=1, cache=True)
X = mnist.data
y = mnist.target# 数据预处理
X = preprocessing.MinMaxScaler().fit_transform(X)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)class RBM:def __init__(self, n_visible, n_hidden, learning_rate=0.1, n_epochs=100):"""初始化 RBM 模型参数:n_visible:可见层神经元数量(输入数据的维度)n_hidden:隐藏层神经元数量learning_rate:学习率n_epochs:训练轮数"""self.n_visible = n_visibleself.n_hidden = n_hiddenself.learning_rate = learning_rateself.n_epochs = n_epochs# 随机初始化权重矩阵 W,偏置向量 bv(可见层)和 bh(隐藏层)self.W = np.random.randn(n_visible, n_hidden) * 0.1self.bv = np.zeros(n_visible)self.bh = np.zeros(n_hidden)def sigmoid(self, x):"""Sigmoid 激活函数参数:x:输入值返回:Sigmoid 函数的输出"""return 1 / (1 + np.exp(-x))def sample_hidden(self, v):"""根据给定的可见层状态 v 采样隐藏层参数:v:可见层状态返回:隐藏层的激活概率 p_hidden 和采样后的隐藏层状态 h"""hidden_activation = np.dot(v, self.W) + self.bhp_hidden = self.sigmoid(hidden_activation)return p_hidden, np.random.binomial(1, p_hidden)def sample_visible(self, h):"""根据给定的隐藏层状态 h 采样可见层参数:h:隐藏层状态返回:可见层的激活概率 p_visible 和采样后的可见层状态 v_prime"""visible_activation = np.dot(h, self.W.T) + self.bvp_visible = self.sigmoid(visible_activation)return p_visible, np.random.binomial(1, p_visible)def train(self, X):"""训练 RBM 模型参数:X:训练数据"""for epoch in range(self.n_epochs):for v in X:# 正向传播:根据输入的可见层状态 v 计算隐藏层的激活概率和采样后的隐藏层状态p_hidden, h = self.sample_hidden(v)# 反向传播:根据采样得到的隐藏层状态 h 计算可见层的激活概率和采样后的可见层状态 v_primep_visible, v_prime = self.sample_visible(h)# 更新参数# 计算权重更新量 dWdW = np.outer(v, p_hidden) - np.outer(v_prime, p_hidden)# 更新权重 Wself.W += self.learning_rate * dW# 更新可见层偏置 bvself.bv += self.learning_rate * (v - v_prime)# 更新隐藏层偏置 bhself.bh += self.learning_rate * (p_hidden - np.mean(p_hidden))def reconstruct(self, X):"""对输入数据进行重建参数:X:输入数据返回:重建后的可见层状态"""h = np.zeros((X.shape[0], self.n_hidden))for i, v in enumerate(X):_, h[i] = self.sample_hidden(v)_, v_prime = self.sample_visible(h)return v_prime# 初始化 RBM 模型,设置可见层神经元数量为 784(MNIST 图像的维度),隐藏层神经元数量为 128
rbm = RBM(n_visible=784, n_hidden=128, learning_rate=0.1, n_epochs=50)# 训练模型
rbm.train(X_train)# 重建测试集图像
reconstructed_images = rbm.reconstruct(X_test)# 展示原始图像和重建图像
n_images = 5
for i in range(n_images):original_image = X_test[i].reshape(28, 28)reconstructed_image = reconstructed_images[i].reshape(28, 28)plt.subplot(2, n_images, i + 1)plt.imshow(original_image, cmap='gray')plt.axis('off')plt.subplot(2, n_images, i + 1 + n_images)plt.imshow(reconstructed_image, cmap='gray')plt.axis('off')plt.show()

🍍代码分析

RBM 类的 __init__ 方法

  • 初始化模型的参数,包括可见层和隐藏层的神经元数量、学习率和训练轮数。
  • 随机初始化权重矩阵 W 、可见层偏置 bv 和隐藏层偏置 bh 。

sigmoid 方法:定义了 Sigmoid 激活函数,用于计算神经元的激活概率。

sample_hidden 方法:

  • 计算给定可见层状态下隐藏层的激活值。
  • 通过激活值计算隐藏层的激活概率。
  • 基于激活概率进行二项分布采样得到隐藏层的状态。

sample_visible 方法:与 sample_hidden 类似,用于根据隐藏层状态采样可见层状态。

train 方法:

  • 在每一轮训练中,遍历训练数据中的每个样本。
  • 进行正向传播,从可见层到隐藏层的采样。
  • 进行反向传播,从隐藏层到可见层的采样。
  • 根据采样结果计算权重和偏置的更新量,并进行更新。

reconstruct 方法:

  • 首先对输入数据采样得到隐藏层状态。
  • 然后根据隐藏层状态采样重建可见层状态。

在主程序中:

  • 加载 MNIST 数据集并进行预处理和划分。
  • 初始化 RBM 模型并进行训练。
  • 对测试集数据进行重建,并展示原始图像和重建图像的对比。

        这段代码主要实现了一个受限玻尔兹曼机(RBM)模型,并将其应用于 MNIST 数据集的图像重建任务。

        首先,代码从开放数据集中加载 MNIST 数据,进行预处理和划分。然后定义了 RBM 类,在类的初始化方法中,设定了模型的关键参数,包括可见层和隐藏层的神经元数量、学习率以及训练轮数,并随机初始化了权重和偏置。

   RBM 类中包含了 sigmoid 激活函数,以及用于正向和反向传播的 sample_hidden 和 sample_visible 方法。训练方法 train 通过不断的正向和反向传播,并基于采样结果更新权重和偏置来优化模型。reconstruct 方法用于对输入数据进行重建。

        在主程序中,初始化并训练 RBM 模型,最后对测试集数据进行重建,并通过图像展示原始图像和重建图像的对比,以直观评估模型的重建效果。

🍉总结

        受限玻尔兹曼机(RBM)是一种具有独特结构和强大学习能力的概率图模型。

        在结构上,RBM 由两层神经元组成,即可见层和隐藏层。层内神经元无连接,层间神经元全连接。这种结构简化了计算,同时也使得模型能够有效地学习数据中的特征和模式。

        在学习过程中,RBM 通过不断调整参数(包括权重、可见层偏置和隐藏层偏置)来优化模型。常见的学习算法如对比散度(CD)算法,通过采样和近似计算梯度来更新参数。

        RBM 具有多种应用,例如在数据降维方面,它能够将高维数据映射到低维的隐藏层表示;在特征学习中,能够自动从原始数据中提取有意义的特征;在生成模型中,可以生成新的数据样本。

        然而,RBM 也存在一些局限性。例如,训练时间可能较长,尤其是在处理大规模数据时;对初始参数的设置较为敏感;模型的解释性相对较复杂等。

        尽管如此,RBM 在深度学习领域仍然具有重要地位,其思想和方法为后续更复杂的深度模型的发展提供了基础和启发。

2a20c54b85e042bfa2440367ae4807e9.gif

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • nginx代理gitee
  • 工控主板:搭载海光3300处理器的全国产化工控主板
  • nginx代理缓存
  • nx上darknet的使用-目标检测-在python中的使用
  • Nextjs 调用组件内的方法
  • Hypertable install of rhel6.0
  • CCRC-DSA数据安全评估师: 数据安全治理不仅是技术革新更是理念变革
  • axios 下载大文件时,展示下载进度的组件封装——js技能提升
  • 算法金 | 来了,pandas 2.0
  • vue2 ant-design select组件自定义下拉框, dropdownRender 使用,以及遇到的坑
  • fastadmin 如何通过权限组来控制列的显示与隐藏
  • 老物件线上3D回忆展拓宽了艺术作品的展示空间和时间-深圳华锐视点
  • Sqlmap中文使用手册 - Request模块参数使用
  • Hutool-Guava
  • 如何安装dotenv,避坑指南,安装包的包名有误?
  • 77. Combinations
  • ERLANG 网工修炼笔记 ---- UDP
  • ES6 ...操作符
  • JS学习笔记——闭包
  • Linux中的硬链接与软链接
  • text-decoration与color属性
  • Tornado学习笔记(1)
  • 规范化安全开发 KOA 手脚架
  • 开年巨制!千人千面回放技术让你“看到”Flutter用户侧问题
  • 使用parted解决大于2T的磁盘分区
  • ‌‌雅诗兰黛、‌‌兰蔻等美妆大品牌的营销策略是什么?
  • # MySQL server 层和存储引擎层是怎么交互数据的?
  • #Java第九次作业--输入输出流和文件操作
  • #数据结构 笔记三
  • (2024)docker-compose实战 (8)部署LAMP项目(最终版)
  • (5)STL算法之复制
  • (javascript)再说document.body.scrollTop的使用问题
  • (第61天)多租户架构(CDB/PDB)
  • (官网安装) 基于CentOS 7安装MangoDB和MangoDB Shell
  • (三分钟了解debug)SLAM研究方向-Debug总结
  • (十二)springboot实战——SSE服务推送事件案例实现
  • (贪心) LeetCode 45. 跳跃游戏 II
  • (学习日记)2024.04.10:UCOSIII第三十八节:事件实验
  • (原)Matlab的svmtrain和svmclassify
  • (原创) cocos2dx使用Curl连接网络(客户端)
  • *1 计算机基础和操作系统基础及几大协议
  • .NET Core 版本不支持的问题
  • .NET LINQ 通常分 Syntax Query 和Syntax Method
  • .NET 材料检测系统崩溃分析
  • .net6+aspose.words导出word并转pdf
  • .NET应用UI框架DevExpress XAF v24.1 - 可用性进一步增强
  • .stream().map与.stream().flatMap的使用
  • // an array of int
  • @Autowired注解的实现原理
  • @JsonFormat 和 @DateTimeFormat 的区别
  • @media screen 针对不同移动设备
  • @Query中countQuery的介绍
  • @Repository 注解
  • [ Algorithm ] N次方算法 N Square 动态规划解决
  • [ 数据结构 - C++]红黑树RBTree