当前位置: 首页 > news >正文

【算法】演员~评论家方法

一、引言

        演员-评论家算法(Actors-Critics Method)是一种用于并发编程中的同步机制,用于解决多线程环境下的资源竞争问题。与传统的锁和信号量等同步工具不同,演员-评论家方法采用更加灵活的协作策略。算法结合了策略梯度(Policy Gradient)和价值函数(Value Function)估计的强化学习方法。它包含两个主要组件:演员(Actor)和评论家(Critic)。演员负责根据当前策略选择动作,而评论家评估这些动作的好坏,并提供反馈来改进演员的策略。通过这种方式,演员-评论家算法能够在连续动作空间和复杂任务中表现出色。

二、算法原理

演员-评论家算法的核心思想是将参与者分为两类角色:

  • 演员(Actors):执行实际工作的线程,它们对共享资源进行操作。
  • 评论家(Critics):监控并评估演员行为的线程,它们不直接操作资源,但可以提供反馈以指导演员的行为。

算法的基本流程如下:

  • 演员尝试对共享资源进行操作。
  • 评论家评估操作的影响,并给出建议或直接干预。
  • 根据评论家的建议,演员决定是否继续操作或修改行为。

三、数据结构

演员-评论家算法中涉及的数据结构包括:

  • 共享资源:需要被多个线程访问和修改的数据。
  • 评论家反馈:评论家对演员操作的评估结果。
  • 状态表示:用于描述环境当前的状态。
  • 动作空间:定义了演员可以选择的所有可能动作。
  • 策略网络(演员):参数化为θ,输出给定状态下的动作概率分布。
  • 价值网络Q网络(评论家):参数化为w,评估当前状态或状态-动作对的价值。

四、算法使用场景

演员-评论家算法适用于:

  • 分布式系统:在分布式系统中协调不同节点的行为。
  • 实时系统:需要快速响应和动态调整策略的场景。
  • 多线程优化:在多线程环境中减少锁的使用,提高性能。

  • 机器人控制:优化机器人的动作策略。

  • 自动驾驶:学习驾驶策略和决策过程。

  • 游戏AI:训练游戏中的智能代理。
  • 资源管理:优化资源分配策略。
  • 连续动作空间:当动作空间是连续的,演员-评论家方法表现优越。
  • 高维状态空间:在复杂环境中,如机器人控制和游戏AI。
  • 需要高效学习的场景:在需要快速适应环境变化的任务中。

五、算法实现

使用Python实现的简单演员-评论家算法示例:

import numpy as np
import gym
import tensorflow as tfclass ActorCritic:def __init__(self, state_size, action_size):self.state_size = state_sizeself.action_size = action_sizeself.actor = self.build_actor()self.critic = self.build_critic()def build_actor(self):model = tf.keras.Sequential([tf.keras.layers.Dense(24, activation='relu', input_shape=(self.state_size,)),tf.keras.layers.Dense(self.action_size, activation='softmax')])model.compile(optimizer='adam', loss='categorical_crossentropy')return modeldef build_critic(self):model = tf.keras.Sequential([tf.keras.layers.Dense(24, activation='relu', input_shape=(self.state_size,)),tf.keras.layers.Dense(1, activation='linear')])model.compile(optimizer='adam', loss='mean_squared_error')return modeldef choose_action(self, state):state = state.reshape([1, self.state_size])probabilities = self.actor.predict(state).flatten()return np.random.choice(self.action_size, p=probabilities)def train(self, state, action, reward, next_state):state = state.reshape([1, self.state_size])next_state = next_state.reshape([1, self.state_size])target = reward + 0.99 * self.critic.predict(next_state)td_error = target - self.critic.predict(state)# Update actoraction_onehot = np.zeros(self.action_size)action_onehot[action] = 1self.actor.fit(state, action_onehot.reshape([1, self.action_size]), verbose=0)# Update criticself.critic.fit(state, target, verbose=0)# 使用示例
if __name__ == "__main__":env = gym.make('CartPole-v1')state_size = env.observation_space.shape[0]action_size = env.action_space.nagent = ActorCritic(state_size, action_size)for episode in range(1000):state = env.reset()done = Falsewhile not done:action = agent.choose_action(state)next_state, reward, done, _ = env.step(action)agent.train(state, action, reward, next_state)state = next_state

六、其他同类算法对比

与演员-评论家算法相比,其他并发控制算法包括:

  • 锁(Locks):通过互斥锁来保证同一时间只有一个线程访问资源。
  • 信号量(Semaphores):使用计数信号量来控制对资源的访问。
  • 监视器(Monitors):一种同步机制,允许线程在进入临界区前等待。
算法特点优势劣势
Q-Learning基于值的学习,使用 Q 表简单易懂,适用于离散动作空间不适用于高维状态空间,收敛速度慢
SARSA在线学习,使用当前策略更新 Q 值适应性强,能够处理非最优策略收敛速度慢,容易陷入局部最优
DQN使用深度学习进行 Q 值估计处理高维状态空间,具有较好的泛化能力训练不稳定,需要经验回放和目标网络
A3C异步并行学习,使用多个代理训练效率高,能够处理复杂环境实现复杂,需调试多个代理的同步
PPO采用剪切损失函数,保证策略更新稳定简单易实现,具有良好的性能训练速度可能较慢,超参数调节较为复杂

七、多语言代码实现

Java

import java.util.Random;public class ActorCritic {private double[] policy;  // Actor's policyprivate double[] valueFunction;  // Critic's value functionprivate double alpha = 0.01;  // Learning rate for policyprivate double beta = 0.01;  // Learning rate for value functionprivate Random random = new Random();public ActorCritic(int numActions) {policy = new double[numActions];valueFunction = new double[numActions];// Initialize policy and value functionfor (int i = 0; i < numActions; i++) {policy[i] = 1.0 / numActions;valueFunction[i] = 0.0;}}public int selectAction() {double p = random.nextDouble();double cumulativeProbability = 0.0;for (int i = 0; i < policy.length; i++) {cumulativeProbability += policy[i];if (p < cumulativeProbability) {return i;}}return policy.length - 1;}public void update(int action, double reward, double nextValue) {double tdError = reward + nextValue - valueFunction[action];valueFunction[action] += beta * tdError;policy[action] += alpha * tdError * (1 - policy[action]);// Normalize policydouble sum = 0.0;for (double p : policy) sum += p;for (int i = 0; i < policy.length; i++) policy[i] /= sum;}public static void main(String[] args) {// Example usageActorCritic ac = new ActorCritic(4);int action = ac.selectAction();ac.update(action, 1.0, 0.5);System.out.println("Selected action: " + action);}
}

Python

import numpy as npclass ActorCritic:def __init__(self, num_actions, alpha=0.01, beta=0.01):self.policy = np.ones(num_actions) / num_actionsself.value_function = np.zeros(num_actions)self.alpha = alphaself.beta = betadef select_action(self):return np.random.choice(len(self.policy), p=self.policy)def update(self, action, reward, next_value):td_error = reward + next_value - self.value_function[action]self.value_function[action] += self.beta * td_errorself.policy[action] += self.alpha * td_error * (1 - self.policy[action])self.policy /= np.sum(self.policy)# Example usage
ac = ActorCritic(4)
action = ac.select_action()
ac.update(action, 1.0, 0.5)
print(f"Selected action: {action}")

C++

#include <iostream>
#include <vector>
#include <cstdlib>
#include <ctime>class ActorCritic {
public:ActorCritic(int numActions, double alpha = 0.01, double beta = 0.01): alpha(alpha), beta(beta), policy(numActions, 1.0 / numActions), valueFunction(numActions, 0.0) {std::srand(std::time(0));}int selectAction() {double p = static_cast<double>(std::rand()) / RAND_MAX;double cumulativeProbability = 0.0;for (size_t i = 0; i < policy.size(); ++i) {cumulativeProbability += policy[i];if (p < cumulativeProbability) {return i;}}return policy.size() - 1;}void update(int action, double reward, double nextValue) {double tdError = reward + nextValue - valueFunction[action];valueFunction[action] += beta * tdError;policy[action] += alpha * tdError * (1 - policy[action]);double sum = 0.0;for (double p : policy) sum += p;for (double &p : policy) p /= sum;}private:double alpha;double beta;std::vector<double> policy;std::vector<double> valueFunction;
};int main() {ActorCritic ac(4);int action = ac.selectAction();ac.update(action, 1.0, 0.5);std::cout << "Selected action: " << action << std::endl;return 0;
}

Go

package mainimport ("fmt""math/rand""time"
)type ActorCritic struct {policy         []float64valueFunction  []float64alpha, beta    float64
}func NewActorCritic(numActions int, alpha, beta float64) *ActorCritic {policy := make([]float64, numActions)valueFunction := make([]float64, numActions)for i := range policy {policy[i] = 1.0 / float64(numActions)}return &ActorCritic{policy, valueFunction, alpha, beta}
}func (ac *ActorCritic) SelectAction() int {p := rand.Float64()cumulativeProbability := 0.0for i, prob := range ac.policy {cumulativeProbability += probif p < cumulativeProbability {return i}}return len(ac.policy) - 1
}func (ac *ActorCritic) Update(action int, reward, nextValue float64) {tdError := reward + nextValue - ac.valueFunction[action]ac.valueFunction[action] += ac.beta * tdErrorac.policy[action] += ac.alpha * tdError * (1 - ac.policy[action])sum := 0.0for _, p := range ac.policy {sum += p}for i := range ac.policy {ac.policy[i] /= sum}
}func main() {rand.Seed(time.Now().UnixNano())ac := NewActorCritic(4, 0.01, 0.01)action := ac.SelectAction()ac.Update(action, 1.0, 0.5)fmt.Printf("Selected action: %d\n", action)
}

八、实际服务应用场景代码框架

应用场景

        开发一个智能机器人控制系统,使用演员-评论家方法来训练机器人在特定环境中移动。我们将使用 OpenAI Gym 作为环境,使用 Python 实现整个系统。

项目结构

robot_controller/
├── main.py
├── actor_critic.py
├── environment.py
└── requirements.txt

requirements.txt

gym
tensorflow
numpy

actor_critic.py

import numpy as np
import tensorflow as tfclass ActorCritic:def __init__(self, state_size, action_size):self.state_size = state_sizeself.action_size = action_sizeself.actor = self.build_actor()self.critic = self.build_critic()def build_actor(self):model = tf.keras.Sequential([tf.keras.layers.Dense(24, activation='relu', input_shape=(self.state_size,)),tf.keras.layers.Dense(self.action_size, activation='softmax')])model.compile(optimizer='adam', loss='categorical_crossentropy')return modeldef build_critic(self):model = tf.keras.Sequential([tf.keras.layers.Dense(24, activation='relu', input_shape=(self.state_size,)),tf.keras.layers.Dense(1, activation='linear')])model.compile(optimizer='adam', loss='mean_squared_error')return modeldef choose_action(self, state):state = state.reshape([1, self.state_size])probabilities = self.actor.predict(state).flatten()return np.random.choice(self.action_size, p=probabilities)def train(self, state, action, reward, next_state):state = state.reshape([1, self.state_size])next_state = next_state.reshape([1, self.state_size])target = reward + 0.99 * self.critic.predict(next_state)td_error = target - self.critic.predict(state)# Update actoraction_onehot = np.zeros(self.action_size)action_onehot[action] = 1self.actor.fit(state, action_onehot.reshape([1, self.action_size]), verbose=0)# Update criticself.critic.fit(state, target, verbose=0)

environment.py

import gymclass RobotEnvironment:def __init__(self):self.env = gym.make('CartPole-v1')def reset(self):return self.env.reset()def step(self, action):return self.env.step(action)def render(self):self.env.render()def close(self):self.env.close()

main.py

import numpy as np
from actor_critic import ActorCritic
from environment import RobotEnvironmentif __name__ == "__main__":env = RobotEnvironment()state_size = env.env.observation_space.shape[0]action_size = env.env.action_space.nagent = ActorCritic(state_size, action_size)for episode in range(1000):state = env.reset()done = Falsewhile not done:action = agent.choose_action(state)next_state, reward, done, _ = env.step(action)agent.train(state, action, reward, next_state)state = next_stateenv.render()env.close()

        演员-评论家方法是一种强大的强化学习算法,结合了策略和价值函数的优点,适用于多种复杂的环境。

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • 集成电路学习:什么是DAC数模转换器
  • 巧用 HTML 列表:<ul>、<ol>、<dl>的实用指南
  • 使用Python写贪吃蛇游戏
  • 计算机网络概述(分组延时、丢失和吞吐量)
  • python-矩阵交换行
  • 基于detectron2框架的深度学习模型载入自定义数据集
  • Flink1.14.* 各种算子在StreamTask控制下如何调用的源码
  • FPGA第 5 篇,FPGA技术优略势,FPGA学习方向,FPGA学习路线(FPGA专业知识的学习方向,FPGA现场可编程门阵列学习路线和方向)
  • 深入浅出:关系数据库中的基础概念与形式化定义
  • 提交保存,要做重复请求拦截,避免出现重复保存的问题
  • vue3图片找不到用一个其他图片代替
  • 跳跃游戏 II
  • Sinc Function介绍
  • C++:引用
  • 【Python报错已解决】`TypeError: an integer is required (got type bytes)`
  • 2017-09-12 前端日报
  • Android 初级面试者拾遗(前台界面篇)之 Activity 和 Fragment
  • axios 和 cookie 的那些事
  • EOS是什么
  • JS基础之数据类型、对象、原型、原型链、继承
  • Median of Two Sorted Arrays
  • pdf文件如何在线转换为jpg图片
  • Phpstorm怎样批量删除空行?
  • session共享问题解决方案
  • 安装python包到指定虚拟环境
  • 多线程 start 和 run 方法到底有什么区别?
  • 计算机在识别图像时“看到”了什么?
  • 码农张的Bug人生 - 初来乍到
  • 全栈开发——Linux
  • 如何在GitHub上创建个人博客
  • 使用 Xcode 的 Target 区分开发和生产环境
  • 使用docker-compose进行多节点部署
  • 试着探索高并发下的系统架构面貌
  • nb
  • Oracle Portal 11g Diagnostics using Remote Diagnostic Agent (RDA) [ID 1059805.
  • Spark2.4.0源码分析之WorldCount 默认shuffling并行度为200(九) ...
  • 小白应该如何快速入门阿里云服务器,新手使用ECS的方法 ...
  • ​LeetCode解法汇总307. 区域和检索 - 数组可修改
  • ​ubuntu下安装kvm虚拟机
  • # SpringBoot 如何让指定的Bean先加载
  • #14vue3生成表单并跳转到外部地址的方式
  • #如何使用 Qt 5.6 在 Android 上启用 NFC
  • (13)Latex:基于ΤΕΧ的自动排版系统——写论文必备
  • (aiohttp-asyncio-FFmpeg-Docker-SRS)实现异步摄像头转码服务器
  • (Bean工厂的后处理器入门)学习Spring的第七天
  • (BFS)hdoj2377-Bus Pass
  • (day6) 319. 灯泡开关
  • (Matalb分类预测)GA-BP遗传算法优化BP神经网络的多维分类预测
  • (PySpark)RDD实验实战——取最大数出现的次数
  • (Redis使用系列) Springboot 使用redis实现接口Api限流 十
  • (vue)页面文件上传获取:action地址
  • (windows2012共享文件夹和防火墙设置
  • (WSI分类)WSI分类文献小综述 2024
  • (附源码)springboot码头作业管理系统 毕业设计 341654
  • (六)软件测试分工