变更日志 / Changelog
版本 v1.2
版本变更
新功能
- 🚀 为 MATD3 添加了训练好的模型,可无需训练直接下载使用
- 🌟 新增 HAPPO-MAPPO_Continous_Heterogeneous 算法,支持异质智能体训练
- ✨ 新增 MAPPO_Continous_Homogeneous 算法,优化同质智能体训练效率
- 📦 将新算法添加到自动化打包发布流程中
修复
- 🐛 无
文档
- 📝 添加了 MATD3 追逃环境效果: gif
- 📖 添加了新算法的使用文档和示例
- 🌐 更新了文档 README.md, README_en.md 以包含新算法介绍
多模块独立发布包
模块介绍
-
MADDPG_Continous
多智能体深度确定性策略梯度算法(连续动作空间版本),适用于连续控制场景的多智能体协同训练。 -
MATD3_Continous
多智能体双延迟深度确定性策略梯度算法,在MADDPG基础上增加了延迟更新和策略平滑机制。 -
HAPPO-MAPPO_Continous_Heterogeneous
异质智能体近端策略优化算法,支持不同类型智能体的混合训练场景。 -
MAPPO_Continous_Homogeneous
同质智能体近端策略优化算法,针对同类型智能体的高效训练优化。 -
RL_Learning-main
赵世钰老师强化学习基础教程合集,包含经典算法实现和示例代码。 -
hands_on_RL
动手学强化学习实践项目,通过Jupyter Notebook提供互动式学习体验。
使用说明
- 点击下方所需模块的ZIP文件下载
- 解压后阅读README.md获取详细使用指南
- 安装依赖:
pip install -r requirements.txt
支持渠道
Independent Modules Release
Available Modules
-
MADDPG_Continous
Multi-Agent Deep Deterministic Policy Gradient (continuous action space version) for cooperative multi-agent control. -
MATD3_Continous
Multi-Agent Twin Delayed DDPG, featuring delayed updates and policy smoothing. -
HAPPO-MAPPO_Continous_Heterogeneous
Heterogeneous Agent Proximal Policy Optimization for mixed-type agent scenarios. -
MAPPO_Continous_Homogeneous
Homogeneous Agent Proximal Policy Optimization for efficient training of same-type agents. -
RL_Learning-main
Fundamental RL tutorials with classic algorithm implementations. -
hands_on_RL
Interactive reinforcement learning projects via Jupyter Notebooks.
Quick Start
- Download the desired module ZIP below
- Check README_en.md for detailed instructions
- Install dependencies:
pip install -r requirements.txt
Support
- English Issues
- License: MIT