Skip to content

Release v1.2

Latest

Choose a tag to compare

@github-actions github-actions released this 24 Sep 14:15
· 4 commits to master since this release

变更日志 / Changelog

版本 v1.2

版本变更

新功能

  • 🚀 为 MATD3 添加了训练好的模型,可无需训练直接下载使用
  • 🌟 新增 HAPPO-MAPPO_Continous_Heterogeneous 算法,支持异质智能体训练
  • ✨ 新增 MAPPO_Continous_Homogeneous 算法,优化同质智能体训练效率
  • 📦 将新算法添加到自动化打包发布流程中

修复

  • 🐛 无

文档

  • 📝 添加了 MATD3 追逃环境效果: gif
  • 📖 添加了新算法的使用文档和示例
  • 🌐 更新了文档 README.md, README_en.md 以包含新算法介绍

多模块独立发布包

模块介绍

  • MADDPG_Continous
    多智能体深度确定性策略梯度算法(连续动作空间版本),适用于连续控制场景的多智能体协同训练。

  • MATD3_Continous
    多智能体双延迟深度确定性策略梯度算法,在MADDPG基础上增加了延迟更新和策略平滑机制。

  • HAPPO-MAPPO_Continous_Heterogeneous
    异质智能体近端策略优化算法,支持不同类型智能体的混合训练场景。

  • MAPPO_Continous_Homogeneous
    同质智能体近端策略优化算法,针对同类型智能体的高效训练优化。

  • RL_Learning-main
    赵世钰老师强化学习基础教程合集,包含经典算法实现和示例代码。

  • hands_on_RL
    动手学强化学习实践项目,通过Jupyter Notebook提供互动式学习体验。

使用说明

  1. 点击下方所需模块的ZIP文件下载
  2. 解压后阅读README.md获取详细使用指南
  3. 安装依赖:pip install -r requirements.txt

支持渠道


Independent Modules Release

Available Modules

  • MADDPG_Continous
    Multi-Agent Deep Deterministic Policy Gradient (continuous action space version) for cooperative multi-agent control.

  • MATD3_Continous
    Multi-Agent Twin Delayed DDPG, featuring delayed updates and policy smoothing.

  • HAPPO-MAPPO_Continous_Heterogeneous
    Heterogeneous Agent Proximal Policy Optimization for mixed-type agent scenarios.

  • MAPPO_Continous_Homogeneous
    Homogeneous Agent Proximal Policy Optimization for efficient training of same-type agents.

  • RL_Learning-main
    Fundamental RL tutorials with classic algorithm implementations.

  • hands_on_RL
    Interactive reinforcement learning projects via Jupyter Notebooks.

Quick Start

  1. Download the desired module ZIP below
  2. Check README_en.md for detailed instructions
  3. Install dependencies: pip install -r requirements.txt

Support