项目简介
本项目运用深度Q学习(Deep Q-Learning)的强化学习模型,用于在Pong游戏中进行决策。项目里的DQN模型通过从环境中学习并预测每个可能动作的价值(Q值),进而选择最佳动作。
项目的主要特性和功能
- DQN模型:包含卷积神经网络(CNN)处理输入图像,全连接网络计算每个动作的Q值。
- 经验回放:利用经验回放技术,使用过去的经验数据训练,提升稳定性和效率。
- 目标网络:借助目标网络稳定训练过程,将网络参数复制到目标网络并定期同步,减少训练振荡。
- 环境包装器:采用多个环境包装器,如
FireResetEnv
、MaxAndSkipEnv
、ProcessFrame84
、BufferWrapper
、ImageToPyTorch
和ScaledFloatFrame
,修改环境行为和观察结果,适配DQN模型需求。
安装使用步骤
1. 环境准备
- 安装Python 3.8.3及以上版本。
- 安装PyTorch 1.7.0及以上版本。
- 安装tensorboard 2.4.0及以上版本。
- 安装gym 0.17.3及以上版本。
- 安装atari-py 0.2.6。
2. 数据准备
下载本项目源码文件。
3. 运行测试
运行test.py
测试模型性能。
4. 训练模型
运行train.py
训练模型。
5. 查看结果
- 查看
report.pdf
获取实验报告。 - 查看
video.mp4
查看游戏测试视频。
6. 调试与修改
- 根据需要修改
train.py
中的超参数设置,如学习率、回放缓冲区大小等。 - 根据
train.py
中的日志记录,观察训练过程中的平均奖励、损失函数等,评估模型性能。
7. 注意事项
- 环境中使用的GPU信息可能需调整,以适应不同硬件设置。
- 在Windows和Ubuntu系统中,环境设置和依赖安装可能存在差异。
8. 项目扩展
- 尝试在其他Atari游戏上使用相同的模型架构和训练策略。
- 探索不同的网络架构和训练策略,优化模型性能。
下载地址
点击下载 【提取码: 4003】【解压密码: www.makuang.net】