/minitaur_sim2real_ppo

使用ppo算法学习minitaur四足机器人步态,环境代码来自于bullet3,这里进行了一些修改,使得更容易使用,并使用 pytorch 版本的PPO算法进行了训练。

Primary LanguagePython

Stargazers