标签: openai-gym

OpenAI Gym Mujoco ImportError:没有名为'mujoco_py.mjlib'的模块

我尝试在openAi体育馆中运行此代码。但事实并非如此。

import mujoco_py
import gym
from os.path import dirname

env = gym.make('Hopper-v1')
env.reset()
for _ in range(1000):
    env.render()
    env.step(env.action_space.sample()) 
Run Code Online (Sandbox Code Playgroud)

错误信息:

/Users/yunfanlu/anaconda/envs/py35/bin/python3.5 /Users/yunfanlu/WorkPlace/OpenAIGym/OpenGymL/c.py
[2017-07-23 17:17:15,633] Making new env: Hopper-v1
Traceback (most recent call last):
  File "/Users/yunfanlu/anaconda/envs/py35/lib/python3.5/site-packages/gym/envs/mujoco/mujoco_env.py", line 12, in <module>
    from mujoco_py.mjlib import mjlib
ImportError: No module named 'mujoco_py.mjlib'

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
  File "/Users/yunfanlu/WorkPlace/OpenAIGym/OpenGymL/c.py", line 15, in <module>
    env = gym.make('Hopper-v1')
  File "/Users/yunfanlu/anaconda/envs/py35/lib/python3.5/site-packages/gym/envs/registration.py", line 161, in make
    return registry.make(id)
  File …
Run Code Online (Sandbox Code Playgroud)

python openai-gym

7
推荐指数
1
解决办法
2472
查看次数

有没有办法在仍然录制的同时禁用 OpenAI 健身房中的视频渲染?

有没有办法在仍然录制的同时禁用 OpenAI 健身房中的视频渲染?

当我使用 atari 环境和Monitor包装器时,默认行为是不渲染视频(视频仍被录制并保存到磁盘)。但是,在诸如MountainCarContinuous-v0, CartPole-v0, 之类的简单环境中Pendulum-v0,渲染视频是默认行为,我找不到如何禁用它(我仍然想将其保存到磁盘)。

我在服务器上运行我的工作,官方建议的解决方法xvfb不起作用。我看到很多人都遇到了问题,因为它与 nvidia 驱动程序发生冲突。我发现的最常见的解决方案是重新安装 nvidia 驱动程序,我无法这样做,因为我没有服务器的 root 访问权限。

video openai-gym

7
推荐指数
1
解决办法
4034
查看次数

Google Colaboratory中的openAI Gym NameError

我刚刚在Google Colab上安装了openAI gym,但是当我尝试按照此处的说明运行'CartPole-v0'环境时.

码:

import gym
env = gym.make('CartPole-v0')
for i_episode in range(20):
    observation = env.reset()
    for t in range(100):
        env.render()
        print(observation)
        action = env.action_space.sample()
        observation, reward, done, info = env.step(action)
        if done:
            print("Episode finished after {} timesteps".format(t+1))
            break
Run Code Online (Sandbox Code Playgroud)

我明白了:

WARN: gym.spaces.Box autodetected dtype as <class 'numpy.float32'>. Please provide explicit dtype.
---------------------------------------------------------------------------
NameError                                 Traceback (most recent call last)
<ipython-input-19-a81cbed23ce4> in <module>()
      4     observation = env.reset()
      5     for t in range(100):
----> 6         env.render()
      7         print(observation)
      8         action = …
Run Code Online (Sandbox Code Playgroud)

python openai-gym google-colaboratory

7
推荐指数
2
解决办法
7079
查看次数

如何在Google Colab中渲染OpenAI Gym?

我正在尝试在Google colab中使用OpenAI Gym。由于笔记本计算机在远程服务器上运行,因此我无法渲染健身房的环境。

我找到了一些适用于Jupyter笔记本的解决方案,但是,这些解决方案无法与colab配合使用,因为我无权访问远程服务器。

我想知道是否有人知道可以与Google Colab一起使用的解决方法?

openai-gym google-colaboratory

7
推荐指数
3
解决办法
6055
查看次数

python OpenAI健身房监视器在录制目录中创建json文件

我正在健身房CartPole-v0环境中实现价值迭代,并希望将代理动作的视频记录在视频文件中。我一直在尝试使用 Monitor 包装器来实现这一点,但它会在录制目录中生成 json 文件而不是视频文件。这是我的代码:

env = gym.make('FrozenLake-v0')
env = gym.wrappers.Monitor(env, 'recording', force=True)
env.seed(0)
optimalValue = valueIteration(env)
st = time.time()
policy = cal_policy(optimalValue)
policy_score = evaluate_policy(env, policy)
et = time.time()
env.close()
print('Best score: %.2f  Time: %4.4f sec' % (policy_score, et-st))
Run Code Online (Sandbox Code Playgroud)

监控json文件

我遵循了教程,但不确定出了什么问题。我在谷歌上搜索了很多,但没有遇到任何有用的东西。

python machine-learning reinforcement-learning python-3.x openai-gym

7
推荐指数
1
解决办法
5486
查看次数

有没有办法用gym的OpenAI来减慢游戏环境的速度?

当我用gym渲染环境时,它玩游戏的速度非常快,我无法\xe2\x80\x99看清发生了什么。它不应该是代码的问题,因为我尝试了很多不同的代码。

\n

python machine-learning openai-gym

7
推荐指数
1
解决办法
2884
查看次数

如何在初始化时将参数传递给 openai-gym 环境

这个(不可读的)论坛帖子之后,我认为将它张贴在堆栈溢出上以供后代搜索它是合适的。

如何在 init 上为健身房环境传递参数?

openai-gym

7
推荐指数
2
解决办法
4671
查看次数

openai健身房包厢空间配置

我需要一个范围为 [0,inf) 的观察空间
我是 openai 健身房的新手,不确定应该是什么格式

from gym spaces

spaces.Box(np.array(0),np.array(np.inf))
# Box()

spaces.Box(0, np.inf, shape = (1,))
# Box(1,)
Run Code Online (Sandbox Code Playgroud)

python-3.x openai-gym

7
推荐指数
1
解决办法
2575
查看次数

在 Windows 10 上使用 OpenAI Gym-Atari 时出现“OSError: [WinError 126] 找不到指定的模块”

我只是想执行这个简单的试用代码:

import gym
env = gym.make('SpaceInvaders-v0')
env.reset()
for _ in range(1000):
    env.step(env.action_space.sample())
    env.render('human')
env.close()
Run Code Online (Sandbox Code Playgroud)

我收到一条错误消息:

Traceback (most recent call last):   File "C:\Users\91920\ML\ReinforcementLearning\space_invaders.py", line 2, in <module>
    env = gym.make('SpaceInvaders-v0')   File "C:\ProgramData\Anaconda3\lib\site-packages\gym\envs\registration.py", line 156, in make
    return registry.make(id, **kwargs)   File "C:\ProgramData\Anaconda3\lib\site-packages\gym\envs\registration.py", line 101, in make
    env = spec.make(**kwargs)   File "C:\ProgramData\Anaconda3\lib\site-packages\gym\envs\registration.py", line 72, in make
    cls = load(self._entry_point)   File "C:\ProgramData\Anaconda3\lib\site-packages\gym\envs\registration.py", line 17, in load
    mod = importlib.import_module(mod_name)   File "C:\ProgramData\Anaconda3\lib\importlib\__init__.py", line 127, in import_module
    return _bootstrap._gcd_import(name[level:], package, level)   File "<frozen importlib._bootstrap>", line 1006, …
Run Code Online (Sandbox Code Playgroud)

python reinforcement-learning openai-gym

7
推荐指数
1
解决办法
1472
查看次数

如何查看OpenAIgym环境中可用的动作?

使用OpenAIgym时,使用 导入库后import gym,可以使用 来查看动作空间env.action_space。但这仅给出了动作空间的大小。我想知道动作空间的每个元素对应什么样的动作。有简单的方法吗?

reinforcement-learning openai-gym

7
推荐指数
1
解决办法
1万
查看次数