标签: openai-gym

安装后没有名为“atari_py”的模块

我目前正在尝试使用 Atari 模块进行gym/openai。我已成功安装依赖项。

Patricks-MacBook-Pro:~ patrickmaynard$ python3.6 -m pip install gym[atari]
Requirement already satisfied: gym[atari] in /usr/local/lib/python3.6/site-packages (0.10.5)
Requirement already satisfied: six in /usr/local/lib/python3.6/site-packages (from gym[atari]) (1.11.0)
Requirement already satisfied: pyglet>=1.2.0 in /usr/local/lib/python3.6/site-packages (from gym[atari]) (1.3.2)
Requirement already satisfied: requests>=2.0 in /usr/local/lib/python3.6/site-packages (from gym[atari]) (2.18.4)
Requirement already satisfied: numpy>=1.10.4 in /usr/local/lib/python3.6/site-packages (from gym[atari]) (1.14.3)
Requirement already satisfied: Pillow; extra == "atari" in /usr/local/lib/python3.6/site-packages (from gym[atari]) (5.1.0)
Requirement already satisfied: PyOpenGL; extra == "atari" in /usr/local/lib/python3.6/site-packages (from gym[atari]) (3.1.0)
Requirement already satisfied: …
Run Code Online (Sandbox Code Playgroud)

pip python-3.x openai-gym

4
推荐指数
1
解决办法
1万
查看次数

如何修改健身房的环境CarRacing-v0?

我想知道是否有人知道是否有教程或任何有关如何从 openaigym 修改环境 CarRacing-v0 的信息,更确切地说如何创建不同的道路,我还没有找到任何相关信息。

我想做的是创建一条更难的赛道,有丁字路口,有些地方狭窄的街道可能会增加一些障碍等等。我一直在看,_create_trackcar_racing.py修改它看起来很乏味,我不想开始如果有其他更简单的解决方案,请继续努力。

openai-gym

4
推荐指数
1
解决办法
1756
查看次数

OpenAi 的 Gym 使用的 Discrete 和 Box 数据类型是什么?

它们看起来都像矩阵/数组。

我不太懂Python,这些通用数据类型是Python中使用的还是特定于健身房的?

我正在阅读 API,但仍然对它们到底是什么感到困惑。


例如(来自文档)

print(env.action_space)
#> Discrete(2)
print(env.observation_space)
#> Box(4,)
Run Code Online (Sandbox Code Playgroud)

为什么方框后面有一个逗号?这是不是代表着什么。

Discrete数据类型和类型有什么区别Box

根据我收集的数据,里面的数字就是尺寸。

类似于Discrete数组又Box类似于矩阵?

openai-gym

4
推荐指数
1
解决办法
3619
查看次数

COLAB 上“gym.envs.box2d”的强化学习问题没有属性“LunarLander”

我可以在 Colab 中做什么来使用 OPENAI-gym 的环境“LunarLander-v2”。我已经安装了BOX2Dbox2d-py但总是返回相同的错误:

AttributeError: module 'gym.envs.box2d' has no attribute 'LunarLander'
Run Code Online (Sandbox Code Playgroud)

这段话在我的本地机器上有效,但在 Colab 上不行。有什么解决办法吗?

版本:Python:3.6 - 健身房:0.17.2 - BOX2D:2.3.10

reinforcement-learning python-3.x openai-gym google-colaboratory

4
推荐指数
1
解决办法
1万
查看次数

无头服务器 Opengym AI 渲染使用 ray 时出错

使用ray进行分布式计算时,所有服务器都是无头的(无显示)。因此,使用“xvfb-run -s \xe2\x80\x9c-screen 0 1400x900x24\xe2\x80\x9d”来创建 screen.

\n

出现错误\npyglet.canvas.xlib.NoSuchDisplayException:无法连接到\xe2\x80\x9cNone\xe2\x80\x9d

\n

如果没有光线,仅使用 1 台机器,此命令可以完美运行。\n"xvfb-run -s \xe2\x80\x9c-screen 0 1400x900x24\xe2\x80\x9d

\n

总之,xvfb-run 不适用于光线分布。

\n

Ray 是否需要额外的配置才能实现这一点?还有其他方法可以克服这个错误吗?我正在开发开放健身房人工智能的赛车环境,它会触发渲染。

\n

reinforcement-learning ray serve openai-gym

4
推荐指数
1
解决办法
1062
查看次数

如何在 Windows 上安装 mujoco-py?

我尝试运行以下代码来测试 HalfCheetah-v2 环境:

import gym
env = gym.make('HalfCheetah-v2')
Run Code Online (Sandbox Code Playgroud)

但这给了我以下错误:ModuleNotFoundError:没有名为“mujoco_py”的模块

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
  File "<pyshell#1>", line 1, in <module>
    env = gym.make('HalfCheetah-v2')
  File "C:\Users\Amine\AppData\Roaming\Python\Python36\site-packages\gym\envs\registration.py", line 145, in make
    return registry.make(id, **kwargs)
  File "C:\Users\Amine\AppData\Roaming\Python\Python36\site-packages\gym\envs\registration.py", line 90, in make
    env = spec.make(**kwargs)
  File "C:\Users\Amine\AppData\Roaming\Python\Python36\site-packages\gym\envs\registration.py", line 59, in make
    cls = load(self.entry_point)
  File "C:\Users\Amine\AppData\Roaming\Python\Python36\site-packages\gym\envs\registration.py", line 18, in load
    mod = importlib.import_module(mod_name)
  File "C:\Program Files\Python36\lib\importlib\__init__.py", line 126, in import_module
    return _bootstrap._gcd_import(name[level:], package, level)
  File …
Run Code Online (Sandbox Code Playgroud)

reinforcement-learning openai-gym mujoco

4
推荐指数
1
解决办法
7937
查看次数

开放式人工智能健身房环境不渲染,根本不显示

所以我想尝试一些强化学习,我已经有一段时间没有编写任何代码了。当我运行此代码时在 Jupiter Notebooks 上

import gym
env = gym.make("MountainCar-v0")
env.reset()

done = False
while not done:
    action = 2  # always go right!
    env.step(action)
    env.render()
Run Code Online (Sandbox Code Playgroud)

它只是尝试渲染它,但不能,窗口顶部的沙漏正在显示,但它从不渲染任何东西,我不能从那里做任何事情。

与此代码相同

import gym
env_name = "MountainCar-v0"
env = gym.make(env_name)

env.reset()

for _ in range(200)
    action = env.action_space.sample()
    env.step(action)
    env.render()
Run Code Online (Sandbox Code Playgroud)

这两者都不适用于 Jupiter 笔记本、Pycharm 或终端。我在 Windows 上。在网上找不到类似的东西。是的,我是新手

编辑-我做了这个

# Install latest stable version from PyPI
!pip install -U pysdl2

# Install latest development verion from GitHub
!pip install -U git+https://github.com/py-sdl/py-sdl2.git

Run Code Online (Sandbox Code Playgroud)

现在显示错误:windlib 不可用

我试过

!pip …
Run Code Online (Sandbox Code Playgroud)

python openai-gym

4
推荐指数
1
解决办法
6119
查看次数

OpenAI Gym和Gazebo测试机器人技术的RL算法?

如果我想研究机器人技术RL算法,应该如何使用Gazebo OpenAI Gym进行测试,训练和基准测试?我应该从OpenAI Gym入手,然后将具有良好分数的算法带入Gazebo环境中以应对现实情况吗?

benchmarking robotics reinforcement-learning ros openai-gym

3
推荐指数
1
解决办法
928
查看次数

获取OpenAI Gym环境的名称/ ID

鉴于:

import gym
env = gym.make('CartPole-v0')
Run Code Online (Sandbox Code Playgroud)

如何CartPole-v0以一种适用于任何Gym env的方式获得收益?

reinforcement-learning openai-gym

3
推荐指数
1
解决办法
518
查看次数

缺少用于在Colab中渲染OpenAI Gym的软件包

我正在尝试使用先前在此主题问题中引用的StarAI代码通过Mac在Colab中渲染OpenAI Gym环境。但是,它失败了。关键错误(至少是第一个错误)在下面完整显示,但是导入部分似乎是“请安装xdpyinfo!”。

PyPI没有xdpyinfo。它是什么?如何安装?

完整的错误消息:

482780428160 abstractdisplay.py:151]找不到xdpyinfo,无法检查X启动!请安装xdpyinfo!

rendering openai-gym google-colaboratory

3
推荐指数
1
解决办法
538
查看次数