腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
视频
沙龙
1
回答
FrozenLake
-v1环境中的渲染问题
、
、
、
我正在使用
FrozenLake
-v1健身房环境测试Q表算法.当我使用默认的映射大小4x4并调用env.render()函数时,我看到了如下所示的图像: [ ] 但是,当我调用相同的映射大小为8x8的env.render我尝试使用以下两个命令来调用健身房环境: env = gym.make("
FrozenLake
8x8-v1") env = gym.make("
FrozenLake
-v1", map_name="8x8链接到
FrozenLake
openai健身环境:
浏览 9
提问于2022-03-03
得票数 1
1
回答
Openai-gym :在冰湖中设置is_slippery=False -v0
在openai-gym中,我想让
FrozenLake
-v0作为确定性问题工作。因此,我需要设置变量is_slippery=False。 如何在初始化环境时将其设置为False?
浏览 7
提问于2017-04-22
得票数 4
1
回答
如何在OpenAI中生成随机冻结湖图?
他们最近增加了生成随机冻结地图的能力。但是没有附带的关于如何使用它的文档。我想在一个正在进行的项目中使用它。
浏览 3
提问于2019-03-05
得票数 2
回答已采纳
3
回答
在使用openAI健身房渲染时获得一个奇怪的输出
、
、
、
我编写了一个简单的python代码来模拟“
FrozenLake
-V0”: import gym env = gym.make('
FrozenLake
-v0') env.reset() for _ in
浏览 0
提问于2018-02-04
得票数 1
1
回答
is_slippery参数对结冰环境中的奖励有何影响?
、
、
、
Frozenlake
环境有一个名为is_slippery的参数,如果设置为True,它将沿着预定的方向移动,而概率为1/3,其他环境将在两个方向上以相等的概率1/3向垂直方向移动。
浏览 12
提问于2022-04-09
得票数 0
1
回答
Q学习的收敛时间与深度Q学习
、
、
我想知道深度Q学习与Q学习在同一问题上运行时的收敛时间。谁能告诉我他们之间的模式是什么?如果用图表来解释会更好。
浏览 3
提问于2021-04-26
得票数 0
1
回答
Python错误,在internet上没有结果openai-健身房
、
import gym env = gym.make("
FrozenLake
-v1") env.reset() env.render() env.step(1) env.render() Something
浏览 18
提问于2022-09-17
得票数 1
回答已采纳
1
回答
同时使用pytest和tf.test.TestCase的问题
、
、
@pytest.mark.parametrize("env", ['
FrozenLake
-v0@pytest.mark.parametrize("env", ['
FrozenLake
-v0', 'CartPole-v1',
浏览 0
提问于2018-12-18
得票数 3
2
回答
OpenAI健身房的env.step():值是什么?
、
、
我正在了解OpenAI的健身房(0.25.1),它使用Python3.10,将健身房的环境设置为'
FrozenLake
-v1 (下面的代码)。完整代码: import gym env = gym.make('
FrozenLake
-v1', new_step_api=True, render_mode='ansi') # build environment
浏览 72
提问于2022-08-01
得票数 5
回答已采纳
2
回答
我们需要健身房环境中的“元数据”字段做什么?
、
例如,在
FrozenLake
环境中,被定义为 metadata = {'render.modes': ['human', 'ansi']} 但是,该属性/字段metadata从未在该文件中使用。
浏览 18
提问于2020-11-04
得票数 2
1
回答
在
FrozenLake
练习中用NN近似Q函数
、
、
、
、
np import gym import random import time from IPython.display import clear_output env = gym.make("
FrozenLake
-v0
浏览 4
提问于2020-03-19
得票数 2
0
回答
FrozenLake
Q-学习更新问题
、
、
: # Required Pars: N_ITER = 1000 REWARDS = [] # Setup the Maze: env = gym.make('
FrozenLake
-v0
浏览 4
提问于2017-11-26
得票数 0
回答已采纳
1
回答
ImportError:无法从“gym.wrappers”导入名称“监视器”
、
、
我刚开始玩Atari游戏,但下面的代码出现了一个重要错误- import gym env = gym.make('
FrozenLake
-v1') videosDir = '.
浏览 118
提问于2022-03-18
得票数 3
1
回答
python OpenAI健身房监视器在录制目录中创建json文件
、
、
、
、
这是我的代码: env = gym.make('
FrozenLake
-v0') env = gym.wrappers.Monitor(env, 'recording', force=True) env.seed
浏览 2
提问于2018-10-04
得票数 7
3
回答
列出openai健身房的所有环境标识
、
、
如何列出所有当前注册的环境in (因为它们用于创建环境)? 一点背景:有许多插件安装了习惯的ids,如atari,超级马里奥,厄姆等。 不要和atari-py的游戏名称混淆。
浏览 0
提问于2018-02-26
得票数 20
回答已采纳
2
回答
戴娜-Q怎么了?(Dyna-Q对Q-学习)
、
、
我实现了Q-学习算法,并在OpenAI健身房的
FrozenLake
-v0上使用.在10000集的测试中,我得到了185个总奖励和7333个总奖励。这个好吗?# Setup env = gym.make('
FrozenLake
-v0') epsilon = 0.9 lr_rate = 0.1 gamma = 0.99 planning_steps = 0
浏览 3
提问于2020-05-14
得票数 0
1
回答
Q-learning,测试集计数对收敛的影响是什么?
、
、
在下面的代码中,这是通过Q学习求解
FrozenLake
4x4的代码。在训练部分,为什么我们要在测试环境中播放20集,而不是每个循环中只播放1集?import gym import collections from tensorboardX import SummaryWriter ENV_NAME = "
FrozenLake
-v0" GAMMA
浏览 13
提问于2019-01-16
得票数 1
1
回答
FrozenLake
Openai游戏中使用DQN算法时的错误
、
、
、
、
我试图使一个非常简单的DQN算法工作与
FrozenLake
-v0游戏,但我得到了错误。我知道使用DQN而不是Q表可能是过度使用,但我还是希望它能发挥作用。以下是代码: import gym import numpy as np import tensorflow as tf env = gym.make("
FrozenLake
-v0") n_actions
浏览 3
提问于2020-07-30
得票数 0
回答已采纳
1
回答
Keras代码错误- Q-learning OpenAI健身房
FrozenLake
、
、
、
、
keras import backend as K import matplotlib.pyplot as plt %matplotlib inline env = gym.make('
FrozenLake
-v0
浏览 0
提问于2017-08-25
得票数 6
2
回答
如何在没有中间奖励的情况下解决
FrozenLake
OpenAI-Gym环境?
我正在看openai- 中的健身房。在这两种情况下,在智能体达到目标之前,都没有奖励,甚至没有负奖励。即使智能体掉进了冰层,也不会有负面的奖励--尽管这一集结束了。没有奖励,什么也学不到!每一集都是从头开始的,没有从之前的几集中受益。 这应该是一个简单的广度优先搜索。它不需要RL。但假设你使用RL,一种方法是一步走到一个冻结的正方形(这不是目标)奖励-1,一步进洞奖励-10。-1将允许代理学习不重复正方形。-10将允许代理学习避免漏洞。因此,我很想在代理方面创造我自己的负面奖励。这会让它更像是悬壁漫步者。 我遗漏了什么?RL如何在没有奖励的情况下解决这个问题(除了通过随机搜索)?
浏览 0
提问于2018-07-09
得票数 4
1
回答
Q学习的神经网络体系结构
、
、
、
测试各种激活函数:线性,乙状结肠,softmax,relu 发作次数和epsilon衰变程度 有和没有目标网络的尝试 尝试了不同的网络,从教程,编写的OpenAI健身房CartPole,
FrozenLake
浏览 1
提问于2017-08-09
得票数 1
1
回答
索引1超出了大小为1的维度0的界限
、
、
、
我开始学习DQN,我正在尝试用我自己和Pytorch从头开始解决
FrozenLake
-v0问题,所以我会把整个代码放在一起,因为它是连接的。当我运行以下代码时,它在学习阶段给出了一个错误,并给出了这个错误index 1 is out of bounds for dimension 0 with size 1. env=gym.make('
FrozenLake
-v0
浏览 99
提问于2021-04-21
得票数 1
回答已采纳
1
回答
健身套餐未识别十名持枪匪徒V0 env
、
BipedalWalker-v3), EnvSpec(BipedalWalkerHardcore-v3), EnvSpec(CarRacing-v0), EnvSpec(Blackjack-v1), EnvSpec(
FrozenLake
-v1), EnvSpec(
FrozenLake
8x8-v1), EnvSpec(CliffWalking-v0), EnvSpec(Taxi-v3), EnvSpec(Reacher-v2), EnvSpec
浏览 10
提问于2022-01-26
得票数 2
回答已采纳
1
回答
Sarsa算法,为什么q值趋于零?
、
、
import gym import random import numpy as np env = gym.make('
FrozenLake
-v0') #Initialize the Q matrix
浏览 4
提问于2016-10-12
得票数 3
回答已采纳
1
回答
经验回放让我的经纪人更糟
、
、
、
、
我已经为解决OpenAI健身房的“
FrozenLake
-V0”问题建立了一个Q-网络(至少,我认为.不是100%确定我如何得分-我得到70至80的100成功插曲后,经过5k的训练,没有经验回放)。
浏览 1
提问于2018-04-04
得票数 0
1
回答
基于Q-Learning算法的SARSA在冰湖游戏中的实现
、
、
、
collections import tensorboard import torch from torch.utils.tensorboard import SummaryWriter ENV_NAME = "
FrozenLake
-v0
浏览 206
提问于2021-06-25
得票数 1
1
回答
在Q学习中,n维向量状态向量是如何表示的?
、
Using the simplest gym environment for brevity: https://gym.openai.com/envs/
FrozenLake
-v0/ """ def init_q
浏览 46
提问于2020-04-15
得票数 1
回答已采纳
1
回答
Python中Q-学习的参考实现
、
、
、
我是一个机器学习新手,试着学习Q-学习。我读了几篇文章,得到了一般的要点,但我真正想要看到的是一个简单的Python Q学习算法的例子,我可以在里面运行和玩。 它可以解决最简单的游戏,我不是在寻找任何花哨。 我搜索并找到了许多使用gym框架的示例。这个框架看起来很棒,我以后可能会使用它,但是我想要一个Q-学习算法的最简单的版本,没有什么是自动为我做的。我认为这将帮助我更好地了解正在发生的一切。 你知道q学习的一个简单的Python实现吗?
浏览 0
提问于2020-09-05
得票数 2
1
回答
网格环境下的基本强化学习
(Right) 这个问题与https://gym.openai.com/envs/
FrozenLake
-v0/非常相似。
浏览 0
提问于2019-07-17
得票数 6
回答已采纳
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
100行的神经网络增强学习游戏实践
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券