您当前所在位置: > 网游 > 综合热点

多图见证模拟机器人的逆天成长:论进化策略在强化学习中的应用

时间:2018-09-05 14:01:51  来源:  作者:网络
请注意:本文为编辑制作专题转载的资讯,页面显示的时间仅为生成静态页面时间而非具体内容事件发生的时间,由此给您带来的不便敬请谅解!

雷锋网 AI 科技评论按:本文是 otoro.net 的系列技术博客之一,以通俗可视化的方法讲解了进化策略(Evolution Strategies)中的诸多概念。本篇介绍了如何使用进化策略来寻找前馈神经网络智能代理的策略,以执行由 gym 环境接口定义的各式各样的连续控制强化学习任务。前一篇参见《进化策略入门:最优化问题的另一种视角》。雷锋网 AI 科技评论编译。

代码传送门:GitHub

在上一篇文章中,我已经介绍过了一些可以用于优化函数参数而不用显式地计算梯度的进化策略(Evolution strategies, ES)算法。这些算法可以用于解决强化学习(Reinforcement learning, RL)问题,从而帮助神经网络智能体(Neural network agent)找到合适的模型参数。在本文中,我将探讨如何将进化策略应用于某一些增强学习问题中,并重点介绍一些方法,以帮助我们找到更加稳定和健壮的策略。

强化学习之进化策略

虽然强化学习算法需要在每个时间步都给予智能代理一个奖励信号,但是进化策略算法只关心智能体在特定环境中展示(rollout)阶段结束之后所获得的最终累积奖励。在许多问题中,我们只知道任务结束时的结果,比如智能体是赢还是输、机器人手臂是否拿起了物体、或者智能体是否存活了下来,而这些方面的问题都是进化策略可能优于传统强化学习的点。下面是一段伪代码,它将智能体的展示阶段封装在一个 OpenAI Gym 环境中,在这个环境下我们只关心累积奖励:

def rollout(agent, env):

obs = env.reset()

done = False

total_reward = 0

while not done:

a = agent.get_action(obs)

obs, reward, done = env.step(a)

total_reward += reward

return total_reward

我们可以将 rollout 定义成目标函数,因为目标函数可以将智能代理的模型参数映射到最合适的分数,然后正如上一篇文章所讲解的,再使用一个进化策略求解器去找到一组合适的模型参数:

env = gym.make('worlddomination-v0')

# use our favourite ES

solver = EvolutionStrategy()

while True:

# ask the ES to give set of params

solutions = solver.ask()

# create array to hold the results

fitlist = np.zeros(solver.popsize)

# evaluate for each given solution

for i in range(solver.popsize):

# init the agent with a solution

agent = Agent(solutions[i])

# rollout env with this agent

fitlist[i] = rollout(agent, env)

# give scores results back to ES

solver.tell(fitness_list)

# get best param & fitness from ES

bestsol, bestfit = solver.result()

# see if our task is solved

if bestfit > MY_REQUIREMENT:

break

确定性策略和随机策略(Deterministic and Stochastic Policies)

我们的智能体将环境给予它的观察结果作为输入,然后在环境内部展示期间的每个时间步输出一个动作。我们可以根据需要对代理进行建模,并使用硬编码规则、决策树、线性函数以及递归神经网络中的方法。在这篇文章中,我使用一个带有两个隐含层的简单前馈网络,将智能体的观测结果(向量 x)直接映射到相应的动作(向量 y):

其中的激活函数 fh、fout 可以是 tanh、sigmoid、relu 或是其它你想要使用的函数。而对我而言,我喜欢使用 tanh。对于输出层而言,有时我们可能希望 fout 是一个不含非线性变换的传递函数。如果我们将所有的权重和偏置项连接成一个向量 W,我们可以看到上述神经网络是一个确定性函数 y=F(x, W),然后我们可以使用进化策略,结合之前介绍的搜索循环来找到一个解决方案 W。

但是如果我们不希望我们的智能体是确定性的呢?对于特定的某些任务,即使像石头剪刀布一般简单,最优策略也是一种随机行为,所以我们希望智能代理能够学习到一种随机策略。将 y=F(x, W) 转换为随机策略的一种方法是使得 W 随机。模型中的每个参数 wi ∈ W 都是符合正态分布的随机变量 N(μi, σi)。

这种随机网络被称为贝叶斯神经网络。贝叶斯神经网络是一个权重带有先验分布的神经网络。在这种情况下,我们想要求解的模型参数是 μ 和 σ 的向量集,而不是权重 W。在网络每一次前向传播的过程中,生成一个全新的符合 N(μ, σ I) 分布的 W。文献中有许多有趣的工作将贝叶斯网络应用于许多问题中,并解决了许多训练网络的挑战。通过设置解空间为 μ 和 σ,而不是 W,进化策略也可以用于直接找到随机策略的解。

随机策略网络在强化学习的研究中也非常流行。例如,在近端策略优化(PPO)算法中,最后一层是 μ 和 σ 的参数集合,并且动作是从 N(μ, σ I) 中进行采样的。为参数增加噪音的操作也被称为鼓励智能代理探索环境并逃离局部最优。我发现对于需要智能代理进行探索的许多任务,我们并不需要整个 W 都是随机的,而仅仅只有偏置项满足随机性就足够了。对于具有挑战性的运动任务,例如 roboschool 环境中的运动任务,我通常使用进化策略来找到一个随机策略,其中只有偏置项的参数才符合正态分布。

双足步行者的健壮演进策略

我发现健壮策略研究是另一个可以应用进化策略算法的领域。我想控制数据效率之间的平衡,以及该策略在多个随机实验中的健壮程度。为了证明这一点,我在一个叫做 BipedalWalkerHardcore-v2 的环境中测试了进化策略,该环境是由 Oleg Klimov 使用 Box2D 物理引擎创建的,该引擎曾被用于开发《愤怒的小鸟》。

我们的智能代理解决了 BipedalWalkerHardcore-v2

在这种情况下,我们的智能代理必须学习到一个策略,以实现在有限时间内能够通过一个随机生成的地形还不摔倒。这里涉及 24 个输入,其中包括有 10 个雷达激光传感器、角度参数和接触器参数。智能体不知道自己在地图中的绝对坐标。动作空间是 4 个连续值,控制着 4 台电机的转矩。总奖励的计算则基于智能体走过的总路程。一般情况下,如果智能体顺利走完整个地图,它将得到 300多分。此外根据全程施加的电机扭矩情况,还要再减去少量的分数,因此这样使得能量也成为了一个限制条件。

BipedalWalkerHardcore-v2 将任务完成定义为在超过 100 次连续的随机试验中,智能代理的平均分达到 300 多。虽然使用强化学习算法训练智能体成功穿越地图一两次相对容易,但是要保证智能代理能始终如一且高效完成却是很困难的,这使得该任务成为一项很有趣的挑战。据我所知,到 2017 年 10 月为止,我的智能体是唯一已知能解决此问题的方案。

早期阶段,学习如何行走

学习如何纠正错误,不过还是很慢

由于地形图是针对每个实验随机生成的,因此有时候地形也许会非常简单,而有时候地形也可能非常复杂。我们并不希望我们的自然选择过程允许那些弱策略的智能体(通过简单的地形地图)进入下一代。另外我们也希望给那些拥有好策略的智能代理一个救赎的机会。所以我最终所做的是定义一个智能体分组(episode),作为 16 次随机展示的平均值,并使用 16 次展示的累积奖励平均值作为其最适分数(Fitness score)。

另一种对待这种事件的方法是,即使我们正在对智能体进行超过 100 次试验的测试,我们通常会在单次试验中对其进行训练,所以测试任务和我们正在优化的训练任务并不一样。通过在随机环境中对所有智能代理进行多次平均,我们缩小了训练集和测试集之间的差距。如果我们可以对训练集进行过度训练,那么也可能会对测试集进行过度训练,因为这在强化学习中是一件好事情。

当然,我们算法的数据效率比现在差 16 倍,但最终的策略却要健壮得多。当我在超过 100 次连续随机试验中测试最终策略时,我顺利通过了这个环境,并得到了一个超过 300 点的平均分数。如果没有这种平均方法,最好的智能体在超过 100 次试验中智能的平均分数大约只有 220 到 230。据我所知,截止 2017 年 10 月,这是解决该环境问题的第一个解决方案。

获胜的解决方案,使用 PEPG 演变,每个分组平均运行 16 次

我还使用了 PPO,这是一种针对强化学习的最先进的策略梯度算法,然后我试图将其进行调整以最佳化应用到这项任务中。最后,我在 100 次随机试验中只能让 PPO 取得大约 240 到 250 的平均成绩。但是我确信将来其他人可以使用 PPO 或其它强化学习算法来解决这个环境挑战。

后续更新(2018 年 1 月):

dgriff777 能够使用带有 4 个堆栈帧的 A3C+LSTM 连续版本作为输入来训练 BipedalWalkerHardcore-v2,以在超过 100 次随机试验中取得 300 分的成绩。他在 GitHub 上开源了这个模型,由 pytorch 进行编写。

在现实世界中我们需要足够安全的策略,所以控制数据效率和策略健壮性之间的权衡能力是非常有用和重要的。理论而言,如果有足够的计算能力,我们甚至可以对所需的 100 次展示进行平均,并将我们的双足步行者直接优化到满足需求。专业工程师通常要求他们的设计满足特定的质量保证并满足某些安全因素。当我们训练智能代理去学习那些可能影响到现实世界的策略时,我们需要考虑到这些安全因素。

以下是进化策略发现的一些其它解决方案:

CMA-ES 解决方案

OpenAI-ES 解决方案

我还使用具有高初始噪音参数的随机策略网络对智能体进行训练,因此智能体可以在任何地方看到噪音,以至于它的行为也有点混乱。它导致了智能体在没有对其输入和输出信息的准确性进行确认的情况下也依然学习任务(这个智能体无法获得 300 以上的分数):

采用随机策略的双足步行者Kuka 机械抓臂

我还试图在简化的 Kuka 机器人手臂抓取任务中使用带有该项平均技术的进化策略。这个环境在 pybullet 环境中可以获得。仿真中使用的 Kuka 模型被设计为类似于真正的 Kuka 机器人手臂。在这个简化的任务中,智能体被告知了物体的坐标。

更高级的强化学习环境可能需要智能体直接从像素输入中推理出一个动作,但是在原则上,我们可以将此简化版模型与预训练好的卷积网络组合在一起,通过卷积网络给出坐标的估计值。

使用随机策略训练的机器人手臂抓取任务

如果智能体成功抓取物体,它将获得 10000 分,否则为 0。然后再扣除一些能源消耗的分数。通过对 16 个随机试验的稀疏奖励进行平均,我们可以让进化策略对健壮性进行优化。然而最终,我得到确定性策略或者随机策略只能在 70% 至 75% 的时间内抓取物体。这里还有提升的空间。

让 Minitaur 学习多项任务

学习同时执行多项复杂任务使得我们能更好地执行单一任务。例如,少林寺的僧侣站在树桩上举重可以使得他们在没有举重的情况下更好地维持平衡。学习如何在山上以 80 英里/小时的速度驾驶汽车,并且还要保证不把杯子里的水洒出来,这会使得司机成为一个更好的非法街头赛车手。我们还可以训练智能代理去执行多项任务,以使得它们学习到更加稳定的策略。

少林和尚

学习漂移

最近关于自我控制(Self-playing)智能体的研究工作表明,学习诸如 Sumo 摔跤(需要许多技巧的运动)等艰巨任务的智能代理也能用于执行更简单的任务,例如迎着风行走,而不需要额外的训练。Erwin Coumans 最近尝试让 Minitaur 在上方放着一只玩具鸭的情况下学会行走。如果鸭子掉下来,Minitaur 也就失败了,其中所蕴含的想法是期望这些类型的任务增强能够有助于将学习策略从模拟转移到真正的 Minitaur。我取用了他的一个例子,并尝试使用进化策略训练 Minitaur 和玩具鸭子的组合。

pybullet 中以 CMAES 策略运行的 Minitaur

来自 Ghost Robotics 公司的真实 Minitaur 机器人

pybullet 中的 Minitaur 模型旨在模仿真实的物理 Minitaur。然而,在完美的模拟环境下训练出来的策略往往不适用于真实世界。它甚至无法泛化到模拟环境内部的小小任务增强。例如,在上图中有一个 Minitaur 被训练用于朝前走(使用 CMA-ES),但是我们看到,当把一只鸭子放在它上面的时候,这个策略并不总是能够保持鸭子不掉而走出房间。

只训练了简单前进任务的策略上面放一只鸭子

以带着鸭子前进为任务训练的策略

额外把鸭子放到 Minitaur 上的时候,从单纯的步行任务中学到的策略在某种程度上依然可以发挥作用,这也意味着添加玩具鸭子并没有增加太多的难度。玩具鸭子有一个较为平稳的底部,所以 Minitaur 不会让鸭子从背部脱落。我试图用一个球去代替鸭子,从而让任务变得更加困难。

CMA-ES 学到了一种作弊策略

然而,用球代替鸭子并不会立即产生稳定的平衡策略。相反,CMA-ES 发现了一项策略,首先将球滑入其腿部形成的孔中,然后将球带入该孔内,从而以取巧的方式把球带出了房间。这里学到的教训是,一个目标驱动(Objective-driven)的搜索算法将学会利用环境中的任何设计缺陷,并利用它们以实现自己的目标。

带着小球训练的 CMA-ES

在将球缩小之后,CMA-ES 能够找到一个随机策略,它能够同时实现前行和保持平衡。这项策略也可以转移到更容易的鸭子任务中。在未来,我希望这类任务增强技术对于真实机器人的迁移学习能发挥重要作用。

ESTool

进化策略最大的卖点在于,可以使用在 CPU 不同核心上的不同线程或者甚至是不同的机器来运行多个工作器,以轻松实现并行化。Python 的多重处理机制使得启动并行进程变得简单。我更喜欢在 mpi4py 中使用消息传递接口(MPI)为每个作业启动单独的 python 进程。这让我们可以绕过全局解释器锁的限制,并且让给我确信每个进程都有自己的沙盒化 numpy 以及 gym 实例,这一点对于播种随机数生成器非常重要。

Roboschool 中的单足、双足、蚂蚁机器人

Roboschool 中的触碰臂

在各式各样的 roboschool 任务中,智能代理借助 estool 实现演进

我实现了一个名为 estool 的简单工具,它使用前一篇文章中介绍的 es.py 库来训练简单的前馈策略网络,以执行用 gym 接口编写的连续控制强化学习任务。我已经使用 estool 工具轻松训练了前面所述的所有实验,以及 gym 和 roboschool 内部提供的各种各样其它的连续控制任务。estool 使用 MPI 进行分布式处理,因此不需要太多工作就可以将工作器分配到多台机器上。

ESTool 与 pybullet

GitHub 仓库

除了 gym 和 roboschool 自带的环境之外,estool 还适用于多数 pybullet gym 环境。通过修改现有的环境来构建自定义 pybullet 环境也很容易。例如,我可以毫不费力地在球场环境中制作 Minitaur(在该仓库的 custom_envs 目录下),并且也能够对环境进行修改以使得更加容易实现新想法。另外如果你想将其它软件包(例如 ROS 或者 Blender)的 3D 模型纳入进来,你可以尝试构建新的有趣的 pybullet 环境,为其他人提供新的挑战。

作为近期迁移学习研究中令人兴奋的成果,pybullet 中的许多模型和环境,例如 Kuka 机器人手臂和 Minitaur,都在最大的程度上模拟了真实机器人。事实上,这些最新的尖端研究论文(1,2,3,4)中有很多都使用 pybullet 来进行迁移学习实验。

因此你不需要购买昂贵的 Minitaur 或 Kuka 机器人手臂来尝试从仿真到真实的实验。pybullet 内部有一个赛车模型,它是参照 MIT 开源赛车硬件工具包进行建模的。甚至还有一个 pybullet 环境,可以将虚拟摄像机安装到虚拟赛车上,为智能代理提供虚拟屏幕的像素作为观察结果输入。

让我们首先尝试更简单的版本,赛车只需要学习一个跟踪巨型球移动的策略。在 RacecarBulletEnv-v0 环境中,智能代理获取球的相对坐标作为输入,并输出控制电机速度和转向方向的连续动作。该任务非常简单,在 2014 款 Macbook Pro(8 核 CPU)上只需要花费 5 分钟(50 次迭代)即可完成训练。使用 estool,下面的命令将启动一个含有 8 进程的训练程序,每个进程负责 4 项作业,这样总共就有 32 个工作器,然后使用 CMA-ES 来演进策略:

python train.py bullet_racecar -o cma -n 8 -t 4

训练的进度以及模型参数将被保存在日志子目录中。我们可以运行这个命令来可视化环境中智能代理所找到的最佳策略:

python model.py bullet_racecar log/bullet_racecar.cma.1.32.best.json

pybullet 赛车环境,基于 MIT 赛车实现

在这个仿真中,我们可以使用鼠标来移动圆球,如果有需要的话,甚至也可以用来移动赛车。

IPython notebook plot_training_progress.ipynb 可用于可视化赛车智能代理每次迭代的训练记录。每次迭代中,我们都可以获得最高分、最低分、以及所有赛车的平均分数。

标准运动任务类似于 roboschool 中的运动任务,例如 Inverted Pendulum、Hopper、Walker、HalfCheetah、Ant 和 Humanoid 也可以在 pybullet 中使用。我发现了一个策略,在 pybullet 的蚂蚁任务中获得了 3000 分,我是使用 PEPG 在智能代理数为 256 的多核机器上花费几个小时完成训练的。

python train.py bullet_ant -o pepg -n 64 -t 4

AntBulletEnv 的一个样例展示。我们还可以使用 gym.wrappers.Monitor 将展示结果保存成一个 mp4 格式的视频

总结

在本文中,我讨论了如何使用进化策略来寻找前馈神经网络智能体的策略,以执行由 gym 环境接口定义的各式各样的连续控制强化学习任务。我介绍了 estool,它允许我使用 MPI 框架在分布式处理环境中快速尝试不同配置的进化策略算法。

到目前为止,我只讨论了通过让智能体在环境中反复试验来训练智能代理学习策略的方法。这种从头开始训练的形式被称为无模型强化学习。在下一篇文章中,我会更多地讨论基于模型的学习,我们的智能体将学习利用以前学习过的模型来完成一个给定任务。另外我仍然会采用进化策略。

最终,智能代理选择将所有的绊脚石当做垫脚石趣味扩展

"Fires of a Revolution" Incredible Fast Piano Music (EPIC)

A Visual Guide to Evolution Strategies

ESTool

Stable or Robust? What’s the Difference?

OpenAI Gym Docs

Evolution Strategies as a Scalable Alternative to Reinforcement Learning

Edward, A library for probabilistic modeling, inference, and criticism

History of Bayesian Neural Networks

BipedalWalkerHardcore-v2

roboschool

pybullet

Emergent Complexity via Multi-Agent Competition

GraspGAN

Via Evolving Stable Strategies,雷锋网 AI 科技评论编译

相关下载

玩家评论

跑步的时候握紧拳头会有什么结果?7月18日蚂蚁庄园今日答案最新[多图]

蚂蚁庄园7月18日最新的题目已经更新,新的题目都是和安全健康有关系的常识,例如跑步、跳舞需要注意的事项,还有安全帽和上下楼梯等问题,这些问题的正确答案下面会分享给大家,玩详情>>

阅读: 1
日期: 2020-07-18
蚂蚁庄园今日答案7月18日汇总:上楼梯和下楼梯哪个动作更容易伤膝盖[多图]

蚂蚁庄园今日答案是什么?7月18日有好几个问题,这些问题的答案内容都是非常具有常识的,小编今天会将7月18日庄园小课堂的答案分享给大家,有四个不同的问题,和大家的个人安全有很详情>>

阅读: 2
日期: 2020-07-18
放开那三国3平民最强阵容推荐:新手前期阵容搭配攻略[多图]

放开那三国3新手前期使用什么阵容好?平民玩家在前期的时候搭配阵容特别方便,这次小编为大家带来了很多的平民阵容,能帮助大家在前期更好的发展,下方就是阵容的搭配和思路解析,详情>>

阅读: 3
日期: 2020-07-18
创造与魔法弹涂鱼在哪钓?弹涂鱼刷新地点位置推荐[多图]

创造与魔法弹涂鱼在什么地方刷新?弹涂鱼是顽皮蝾螈饲料中的材料之一,玩家想要做顽皮蝾螈饲料就一定要知道如何钓弹涂鱼,了解弹涂鱼的刷新位置,这样更方便玩家去获取,下面将分享详情>>

阅读: 5
日期: 2020-07-18
行走喵星人怎么登陆?注册登陆邀请码分享[多图]

行走喵星人邀请码有哪些?如何快速登陆?想要通过这款软件赚钱的玩家特别多,但是在登陆的时候却发现登录不进去,需要填写邀请码才可以,待会小编会将最新的邀请码分享给大家,包括登详情>>

阅读: 2
日期: 2020-07-18
光遇冥龙怎么躲?冥龙怎么打?[多图]

  光遇冥龙怎么躲?冥龙怎么打?在游戏中也是非常大的一个生物,很多的时候就是冲着玩家来的,被撞的话会掉光之翼的,直接冲过去的时候就会撞飞,该怎么躲避?game2详情>>

阅读: 5
日期: 2020-07-17
百变大侦探阵谜11位密码是什么?阵谜凶手/真相详解[多图]

  百变大侦探阵谜11位密码是什么?阵谜凶手/真相是什么?每次的话都需要在游戏中解析出各种不一样的答案,其中也是很丰富的内容,获取到不一样的方案,game234小详情>>

阅读: 3
日期: 2020-07-17
最强蜗牛供奉周活动介绍:供奉周许愿详细攻略[多图]

最强蜗牛供奉周活动怎么玩?这个活动上线之后,很多人都在关注活动的玩法,萌新可能还不清楚活动的玩法内容,小编这就将供奉周许愿的玩法详情分享给大家,各位也赶紧和小编一起来了详情>>

阅读: 3
日期: 2020-07-17
创造与魔法云斑鹦鸟位置必刷点大全:2020云斑鹦鸟饲料配方一览[多图]

创造与魔法云斑鹦鸟会在哪里刷新?想要捕捉云斑鹦鸟,玩家们要知道具体的刷新位置才行,捕捉起来也会更加方便,了解位置会更方便大家找到云斑鹦鸟,下面会带来云斑鹦鸟最新的刷新时详情>>

阅读: 6
日期: 2020-07-17
最强蜗牛供奉周许愿怎么玩?供奉周许愿玩法攻略[多图]

最强蜗牛供奉周许愿的玩法很多人还不确定,这次玩家们很多人都会加入到这次的供奉周许愿中,小编今天会给大家带来供奉周许愿的玩法攻略,下面有玩法的详细讲解,玩家们通过下面的详情>>

阅读: 4
日期: 2020-07-17
和平精英绝版皮肤快乐主宰正式上线 717活动内容介绍[多图]

和平精英画质助手v1.8.10类型:动作射击大小:1967MB评分:9平台:标签:射击枪战3D男生精选立即下载 和平精英绝版皮肤快乐主宰正式上线,大家等待了许久的717活动也来临了,下面小编详情>>

阅读: 5
日期: 2020-07-17
火影忍者手游7月17日更新了什么 7月17日更新内容介绍[多图]

火影忍者究极风暴4v1.26.8.1类型:角色扮演大小:1012.19MB评分:9.8平台:标签:剧情动漫格斗火影立即下载 火影忍者手游7月17日更新了什么?今天火影忍者手游迎来一波更新,这次的新详情>>

阅读: 7
日期: 2020-07-17
战双帕弥什湛蓝曙日怎么玩?异聚迷宫夏日大作战活动攻略[多图]

战双帕弥什湛蓝曙日怎么玩?即将在7月23日更新的湛蓝曙日新版本就要和大家见面了, 新的玩法活动接踵而至大家是不是也非常开心呢,不过在新的活动中要怎么玩才能顺利的获得奖励详情>>

阅读: 4
日期: 2020-07-17
微信拍拍你怎么弄?微信拍拍你操作教程[多图]

微信拍拍你也就是新版本中的拍一拍功能,拍拍你的操作玩法特别简单,不过还是有很多人不懂这个新功能,小编在这里将为大家带来微信拍拍你的玩法教程,下面会详细的讲解这个功能带详情>>

阅读: 2
日期: 2020-07-17
全民董事长能赚钱吗?分红能返现吗?[多图]

全民董事长能赚钱吗?全民董事长分红赚钱能提出来吗?相信有很多新加入的这款游戏的朋友都有着这样的好奇,那么今天小编就为大家带来详细的说明,希望能够帮助大家有更多的了解,感详情>>

阅读: 4
日期: 2020-07-17
勇士之光兑换码怎么获得?最新CDK兑换码大全[多图]

勇士之光兑换码是什么?玩家们最想要的就是游戏中的各种礼包兑换码,获得了兑换码的玩家,就等于获得了大量的福利道具,这对于玩家们来说是很重要的,那么小编这就给大家带来最新的详情>>

阅读: 4
日期: 2020-07-17
全民董事长分红是真的吗?分红真的能赚钱吗?[多图]

全民董事长分红是真的吗?全民董事长这款网赚软件很多朋友都还不太了解,关于分红赚钱的问题大家也都非常的好奇,今天小编就将为大家带来详细的介绍,帮助大家有更多的了解,感兴趣详情>>

阅读: 8
日期: 2020-07-17
百鬼逢魔兑换码大全:vip兑换码领取地址[多图]

百鬼逢魔兑换码在哪里可以领取?只要玩家能的到兑换码,那么就会兑换到超多的奖励,这些奖励对初期的玩家们还是很重要的,小编在这里要为大家带来的是vip兑换码的获取方法,另外也详情>>

阅读: 3
日期: 2020-07-17
盗贼之海马帆怎么刷?马帆速刷方法攻略[多图]

盗贼之海马帆怎么刷?最近有很多盗贼之海的玩家朋友们都在问马帆怎么刷?为了帮助大家快速的获得足够的马帆这个道具,今天小编就为大家分享关于盗贼之海马帆怎么刷?马帆速刷方法详情>>

阅读: 13
日期: 2020-07-17
百鬼逢魔在哪输入兑换码?最新vip兑换码大全[多图]

百鬼逢魔vip兑换码怎么获得?想要获得兑换码的玩家非常多,兑换码中拥有很多的福利,这些奖励只需要拥有兑换码就能得到,那么在什么地方能领取到vip兑换码?有了vip兑换码之后怎么详情>>

阅读: 0
日期: 2020-07-17
最强蜗牛供奉周活动降神怎么选?降神奖励最佳选择推荐[多图]

最强蜗牛供奉周活动降神奖励都有哪些呢?对于奖励的选择,很多玩家朋友还在犹豫,不知道降神选择对应的奖励具体有什么,为了帮助大家有更加全面的了解,今天小编就为大家奉上关于最详情>>

阅读: 14
日期: 2020-07-17
最强蜗牛供奉周攻略:供奉周许愿神降选择奖励一览[多图]

最强蜗牛供奉周活动已经开启了,很多朋友不知道在供奉周许愿神降玩法中该怎么进行选择,选择对应的奖励是什么呢?今天小编就为大家分享最强蜗牛供奉周攻略:供奉周许愿神降选择奖详情>>

阅读: 2
日期: 2020-07-17
最强蜗牛供奉周地球意志攻略:供奉周小技巧分享[多图]

最强蜗牛供奉周攻略有哪些小技巧可以掌握的呢?在供奉周活动中,想要更加顺利的获得奖励该怎么玩呢,相信有不少玩家朋友还不太清楚,那么今天小编就为大家带来最强蜗牛供奉周地球详情>>

阅读: 6
日期: 2020-07-17
对马岛之魂武器可以更换吗?主角武器系统攻略[多图]

对马岛之魂武器可以更换吗?很多的玩家朋友对于对马岛之魂主角武器非常好奇,这组双刀武器能不能更换呢?游戏中的武器系统又有着什么样的机制呢?今天小编就为大家分享关于对马岛详情>>

阅读: 6
日期: 2020-07-17
创造与魔法海鳄龙位置在哪里?海鄂龙捕捉攻略[多图]

创造与魔法海鄂龙boss在什么地方能捕捉到?新上线的boss海鄂龙还是很受欢迎的,玩家们都想要获得海鄂龙,但是却不知道在什么地方捕捉海鄂龙,小编今天为大家带来的就是海鄂龙的分详情>>

阅读: 2
日期: 2020-07-17
云顶之弈一周年活动地址是多少?限定宝箱获取方法[多图]

云顶之弈一周年活动地址详情>>

阅读: 1
日期: 2020-07-17
和平精英717活动奖励怎么获得?717空投节奖励白嫖方法攻略[多图]

和平精英717活动奖励怎么获得?717空投节活动重磅来袭,丰富的奖励赢得了很多玩家朋友的喜欢,那么具体要怎么拿到这些奖励呢?今天小编就为大家带来详细的攻略分享,希望大家在游戏详情>>

阅读: 2
日期: 2020-07-17
创造与魔法弹涂鱼在哪钓?弹涂鱼位置坐标分布一览[多图]

创造与魔法弹涂鱼在哪钓?弹涂鱼位置是很多朋友还没有掌握的,想要做新饲料弹涂鱼是不可或缺的材料,那么关于弹涂鱼的具体位置今天小编就为大家带来详细的介绍分享,还没有找到钓详情>>

阅读: 4
日期: 2020-07-17
有了火车随心乘双周卡后怎么购票[多图]

用户在使用12306的时候,是有很多优惠可以使用的,用户可以使用线上优惠卡进行使用,这里有非常多的线上购票优惠,每日都可以使用手机进行选择,很多服务都详情>>

阅读: 5
日期: 2020-07-16
原神可莉的乐团套、魔女套如何选择?对比解析[视频][多图]

  原神可莉的乐团套、魔女套如何选择?原神中可莉带魔女套和乐团套效果都是挺不错的,那么到底要带哪个套装最好呢?小编针对这两个套装进行了一天的测详情>>

阅读: 2
日期: 2020-07-16
手机淘宝U先试用怎么参加[多图]

手机淘宝是一个商品非常丰富的购物软件,在这个软件中,用户可以使用手机进行选择和购买,在使用淘宝的时候,还有一个u先试用功能,这个平台上的商品全部都详情>>

阅读: 0
日期: 2020-07-16
云顶之弈一周年活动限定宝箱获取方法[多图]

云顶之弈一周年活动限定宝箱要怎么获得?马上就要开启这个一周年活动,很多玩家都还不清楚这个活动的玩法,下面就让浏览器小编为大家带来,云顶之弈一周年详情>>

阅读: 9
日期: 2020-07-16
京东上的东东农场怎么玩[多图]

京东是一个超级方便好用的购物软件,这款软件可以为用户提供非常丰富的服务,用户可以在平台上选择自己想要的商品,然后就可以马上下单使用了,在使用的时详情>>

阅读: 0
日期: 2020-07-16
qq怎么设置简洁模式[多图]

qq是一个超级好用的社交软件,很多用户都会使用这款软件互动社交,超多好用的服务都可以轻松使用,用户在使用的时候可以设置一个自己喜欢的模式,这样在社详情>>

阅读: 1
日期: 2020-07-16
微信怎么替换上一张头像[多图]

微信是一个非常好用的社交服务软件,很多用户在使用手机的时候,都很喜欢更换自己的头像,头像也代表了对外自己的形象,如果用户在使用的时候,替换了头像以详情>>

阅读: 0
日期: 2020-07-16
少年三国志2清风化煞怎么打 清风化煞通关打法攻略[多图]

少年三国志2官网版v1.17.78类型:角色扮演大小:534MB评分:10平台:标签:三国热血战争题材历史立即下载 少年三国志2清风化煞这个最新联动副本,很多玩家都不清楚该如何通关,那么具详情>>

阅读: 6
日期: 2020-07-16
不思议迷宫劲爽一夏1定向越野怎么过?2020暑期定向越野任务完成攻略[多图]

不思议迷宫2020暑期定向越野任务已经开放,这次开放的是三个任务,也就是暑期定向越野的一部分,这次的任务会分成两个阶段上线,那么我们就先来看看这上线的三个任务吧,定向越野任详情>>

阅读: 9
日期: 2020-07-16
创造与魔法海鳄龙怎么获得?全新boss海鳄龙获取攻略[多图]

创造与魔法全新boss海鳄龙的获取方法是什么?新上线的海鳄龙让玩家们很想要获得,毕竟这个boss的外形就很吸睛,相信很多玩家都会对海鳄龙着迷,小编则就会为大家带来海鳄龙的获取详情>>

阅读: 9
日期: 2020-07-16
花艺趣怎么玩?快速升级赚钱攻略[多图]

花艺趣APP怎么样才能赚到钱?这款软件通过种植花朵升级赚钱,想要升级需要怎么做?这次我们来了解快速升级的技巧,对赚钱的玩法有一定了解,下面会为大家带来的就是升级赚钱的攻详情>>

阅读: 11
日期: 2020-07-16
龙之谷2手游贤者加点技能图一览:贤者最强加点方案[多图]

龙之谷2手游贤者加点是很多玩家朋友关心的问题,贤者玩家群体非常多,每个人对于加点方案都有不同的理解,那么今天小编就为大家分享一套龙之谷2手游贤者加点技能图,希望给予广大详情>>

阅读: 2
日期: 2020-07-16
精彩推荐