您当前所在位置: > 爆料站 > 有深度

工程之道:旷视天元框架亚线性显存优化技术解析

时间:2020-05-07 13:10:09  来源:  作者:网络

原标题:工程之道:旷视天元框架亚线性显存优化技术解析

机器之心发布

旷视研究院

基于梯度检查点的亚线性显存优化方法 [1] 由于较高的计算/显存性价比受到关注。MegEngine 经过工程扩展和优化,发展出一套行之有效的加强版亚线性显存优化技术,既可在计算存储资源受限的条件下,轻松训练更深的模型,又可使用更大 batch size,进一步提升模型性能,稳定 batchwise 算子。使用 MegEngine 训练 ResNet18/ResNet50,显存占用分别最高降低 23%/40%;在更大的 Bert 模型上,降幅更是高达 75%,而额外的计算开销几乎不变。

深度神经网络训练是一件复杂的事情,它体现为模型的时间复杂度和空间复杂度,分别对应着计算和内存;而训练时内存占用问题是漂浮在深度学习社区上空的一块乌云,如何拨云见日,最大降低神经网络训练的内存占用,是一个绕不开的课题。

GPU 显卡等硬件为深度学习提供了必需的算力,但硬件自身有限的存储,限制了可训练模型的尺寸,尤其是大型深度网络,由此诞生出一系列相关技术,比如亚线性显存优化、梯度累加、混合精度训练、分布式训练,进行 GPU 显存优化。

其中,亚线性显存优化方法 [1] 由于较高的计算/显存性价比备受关注;旷视基于此,经过工程扩展和优化,发展出加强版的 MegEngine 亚线性显存优化技术,轻松把大模型甚至超大模型装进显存,也可以毫无压力使用大 batch 训练模型。

这里将围绕着深度学习框架 MegEngine 亚线性显存优化技术的工程实现和实验数据,从技术背景、原理、使用、展望等多个方面进行首次深入解读。

背景

在深度学习领域中,随着训练数据的增加,需要相应增加模型的尺寸和复杂度,进行模型「扩容」;而 ResNet [2] 等技术的出现在算法层面扫清了训练深度模型的障碍。不断增加的数据和持续创新的算法给深度学习框架带来了新挑战,能否在模型训练时有效利用有限的计算存储资源,尤其是减少 GPU 显存占用,是评估深度学习框架性能的重要指标。

在计算存储资源一定的情况下,深度学习框架有几种降低显存占用的常用方法,其示例如下:

  • 通过合适的梯度定义,让算子的梯度计算不再依赖于前向计算作为输入,从而 in-place 地完成算子的前向计算,比如 Sigmoid、Relu 等;
  • 在生命周期没有重叠的算子之间共享显存;
  • 通过额外的计算减少显存占用,比如利用梯度检查点重新计算中间结果的亚线性显存优化方法 [1];
  • 通过额外的数据传输减少显存占用,比如把暂时不用的数据从 GPU 交换到 CPU,需要时再从 CPU 交换回来。

上述显存优化技术在 MegEngine 中皆有不同程度的实现,这里重点讨论基于梯度检查点的亚线性显存优化技术。

原理

一个神经网络模型所占用的显存空间大体分为两个方面:1)模型本身的参数,2)模型训练临时占用的空间,包括参数的梯度、特征图等。其中最大占比是 2)中以特征图形式存在的中间结果,比如,从示例 [1] 可知,根据实现的不同,从 70% 到 90% 以上的显存用来存储特征图。

这里的训练过程又可分为前向计算,反向计算和优化三个方面,其中前向计算的中间结果最占显存,还有反向计算的梯度。第 1)方面模型自身的参数内存占用最小。

MegEngine 加强版亚线性显存优化技术借鉴了 [1] 的方法,尤其适用于计算存储资源受限的情况,比如一张英伟达 2080Ti,只有 11G 的显存;而更贵的 Tesla V100,最大显存也只有 32G。

图 1:亚线性显存优化原理,其中 (b) 保存了 Relu 结果,实际中 Relu 结果可用 in-place 计算

图 1(a) 给出了卷积神经网络的基本单元,它由 Conv-BN-Relu 组成。可以看到,反向计算梯度的过程依赖于前向计算获取的中间结果,一个网络需要保存的中间结果与其大小成正比,即显存复杂度为 O(n)。

本质上,亚线性显存优化方法是以时间换空间,以计算换显存,如图 1(b) 所示,它的算法原理如下:

  • 选取神经网络中 k 个检查点,从而把网络分成 k 个 block,需要注意的是,初始输入也作为一个检查点;前向计算过程中只保存检查点处的中间结果;
  • 反向计算梯度的过程中,首先从相应检查点出发,重新计算单个 block 需要的中间结果,然后计算 block 内部各个 block 的梯度;不同 block 的中间结果计算共享显存。

这种方法有着明显的优点,即大幅降低了模型的空间复杂度,同时缺点是增加了额外的计算:

  • 显存占用从 O(n) 变成 O(n/k)+ O(k),O(n/k) 代表计算单个节点需要的显存,O(k) 代表 k 个检查点需要的显存,取 k=sqrt(n),O(n/k)+ O(k)~O(sqrt(n)),可以看到显存占用从线性变成了亚线性;
  • 因为在反向梯度的计算过程中需要从检查点恢复中间结果,整体需要额外执行一次前向计算。

工程

在 [1] 的基础上,MegEngine 结合自身实践,做了工程扩展和优化,把亚线性显存优化方法扩展至任意的计算图,并结合其它常见的显存优化方法,发展出一套行之有效的加强版亚线性显存优化技术。

亚线性优化方法采用简单的网格搜索(grid search)选择检查点,MegEngine 在此基础上增加遗传算法,采用边界移动、块合并、块分裂等策略,实现更细粒度的优化,进一步降低了显存占用。

如图 2 所示,采用型号为 2080Ti 的 GPU 训练 ResNet50,分别借助基准、亚线性、亚线性+遗传算法三种显存优化策略,对比了可使用的最大 batch size。仅使用亚线性优化,batch size 从 133 增至 211,是基准的 1.6x;而使用亚线性+遗传算法联合优化,batch size 进一步增至 262,较基准提升 2x。

图 2:三种显存优化方法优化 batch size 的对比:ResNet50

通过选定同一模型、给定 batch size,可以更好地观察遗传算法优化显存占用的情况。如图 3 所示,随着迭代次数的增加,遗传算法逐渐收敛显存占用,并在第 5 次迭代之后达到一个较稳定的状态。

图 3:遗传算法收敛示意图

此外,MegEngine 亚线性优化技术通过工程改良,不再局限于简单的链状结构和同质计算节点, 可用于任意的计算图,计算节点也可异质,从而拓展了技术的适用场景;并可配合上述显存优化方法,进一步降低模型的显存占用。

实验

MegEngine 基于亚线性显存技术开展了相关实验,这里固定 batch size=64,在 ResNet18 和 ResNet50 两个模型上,考察模型训练时的显存占用和计算时间。

如图 4 所示,相较于基准实现,使用 MegEngine 亚线性显存技术训练 ResNet18 时,显存占用降低 32%,计算时间增加 24%;在较大的 ReNet50 上,显存占用降低 40%,计算时间增加 25%。同时经过理论分析可知,模型越大,亚线性显存优化的效果越明显,额外的计算时间则几乎不变。

图 4:MegEngine 亚线性优化技术实验显存/时间对比:ReNet18/ReNet50

在更大模型 Bert 上实验数据表明,借助 MegEngine 亚线性显存技术,显存占用最高降低 75%,而计算时间仅增加 23%,这与理论分析相一致。有兴趣的同学可前往 MegEngine ModeHub 试手更多模型实验:https://megengine.org.cn/model-hub/。

使用

MegEngine 官网提供了亚线性显存优化技术的使用文档。当你的 GPU 显存有限,苦于无法训练较深、较大的神经网络模型,或者无法使用大 batch 进一步提升深度神经网络的性能,抑或想要使 batchwise 算子更加稳定,那么,MegEngine 亚线性显存优化技术正是你需要的解决方案。

上手 MegEngine 亚线性优化技术非常便捷,无需手动设定梯度检查点,通过几个简单的参数,轻松控制遗传算法的搜索策略。具体使用时,在 MegEngine 静态图接口中调用 SublinearMemoryConfig 设置 trace 的参数 sublinear_memory_config,即可打开亚线性显存优化:

from megengine.jit import trace, SublinearMemoryConfig

config = SublinearMemoryConfig

@trace(symbolic=True, sublinear_memory_config=config)def train_func(data, label, *, net, optimizer):...

MegEngine 在编译计算图和训练模型时,虽有少量的额外时间开销,但会显著缓解显存不足问题。下面以 ResNet50 为例,说明 MegEngine 可有效突破显存瓶颈,训练 batch size 从 100 最高增至 200:

import osfrom multiprocessing import Process

def train_resnet_demo(batch_size, enable_sublinear, genetic_nr_iter=0):import megengine as mgeimport megengine.functional as Fimport megengine.hub as hubimport megengine.optimizer as optimfrom megengine.jit import trace, SublinearMemoryConfigimport numpy as np

print("Run with batch_size={}, enable_sublinear={}, genetic_nr_iter={}".format(batch_size, enable_sublinear, genetic_nr_iter))# 使用GPU运行这个例子assert mge.is_cuda_available, "Please run with GPU"try:# 我们从 megengine hub 中加载一个 resnet50 模型。resnet = hub.load("megengine/models", "resnet50")

optimizer = optim.SGD(resnet.parameters, lr=0.1,)

config = Noneif enable_sublinear:config = SublinearMemoryConfig(genetic_nr_iter=genetic_nr_iter)

@trace(symbolic=True, sublinear_memory_config=config)def train_func(data, label, *, net, optimizer):pred = net(data)loss = F.cross_entropy_with_softmax(pred, label)optimizer.backward(loss)

resnet.trainfor i in range(10):batch_data = np.random.randn(batch_size, 3, 224, 224).astype(np.float32)batch_label = np.random.randint(1000, size=(batch_size,)).astype(np.int32)optimizer.zero_gradtrain_func(batch_data, batch_label, net=resnet, optimizer=optimizer)optimizer.stepexcept:print("Failed")return

print("Sucess")

# 以下示例结果在2080Ti GPU运行得到,显存容量为 11 GB

# 不使用亚线性内存优化,允许的batch_size最大为 100 左右p = Process(target=train_resnet_demo, args=(100, False))p.startp.join# 报错显存不足p = Process(target=train_resnet_demo, args=(200, False))p.startp.join

# 使用亚线性内存优化,允许的batch_size最大为 200 左右p = Process(target=train_resnet_demo, args=(200, True, 20))p.startp.join

展望

如上所述,MegEngine 的亚线性显存优化技术通过额外做一次前向计算,即可达到 O(sqrt(n)) 的空间复杂度。如果允许做更多次的前向计算,对整个网络递归地调用亚线性显存算法,有望在时间复杂度为 O(n log n) 的情况下,达到 O(log n) 的空间复杂度。

更进一步,MegEngine 还将探索亚线性显存优化技术与数据并行/模型并行、混合精度训练的组合使用问题,以期获得更佳的集成效果。最后,在 RNN 以及 GNN、Transformer 等其他类型网络上的使用问题,也是 MegEngine 未来的一个探索方向。

欢迎访问

  • MegEngine GitHub:https://github.com/MegEngine
  • MegEngine 官网:https://megengine.org.cn
  • MegEngine ModelHub:https://megengine.org.cn/model-hub/

参考文献

1.Chen, T., Xu, B., Zhang, C., & Guestrin, C. (2016). Training deep nets with sublinear memory cost. arXiv preprint arXiv:1604.06174.

2.He, K., Zhang, X., Ren, S., & Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 770-778).

本 文为机器之心发布, 转载请联系本公众号获得授权 。游戏网

相关下载

玩家评论

王者荣耀天元币在哪兑换物品-王者荣耀天元币兑换位置_快吧手游

王者荣耀手游中,天元币可以在天元赛的“兑换奖励”内兑换精灵和皮肤在模拟战中的赛季使用资格。兑换奖励的位置则位于王者模拟战左上方的天元赛内,玩家点击进入天详情>>

阅读: 0
日期: 2020-05-06
天元突破红莲螺岩X机动战队联动 螺旋王登场

《天元突破红莲螺岩》X《机动战队》联动5月1日开启!第三弹联动公布了哪些角色,这些角色的能力都有哪些,机师的设定是什么,一起来看看本次的机动战队联详情>>

阅读: 14
日期: 2020-04-29
支持农民工讨薪株洲天元法院判决两起拒不支付劳动报酬案件

原标题:支持农民工讨薪 株洲天元法院判决两起拒不支付劳动报酬案件 红网时刻株洲4月24日讯(通讯员 谢炜)“真是没想到,法院在疫情特殊时期还为我们讨详情>>

阅读: 5
日期: 2020-04-25
鬼灭之刃:音柱宇髄天元和迪达拉神相似,普通人hold不住啊_爆炸

原标题:鬼灭之刃:音柱宇髄天元和迪达拉神相似,普通人hold不住啊 鬼灭之刃中鬼杀队有九大高手,这几个人被称为是住,其中音柱宇髄天元是一位非常华丽的人详情>>

阅读: 3
日期: 2020-04-13
杨坚夺取周宣帝的皇位后,是如何处理天元大皇后杨丽华?_宇文赟

原标题:杨坚夺取周宣帝的皇位后,是如何处理天元大皇后杨丽华? 纵观中国古代史,宦官干政和外戚专权始终是两个“尾大不掉”的难题,几乎历朝历代或多或少都会详情>>

阅读: 1
日期: 2020-04-10
中国AI开源的新生力量!旷视“天元”深度学习框架全解读

原标题:中国AI开源的新生力量!旷视“天元”深度学习框架全解读 智东西(公众号:zhidxcom) 文 | 韦世玮 中国AI开源阵营再添一军! 3月25日,旷视宣布正式开详情>>

阅读: 1
日期: 2020-03-26
旷视宣布开源深度学习框架天元:让一部分企业先实现AI+

原标题:旷视宣布开源深度学习框架天元:让一部分企业先实现AI+ 3月25日,旷视举办线上发布会,旷视联合创始人兼CTO唐文斌重新定义了人工智能底层的基础详情>>

阅读: 3
日期: 2020-03-26
「天元」开源,旷视抢占人工智能棋局中的天元位置

原标题:「天元」开源,旷视抢占人工智能棋局中的天元位置 3月25日,旷视以线上发布会的形式宣布开源深度学习框架MegEngine,并正式将其中文名定为“天元详情>>

阅读: 3
日期: 2020-03-26
旷视开源深度学习框架天元!动静合一,训推一体,落地边缘设备

原标题:旷视开源深度学习框架天元!动静合一,训推一体,落地边缘设备 大数据文摘出品 作者:刘俊寰 疫情中的深度学习领域又有大动作。 3月25日下午,旷视详情>>

阅读: 2
日期: 2020-03-26
汉家江湖天元对决攻略大全天元对决玩法详解

  汉家江湖中天元对决是一个全新的玩法,那么到底要怎么做比较好呢?希望下面这篇汉家江湖天元对决攻略大全能帮到大家。汉家江湖天元对决攻略大全  玩法简介:在实时对战的精详情>>

阅读: 7
日期: 2020-03-26
旷视推出训推一体化深度学习框架天元助力工业级算法研发

原标题:旷视推出训推一体化深度学习框架 天元助力工业级算法研发 3月25日下午,中国人工智能领军企业旷视科技举办线上发布会,正式宣布开源新一代AI生详情>>

阅读: 3
日期: 2020-03-25
【卓越天元】这是多大的样板间?精装交付吗?

350,350平米,346平米左右,参考一楼,346平米,毛坯交付详情>>

阅读: 3
日期: 2020-03-17
天命!连中两个大死亡二狗登梦幻西游群雄逐鹿天元组冠军宝座

2019群雄逐鹿年度总决赛天元组总决赛由齐云楼的“冷风冷夜”战队VS牡丹亭的“魑魅魍魉”战队。 “冷风冷夜”战队指挥是成名已久的二狗,战队为齐云详情>>

阅读: 9
日期: 2019-12-23
群雄逐鹿天元组静待新王恋街领军齐云楼迎战牡丹亭

  2019年群雄逐鹿年度赛决赛有些让人意外,意外的是夺冠热门钓鱼岛、紫禁城、姑苏城、珍宝阁的提前退场,意外的也是本年度战绩不佳的齐云楼与牡丹亭的异军突起。   那虚详情>>

阅读: 9
日期: 2019-12-20
群雄逐鹿天元组静待新王,恋街领军齐云楼迎战牡丹亭

2019年群雄逐鹿年度赛决赛有些让人意外,意外的是夺冠热门钓鱼岛、紫禁城、姑苏城、珍宝阁的提前退场,意外的也是本年度战绩不佳的齐云楼与牡丹亭的异军突起。 那虚详情>>

阅读: 12
日期: 2019-12-20
《忍者必须死3》11月14日更新公告天元赛开启决斗场改版

《忍者必须死3》在11月14日将进行一次停服维护,本次维护结束后将开启新赛季的“天元赛”模式,此外还有各种相关的天元奖励以及3V3战场的部分改动。接下来让我们看一看详细信详情>>

阅读: 11
日期: 2019-11-14
天元之阵8090《蓝月传奇》蓝月秘境

  在8090蓝月传奇的全新版本中,更新了阵法的内容,玩家可以通过升级阵法,获得相应的阵法技能,那么该如何提升阵法等级呢?  蓝月传奇官网:http://lycq.8090.com/   此时我们详情>>

阅读: 11
日期: 2019-11-13
天元之阵8090《蓝月传奇》蓝月秘境_游戏新闻-游侠网页游戏

  在8090蓝月传奇的全新版本中,更新了阵法的内容,玩家可以通过升级阵法,获得相应的阵法技能,那么该如何提升阵法等级呢?  蓝月传奇官网:http://lycq.8090.com/   此时我们详情>>

阅读: 11
日期: 2019-11-13
天元之阵 8090《蓝月传奇》蓝月秘境_游戏新闻

  在8090蓝月传奇的全新版本中,更新了阵法的内容,玩家可以通过升级阵法,获得相应的阵法技能,那么该如何提升阵法等级呢?   蓝月传奇官网:http://lycq.8090.com/  详情>>

阅读: 8
日期: 2019-11-12
忍者必须死3天元赛怎么参加天元赛规则及奖励一览

天元赛是忍者必须死3中的顶级排位赛,只有当前段位不低于修罗5且曾经达到过修罗3的忍者才可以参加。那么拥有这么苛刻的条件,天元赛的奖励是什么样的呢?它又有什么特别的规则呢?详情>>

阅读: 24
日期: 2019-11-11
【简析】井山力守天元,成为日本头衔战历史第一人——第44期天元战第5局山下敬吾vs井山裕太

原标题:【简析】井山力守天元,成为日本头衔战历史第一人——第44期天元战第5局 山下敬吾 vs 井山裕太 这是日本五番棋(王座、天元、十段、碁圣、女流详情>>

阅读: 19
日期: 2019-09-05
天津警方通报“广泰天元”非吸案:起诉20人,审计涉案资金

天津市公安局河北分局官方微博@平安河北区 8月19日下午发布案情通报称,2018年8月10日,天津市公安局河北分局对北京广泰天元投资管理有限公司天津分公司(以下简称“广泰天元公司详情>>

阅读: 24
日期: 2019-08-19
天元如何获得导师经验值???

点击收益。2.经验必须要徒弟有贡献给你才会有,如果他不去打怪的话, 你就没的贡献经验,如果他去的话,你就会有徒弟贡献经验,这样你才能用导详情>>

阅读: 19
日期: 2019-08-18
金大地天元府什么时候开盘啊?

搜狐焦点合肥站 1小时前 金大地天元府建筑面积约75-139㎡云阶臻稀府宅,目前正在预约中,具体开盘时间待定。详情>>

阅读: 8
日期: 2019-08-07
天下3神嗷啸天元魂珠怎么获得

天下3的元魂珠要怎么获得,获得元魂珠攻略。攻略对象天下3元魂珠的作用1人物可以幻化为该魂珠兽来战斗,得到高战斗力。2第二是可以增加人物的属性点,使角色战斗上升。3第三就是详情>>

阅读: 20
日期: 2019-06-22
新寻仙洗满的凤麟灵装备分解能返还多少天元

Game234问答中心有网友提出了一个比较有代表性的问题【新寻仙洗满的凤麟灵装备分解能返还多少天元】,小编觉得可能对其他网友也有帮助,所以将此问答整理出来了,希望对您有帮助。小编为您搜罗的答案1还不如详情>>

阅读: 17
日期: 2019-04-17
QQ三国天元晶魄怎么获得?

Game234问答中心有网友提出了一个比较有代表性的问题【QQ三国天元晶魄怎么获得?】,小编觉得可能对其他网友也有帮助,所以将此问答整理出来了,希望对您有帮助。小编为您搜罗的答案1可以在每天星期六的千详情>>

阅读: 25
日期: 2019-04-17
楚留香手游生死剑冢决胜天元赛事规则介绍

楚留香手游目前开启了全新的电竞比赛,小伙伴们可以前往报名参加预赛对决,从而参加后期的战队活动比赛哦!有丰厚的奖励获得!下面是具体的攻略分享,感兴趣的快来看下吧! 楚留香手详情>>

阅读: 13
日期: 2019-03-31
楚留香手游生死剑冢决胜天元报名时间规则一览

  在楚留香手游中生死剑冢赛季即将结束,这也代表着生死剑冢的第一届决胜天元赛事即将开启。那么,大家知道在游戏生死剑冢决胜天元怎么报名吗?本期小编就给大家带来了楚留香详情>>

阅读: 39
日期: 2019-03-29
《星际争霸2》Beta录像:MTY马天元精彩录像包游戏辅助下载

中文名称:星际争霸2发布日期:2010-03-03更新日期:--文件大小:1.0M游戏语言:英文英文名称:StarCraftII游戏制作:暴雪游戏发行:暴雪上市时间:2010-0详情>>

阅读: 7
日期: 2019-03-27
《天元》分次更新包下载

游戏类型:奇幻文件大小:<10MB游戏语言:简体中文运营:网龙应用平台:WindowsXP/Vista/7安全认证:《天元》分次更新包下载版本号:更新至1777进行手动更新时,请根据您详情>>

阅读: 22
日期: 2019-03-14
《天元》最新版客户端下载

游戏类型:奇幻文件大小:1.81GB游戏语言:简体中文运营:网龙应用平台:WIN9X/2000/XP/VISTA安全认证:《天元》新版本不删档内测客户端下载版本号:1728 游戏介详情>>

阅读: 21
日期: 2019-03-14
《梦幻西游》电脑版三界之星春季邀请赛神威天元两大组别对决 腥风血雨向晋级冲击

2月23日,三界之星春季邀请赛第二个比赛日共进行了两个组别的八场比赛,分别是神威组第二轮,其中:胜者组小鸡送分战胜了招队友;朗哥粉丝战胜了为了520;败者组千万里战胜重新起航;扬帆起航战胜了送分小鸡。详情>>

阅读: 7
日期: 2019-03-01
天元心法五大属性 传奇世界修真“五道光”

随着天元心法二期即将开启,让我们来解构天元心法五大属性,看看《传奇世界》玩家修真路上五道神奇的“希望之光... 详情>>

阅读: 5
日期: 2019-02-16
天元突破、斩服少女导演新动画PV放出 美式风格超燃

  由日本知名动画导演今石洋之担任导演的新作剧场版动画《Promare》在今天(1月23日)公开了最新的PV和各种详情,本作由中岛一基担任编剧,今石洋之×中岛一基的详情>>

阅读: 9
日期: 2019-01-23
炉石传说卡组分享 强力天元骑带你上分

·炉石传说维纶宇宙牧大型攻略[01-30] ·炉石新版教主来说 强弱明显反向[12-05...且在天梯和比赛实测出来的,本月4级开打70胜率打上传说的卡组,也打了三亚的... 详情>>

阅读: 4
日期: 2018-12-28
寻仙手游一品天元仙露有哪些获得方法 获得方法

寻仙手游一品天元仙露有哪些获得方法呢?相信还有小伙伴不是很清楚吧。下面小编为大家带来了相关的正确解答,... 详情>>

阅读: 4
日期: 2018-12-21
寻仙手游一品天元仙露获得方法汇总

寻仙手游一品天元仙露有哪些获得方法呢?相信还有小伙伴不是很清楚吧。下面小编为大家带来了相关的正确解答,一起来看看~ 寻仙手游一品天元仙露获得方法 详情>>

阅读: 1
日期: 2018-12-21
寻仙手游天元仙露怎么得 天元仙露作用详解

寻仙手游天元仙露是融合宠物需要用到的道具,如果你想将你的骑宠进化为仙品坐骑那么就需要用到天元仙露,那么天元仙露怎么得?下面小编就带来寻仙手游天元仙露获取... 详情>>

阅读: 0
日期: 2018-12-21
寻仙手游一品二品天元仙露获取攻略

天元仙露是寻仙手游游戏中非常重要的升级材料,天元仙露的获取主要是交易所购买及侍宠的合成。接下来小编就为大家讲解寻仙手游天元仙露的获取方法。寻仙手游一品二品... 详情>>

阅读: 4
日期: 2018-12-21
精彩推荐