高考考试网
当前位置: 首页 高考资讯

gpu训练(1块GPU几行代码大模型训练提速40)

时间:2023-07-02 作者: 小编 阅读量: 1 栏目名: 高考资讯

而Colossal-AI这波操作,是让公开模型的训练微调变得更加切实可行。单张GPU上,相比于微软的DeepSpeed,使用Colossal-AI的自动优化策略,最快能实现40%的加速。它由MetaAI发布,对标GPT-3,最大参数量可达1750亿。比如在一张GPU上,以异构训练为例,只需在配置文件里加上相关配置项,并不需要更改代码的训练逻辑。这样可以由Colossal-AI自动化地实时动态选择最佳异构策略,最大化计算效率。发挥核心作用的是Colossal-AI系统的高效异构内存管理子系统Gemini。

gpu训练?明敏 发自 凹非寺量子位 | 公众号 QbitAI,现在小编就来说说关于gpu训练?下面内容希望能帮助到你,我们来一起看看吧!

gpu训练

明敏 发自 凹非寺

量子位 | 公众号 QbitAI

不得不说,为了让更多人能用上大模型,技术圈真是各出奇招!

模型不够开放?有人自己上手搞免费开源版。

比如最近风靡全网的DALL·E Mini,Meta开放的OPT-175B(Open Pretrained Transformer)

都是通过复刻的方式,让原本不够open的大模型,变成人人可用

还有人觉得模型太大,个人玩家很难承受起天价成本。

所以提出异构内存、并行计算等方法,让大模型训练加速又降本。

比如开源项目Colossal-AI,前不久刚实现了让一块英伟达3090就能单挑180亿参数大模型。

而在这两天,他们又来了一波上新:

无缝支持Hugging Face社区模型,只需添加几行代码,就能实现大模型的低成本训练和微调。

要知道,Hugging Face作为当下最流行的AI库之一,提供了超过5万个AI模型的实现,是许多AI玩家训练大模型的首选。

而Colossal-AI这波操作,是让公开模型的训练微调变得更加切实可行。

并且在训练效果上也有提升。

单张GPU上,相比于微软的DeepSpeed,使用Colossal-AI的自动优化策略,最快能实现40%的加速。

而PyTorch等传统深度学习框架,在单张GPU上已经无法运行如此大的模型。

对于使用8张GPU的并行训练,仅需在启动命令中添加-nprocs 8就能实现。

这波下来,可以说是把个人AI玩家需要考虑的成本、效率、实操问题,都拿捏住了~

无需修改代码逻辑

光说不练假把式。

下面就以OPT为例,详细展开看看Colossal-AI的新功能到底怎么用。

OPT,全称为Open Pretrained Transformer。

它由Meta AI发布,对标GPT-3,最大参数量可达1750亿。

最大特点就是,GPT-3没有公开模型权重,而OPT开源了所有代码及权重。

因此,每一位开发者都能在此基础上开发个性化的下游任务。

下面的举例,就是根据OPT提供的预训练权重,进行因果语言模型(Casual Language Modelling)的微调。

主要分为两个步骤:

  • 添加配置文件
  • 运行启动

    第一步,是根据想进行的任务添加配置文件。

    比如在一张GPU上,以异构训练为例,只需在配置文件里加上相关配置项,并不需要更改代码的训练逻辑。

    比如,tensor_placement_policy决定了异构训练的策略,参数可以为CUDA、CPU及auto。

    每个策略的优点不同、适应的情况也不一样。

    CUDA:将全部模型参数都放置于GPU上,适合不offload时仍然能进行训练的传统场景

    CPU:将模型参数都放置在CPU内存中,仅在GPU显存中保留当前参与计算的权重,适合超大模型的训练。

    auto:根据实时的内存信息,自动决定保留在GPU显存中的参数量,这样能最大化利用GPU显存,同时减少CPU-GPU之间的数据传输。

    对于普通用户来说,使用auto策略是最便捷的。

    这样可以由Colossal-AI自动化地实时动态选择最佳异构策略,最大化计算效率。

    from colossalai.zero.shard_utils import TensorShardStrategyzero = dict(model_config=dict(shard_strategy=TensorShardStrategy(),tensor_placement_policy="auto"),optimizer_config=dict(gpu_margin_mem_ratio=0.8))

    第二步,是在配置文件准备好后,插入几行代码来启动新功能。

    首先,通过一行代码,使用配置文件来启动Colossal-AI。

    Colossal-AI会自动初始化分布式环境,读取相关配置,然后将配置里的功能自动注入到模型及优化器等组件中。

    colossalai.launch_from_torch(config='/configs/colossalai_zero.py')

    然后,还是像往常一样定义数据集、模型、优化器、损失函数等。

    比如直接使用原生PyTorch代码,在定义模型时,只需将模型放置于ZeroInitContext下初始化即可。

    在这里,使用的是Hugging Face提供的OPTForCausalLM模型以及预训练权重,在Wikitext数据集上进行微调。

    with ZeroInitContext(target_device=torch.cuda.current_device(), shard_strategy=shard_strategy,shard_param=True):model = OPTForCausalLM.from_pretrained('facebook/opt-1.3b'config=config)

    接下来,只需要调用colossalai.initialize,便可将配置文件里定义的异构内存功能统一注入到训练引擎中,即可启动相应功能。

    engine, train_dataloader, eval_dataloader, lr_scheduler = colossalai.initialize(model=model,optimizer=optimizer,criterion=criterion,train_dataloader=train_dataloader,test_dataloader=eval_dataloader,lr_scheduler=lr_scheduler)

    还是得靠GPU CPU异构

    而能够让用户实现如上“傻瓜式”操作的关键,还是AI系统本身要足够聪明。

    发挥核心作用的是Colossal-AI系统的高效异构内存管理子系统Gemini

    它就像是系统内的一个总管,在收集好计算所需的信息后,动态分配CPU、GPU的内存使用。

    具体工作原理,就是在前面几个step进行预热,收集PyTorch动态计算图中的内存消耗信息。

    在预热结束后,计算一个算子前,利用收集的内存使用记录,Gemini将预留出这个算子在计算设备上所需的峰值内存,并同时从GPU显存移动一些模型张量到CPU内存。

    Gemini内置的内存管理器给每个张量都标记一个状态信息,包括HOLD、COMPUTE、FREE等。

    然后,根据动态查询到的内存使用情况,不断动态转换张量状态、调整张量位置。

    带来的直接好处,就是能在硬件非常有限的情况下,最大化模型容量和平衡训练速度。

    要知道,业界主流方法ZeRO (Zero Reduency Optimizer),尽管也利用CPU GPU异构内存的方法,但是由于是静态划分,还是会引起系统崩溃、不必要通信量等问题。

    而且,使用动态异构CPU GPU内存的办法,还能用加内存条的办法来扩充内存。

    怎么也比买高端显卡划算多了。

    目前,使用Colossal-AI的方法,RTX 2060 6GB普通游戏本能训练15亿参数模型;RTX 3090 24GB主机直接单挑180亿参数大模型;Tesla V100 32GB连240亿参数都能拿下。

    除了最大化利用内存外,Colossal-AI还使用分布式并行的方法,让训练速度不断提升。

    它提出同时使用数据并行、流水并行、2.5维张量并行等复杂并行策略

    方法虽复杂,但上手却还是非常“傻瓜操作”,只需简单声明,就能自动实现。

    无需像其他系统和框架侵入代码,手动处理复杂的底层逻辑。

    parallel = dict(pipeline=2,tensor=dict(mode='2.5d', depth = 1, size=4))

    Colossal-AI还能做什么?

    实际上,自开源以来,Colossal-AI已经多次在GitHub及Papers With Code热榜位列世界第一,在技术圈小有名气。

    除了如上提到的用单张GPU训练大模型外,Colossal-AI在扩展至数十张甚至数百张GPU的大规模并行场景时,相比于英伟达Megatron-LM等现有系统,性能可以翻倍,使用资源可以降低至其十分之一之下。

    换算一下,在预训练GPT-3等超大AI模型上,节省的费用可以达到数百万元。

    据透露,Colossal-AI相关的解决方案已经被自动驾驶、云计算、零售、医药、芯片等行业的知名厂商用上了。

    与此同时,他们也非常注重开源社区建设,提供中文教程、开放用户社群论坛,根据大家的需求反馈不断更新迭代。

    比如我们发现,之前有粉丝留言询问,Colossal-AI能否直接加载Hugging Face上的一些模型?

    好嘛,这次更新就来了。

    所以,对于大模型训练,你觉得现在还有哪些难点亟需解决呢?

    欢迎评论区留言讨论~

    传送门

    项目地址:http://github.com/hpcaitech/ColossalAI

    参考链接:[1]http://medium.com/@yangyou_berkeley/colossal-ai-seamlessly-accelerates-large-models-at-low-costs-with-hugging-face-4d1a887e500d[2]http://arxiv.org/abs/2202.05924v2[3]http://arxiv.org/abs/2205.11487[4]http://github.com/features/copilot[5]http://github.com/huggingface/transformers

    — 完 —

    量子位 QbitAI · 头条号签约

    关注我们,第一时间获知前沿科技动态

    • 推荐阅读
    • 动漫游戏实力比拼谁强谁弱(你所不知道的黑帮知识)

      黑社会组织协助政治家拉选票,资金帮助,甚至充当政治打手,这也是黑道一直存在的原因虽然拥有如此多的帮派和成员,日本却是世界上犯罪率最低的国家之一,从某些方面也与黑道有一定关系,这就是我下面要说的。日本黑道通过拟定一种近似于血缘的一种亲密关系,将组织内部阶级关系紧密地结合在了一起,同时又使上下阶级严整分明,组长是属于家父,父执辈。

    • 喜欢vero moda几年前的衣服(VeroModa你也太讨喜了吧)

      更何况前端时间宣布全面退出中国的Forever21,是否合身也是备受诟病的一点。可是VM在国内售卖的所有款式,几乎都会进行设计调整。像这段时间,就是以最新的江疏影海报、折扣pop与新款服装结合来陈列的,强调店内折扣的同时宣传新款。

    • 绿野仙踪读后感(看完绿野仙踪感受)

      绿野仙踪读后感我有本好故事名叫《绿野仙踪》。可爱的小女孩多萝茜和亨利叔叔、艾姆婶婶住在堪萨斯州大草原上,过着简单的生活。龙卷风来了,把多萝西和小狗托托卷到一个陌生的地方。他们一起去找奥茨大王,爬山涉水,想方设法解决了一个一个的难题,打败了凶猛的虎头熊。但是奥茨大王是个老头,于是多萝西就靠自己的力量回家了,伙伴们的愿望也都实现了。这是我最喜欢的故事书,因为多萝西和伙伴们拥有智慧和力量,战胜一切困难。

    • 秋冬季适合新手好养的花(这些适合秋天养的花)

      花期为10月至次年2月,秋天养蟹爪兰,至少能观花5个月。蟹爪兰属短日照植物,每天日照8—10小时的条件下,2—3个月即可开花,可通过控制光照来调节花期。

    • 衣服被弄上黑水笔印怎么洗掉(衣服被弄上黑水笔印如何洗掉)

      下面希望有你要的答案,我们一起来看看吧!衣服被弄上黑水笔印怎么洗掉清洗掉衣服上的黑水笔笔油污渍需要备好:小苏打、清水、牙膏、水盆。下面用手指揉搓均匀。

    • 控制情绪的句子(一句话调整心态的句子)

      很多事情都是有了因为才有所以,没有无缘无故的爱,也没有无缘无故的恨。

    • 电动车三个月没充电,在充电充不进怎么办

      如果还是无法激活,应该去修理电动车的机构使用专业的修复设备激活。在充电时,一定要使用合适的充电器,如果使用了不合适的充电器,也会导致电池损伤的。在刚骑行完的时候,不要立即充电,这样会损伤电池。在更换电池时,一定要选择大品牌的正品产品,并且一定要正确安装。在平时使用电动车的过程中,如果可以保持正确的使用习惯,那是可以有效延长电瓶的使用寿命的。

    • 苹果13手机壳国潮故宫款(国潮新风尚5款国风苹果iPhone)

      苹果于10月份推出的iPhone12系列手机,可以说是备受业界关注。在手机配置方面,iPhone12全系支持5G网络,更是搭载了新一代的A14处理器,广角超广角镜头双摄像头组合、超瓷晶面板等各大技术亮点。相信iPhone12系列自然是候选之一。握在手中尽显主人独特气质魅力。—⑤—初春长城这款苹果12手机壳的外观设计复古且时尚,初春下的万里长城一片生机,丰富了视觉效果的同时,也包含了美好的寓意。

    • 车祸事故责任认定的标准(交通事故责任认定标准和划分依据)

      车祸事故责任认定的标准公安机关交通管理部门根据交通事故当事人的行为,对发生交通事故所起的作用以及过错的严重程度,来确定当事人的事故责任。这才后面的赔偿上有很大的区别,希望大家都要注意。