分布式算力网络大幅度降低AI模型训练成本开源模型训练利于AI创新
发布日期:2024-02-15 作者: 铝卷

  分布式计算初创公司Monster API日前表示,采用密码货币挖矿设备能满足训练AI模型对GPU解决能力一直增长的需求,其开发的系统能扩展到数据中心之外的其他搭载GPU的设备(例如Macbook、游戏机甚至特斯拉汽车等),从而大幅度降低开发和训练AI模型的成本。

  GPU通常用于挖掘比特币等密码货币,而挖矿是一种资源密集型的过程,需要强大的计算能力。

  加密货币炒作一度导致市场上GPU短缺,随价格飙升,企业和个人转向采用英伟达(Nvidia) 为游戏行业提供的GPU,并将其转变为加密挖矿设备专用的GPU。

  然而随着密码货币热潮的消退,许多加密挖矿设备关闭甚至被废弃。这让Monster API创始人Gaurav Vij意识到,他们能够重新改变和调整这些设备的用途,以适应最新的计算密集型发展的新趋势,也就是训练和运行AI基础模型。

  虽然这些GPU并不具备AWS或谷歌云等部署的专用AI设备的强大功能,但Gaurav Vij表示,它们能够训练优化的开源模型,其成本仅为使用云计算提供商使用的超大规模计算设备的一小部分。

  Monster API联合创始人Saurabh Vij表示:“机器学习领域实际上正在与计算能力作斗争,因为需求已超越了供应。大多数机器学习研发人员如今都依赖AWS、谷歌云、微软Azure来获取资源,最终花费了大量资金。”

  实际上,除了加密采矿设备之外,在PlayStation 5等游戏系统和较小的数据中心中也能够找到未使用的GPU。Saurabh Vij表示:“加密采矿平台采用GPU,而游戏系统也采用GPU,且GPU的功能年年都会变得更强大。”

  企业和个人的算力汇入分布式网络要经历包括数据安全检查在内的一系列流程。需求方依据需求添加设备,扩展和缩小算力网络。供应方可以从出售闲置算力中获得了一部分收入。

  Saurabh Vij强调,分布式计算系统将AI基础模型的训练成本降低到了将来可以由开源和非营利组织训练的程度,而不仅仅是财力雄厚的大型科技公司。“如果建立一个AI基础模型需要100万美元,那么像我们这样的去中心化网络只需要10万美元。”

  极客网获悉,Monster API现在还提供“无代码”工具来微调模型,并向那些没有技术专长或资源的用户开放,让他们从头开始训练模型,进一步“民主化”计算能力和AI基础模型。

  “微调很重要,因为大量的开发者只有少数的数据和资金来从头开始训练模型。”他表示,通过优化,Monster API已将微调成本削减90%,使得每个模型的微调费用约为30美元。

  虽然AI开发商面临迫在眉睫的监管,这可能会直接影响到这些训练模型和开源,但Saurabh Vij认为开源模型训练有其积极意义。Monster API已经认识到有必要在其分散的网络中管理潜在风险,并确保“可追溯性、透明度和问责制”。

  “在短期内,也许监督管理的机构会获胜,但我对开源社区非常有信心,它的发展非常非常快。在Postman (API开发平台)上有2500万注册研发人员,其中很大一部分正在构建生成式AI,这为所有人开辟了新的业务和新的机会。”他表示。

  极客网了解到,通过训练低成本的AI模型,Monster API的目标是让研发人员最大限度能利用机器学习进行创新。目前他们已有了一些知名的AI模型(例如Stable Diffusion和Whisper)能够直接进行微调,此外用户还能够正常的使用这些GPU算力从头开始训练自己的AI基础模型。

  Saurabh Vij介绍称:“我们已在Macbook上进行了文图生成实验,每分钟至少可以输出10张图像。我们大家都希望在网络上接入数百万台Macbook,让用户在睡觉时也能使用他们的Macbook运行Stable Diffusion、Whisper或其他AI模型获利。

  “最终,Playstation、Xbox、Macbook都将成为强大的计算资源,甚至是特斯拉汽车——因为特斯拉汽车也采用了强大的GPU,而且大多数时候停在车库中。”Saurabh Vij补充道。