这两天,一个大模特生成的高清视频合集在网络上炸了。
无论是神秘的克苏鲁,还是海底生物的蓝色大眼睛,AI的“想象力”简直让网友们想(san)放弃(value)还是不(mad)放弃(drop)。
最重要的是,这段视频的分辨率达到了前所未有的×!
高清也如丝般顺滑,其背后的模型ZeroScope以其生成的效果在Twitter和Reddit上走红。
人气爆棚,连特斯拉前AI总监AndrejKarpathy也来“哇~”一波。
我们捡起来发现,这个令人惊叹的ZeroScope的核心框架来自于国内中文社区的一个开源模型。
它被称为text-to-video-synthesis(文本转视频合成模型),有17亿个参数,由阿里达摩院提供。
只需输入文字描述,即可获得对应的流畅视频。
也就是说,我们国内社区的开源模式已经风靡中外社交平台。
更令人惊奇的是ZeroScope并不按套路行事。它没有使用这个基本模型的名称,而是选择社区名称ModelScope中的“Scope”。
这是一个什么样的社区?
要回答这个问题,我们还得追本溯源,到原教旨主义社群去寻找——
国内热门大尺度模特“聚集地”
ModelScope,“魔道”社区中文名,同样由阿里创办,是国内最大的AI模型社区。
这个社区的所有功能和服务都是以模型开发为中心的。
在目前的Mota社区中,流行的ZeroScope大型模型“原型”只是其中之一。
社区成立之初,就以光速推出了+机器学习模型,超过10个国内大型模型选择在这里开源;
截至目前,Mota社区已聚集超过个AI模型,开源大型模型数量达到30多个。
然后拉出社区贡献者名单,好家伙,都是国内热门的大型模型玩家,比如智普AI、兰舟科技、百川智能、IDEA研究院、清华TSAIL等等。
不说明星公司,就有超过万的普通AI开发者在Mota社区里玩乐。
这种体验之所以被称为“愉悦”,一方面是因为所有模型制作者都可以在Mota社区上传模型,验证模型的技术能力。
如果有需要,还可以与社区共建者共同探讨和探索该模式的应用场景,也可以探索其中一两个产品化或商业化的落地模式。
另一方面,Mota社区背后有阿里云的模型服务灵机,可以提供一站式模型API入口。
无论是阿里巴巴自主开发的大模型统一钱文,还是ChatGLMv2、百川大模型、姜子牙、多莉等大模型,都可以通过灵机一键调用。
使用它,开发者可以轻松调用云端的各种模型。他们不仅在将其集成到自己的应用程序时不需要花费大量精力,甚至连大型模型的训练和微调也可以通过几行代码完成。
虽然已经很方便了,但Mota社区也希望大佬们使用大模型时,门槛能低一些。
在世界人工智能大会WAIC主题论坛“MaaS:以模型为中心的人工智能发展新范式”上,阿里云宣布,为了更好地与个人和企业开发者一起探索应用和业务场景,将正式推出魔拍大模型调用工具ModelScopeGPT。
所谓的大模型调用工具常常以Agent(智能代理)的名义出现。之前最著名的就是AutoGPT和HuggingGPT。
这类工具最大的亮点就是“自动完成各种复杂的任务”。用户只需用自然语言提出自己的需求,就可以调用各种资源来完成任务。
阿里云首席技术官周敬仁直言:
我们需要Agent了解基本模型之外的工具,更重要的是能够更高效地调用这些工具。
具体到ModelScopeGPT,它可以在接收自然语言指令后将任务拆解为具体的细分步骤,然后以阿里云统一前文大模型作为“中心模型”自动生成代码,并调用其他AI模型作为“任务模型”。
通过协作,集成各种模型的各种能力来完成复杂的指令。
简单来说,利用ModelScopeGPT,只需要很少的技术投入,就可以实现文本、语音、视频、视频等多种模态能力的调用,提升专用领域模型的性能,实现生产力的提升。一个人经营一家公司。
据了解,这是国内首款推出的智能工具。目前已具备完成单一任务、复合任务、多次API规划调用、多轮对话API调用、模型知识问答等能力。
更重要的是,与AutoGPT和HuggingGPT相比,ModelScopeGPT以中文为主,无论是对话输入还是调用模型。
可以说是一款比较适合中国开发者体质的机器学习工具(手动狗头)。
然而,为什么Mota社区能够顺利运行,甚至吸引数百万AI开发者使用呢?
再者,为何会成为国内大型模型赛道核心玩家众多开源大型模型的“聚集地”?
“这是大型模型计划的一部分”
背后的原因或许可以追溯到阿里云的“大模型生态计划”——MaaS(模型即服务)。
让开发者自由讨论的Mota社区只是阿里云以MaaS为核心构建的大规模模型生态的一个维度。
MaaS中不仅有魔筑社区等开发者生态层,更重要的是还有提高大模型训练稳定性、提供模型调用等服务、基础设施的AI平台层提供核心计算能力的层。
开发者生态层:Mota社区
AI平台层:PAI机器学习平台、灵机模型服务
基础设施层:灵君智能计算集群
如果说开发者生态加速了大规模模型时代的到来,那么AI平台层和基础设施层就像大规模模型时代的“水、电、煤”一样,提供了最根本的保障。是这项技术发展的动力。
这也是很多大型模型开发者选择将自己的模型部署在阿里云灵机平台和Modak社区的原因。
一方面,在基础设施层,阿里云拥有目前国内顶级的智能算力储备。
阿里云灵君智能计算集群支持高达10万卡的GPU规模。自主研发的高速RDMA链路达到3.2Tbps,最小网络延迟1.5μs,并行存储吞吐量可达20TB/s。
简单来说,即使同时在阿里云上训练多个万亿参数大模型,对硬件设施也没有压力。
不仅如此,在数据安全方面,阿里云除了推出业界首个基于可信计算和保密计算技术的基于SGX2.0和TPM的虚拟化实例外,还构建了基于全隔离、高可靠的虚拟化实例。神龙安全芯片的计算环境完美消除了企业对模型安全隐患的担忧。
但如何最大限度地利用如此多的计算能力,同时进一步简化模型的使用,是对云计算厂商的又一重大考验。
另一方面,在AI平台层,阿里云也提供了相应的平台来实现软硬件加速服务和模型服务。
通过软硬件加速服务,即PAI机器学习平台,可以提高AI开发和AI资源管理的效率。
PAI和灵君智能计算集群共同构成了一个高性能、分布式的智能计算平台,相当于软件和硬件的协同。分为高性能训练框架、高性能推理框架和全托管平台三个框架。
我们先看一下高性能训练框架。具体来说,其可训练模型参数规模可达10万亿,可将训练性能提升高达10倍。
同时,当单个任务需要多个GPU时,训练效率几乎不会下降。
要知道,硬件数量的增加并不意味着计算能力也可以1+12。这时候就非常考验分布式计算技术了。
基于PAI×灵君智能计算平台,即使单次训练任务所需的硬件规模从卡增加到0卡,性能也几乎呈“直线”增长,其线性扩展效率将达到92%。
在高性能推理框架上,推理效率最高可提升6倍。
平台提供的推理加速服务不仅可以自动进行模型剪枝、量化、蒸馏、网络结构搜索,还可以在不损失性能的情况下将大型模型的推理性能提升3.5倍。
至于全托管平台,可以理解为一个更可用的开发平台,包括无服务器架构、工程化和稳定性三个特点,可以实现自动化运维、兼容各种框架和计算资源、智能容错和节点自给自足。治疗等功能。
目前,这三个平台已全面上线商用。
模型服务就是前面提到的一站式服务平台灵机,它不仅为开发者提供了灵活易用的大模型API接口,而且与平台基础很好地“结合”,进一步提高推理和训练的效率。
不过,阿里云并没有自己的大模式,已经推出的“通易”系列就是一个例子。
首个推出的大语言模型“统一钱文”,目前申请者已超过30万,深度合作企业超过家;而仅一个月前推出的音视频助手统一听屋,已处理音视频超过5万小时,文字处理量达到8亿多字。
除了统一千文和统一听屋之外,在WAIC会议论坛上,阿里云还发布了名为统一万象的AI绘画创作模型,该模型包含文森图、风格迁移和相似图生成等功能。邀请测试已开启。
既然如此,为什么还要将大规模模型开发整合成一套服务MaaS并向行业开放,培养更多的“大规模模型竞争对手”呢?
周敬仁在WAIC大会上接受采访时回应阿里云并没有扮演“大模型开发者”的角色:
并不是所有的业务开发者或者企业都具备制作模型的能力。为此,我们打造了自己的通用模型系列,帮助这些开发者和企业享受大模型带来的一系列技术优势,并快速转化为商业价值。
但我们的主要目标不是做模型和开发者,而是服务好云上的开发者和企业。这样,不同技术水平的开发者和企业都可以享受到AI时代的技术。
也就是说,无论是统易大型模型系列,还是魔楼社区、灵机模型服务、PAI机器学习平台、灵君智能计算集群组成的一系列模型开发服务,本质上都是“阿里云大型模型”。生态规划的示范部分”。
阿里云认为,人工智能时代刚刚看到发展起点。也正是因为如此,MaaS才会不断蓬勃发展,更多的企业和开发者将会在这个生态中实现自身的价值,实现更多的商业化。
也正是因为如此,阿里云将推动中国大规模模型生态的繁荣作为首要目标。作为云服务提供商,它将开放技术、工具和经验,降低大规模模型的门槛。周敬仁说道:
对于当今模型的创新者,我们非常支持并希望他们成功,我们将为他们创造的模型提供坚实的平台基础。
因此,阿里云除了为大型初创企业提供全方位的云服务外,还将在资金和商业化探索方面提供充足的支持。
不仅如此,以MaaS为中心的大规模模型生态将反过来重塑云产品的设计。
MaaS新范式:大模型决定走多快,生态决定走多远
但即便说MaaS正在重塑云计算,MaaS改变了云计算的游戏规则,但目前大多数企业的注意力似乎仍然集中在大模型本身。
从整个行业的角度来看,阿里云为何在这一波变革中花费如此多的资源和精力进行大模型的生态建设?
目前,大模型对云计算的影响可以分为两个阶段。
从这两个阶段的进展来看,虽然大模型决定了云计算新范式MaaS的速度,但生态决定了它真正能走多远。
第一阶段,市场上的大型机型分为“是”和“否”,核心是可用性。
OpenAI率先推出ChatGPT,成为大模型领域的“规则改变者”。本质上,它率先推出了前沿技术,占据了市场话语权。
对于跟随趋势的企业来说,现阶段能否取得优势,取决于接入业务的时间和速度。
毕竟现阶段,竞争的依然是是否有大型号。企业只要尽快突破技术瓶颈,使用大模型,就越能占据应用生态市场的话语权,吸引更大的市场。
第二阶段,大车型纷纷涌现,市场门槛也开始降低,相应的车型服务也开始进入用户的视野。
从这个阶段开始,大模型产能供应的稳定性(用户数量激增是否会导致服务器宕机)、大模型数量的丰富度、大模型类型的多样性都将开始成为新的竞争点对于云供应商来说。将成为企业选择大型样板服务的参考。
同时,在大型车型的赛道上,从来都不是“后来者胜出”。
只有更丰富的货源才能带来更多的客户;更多的客户可以在数据反馈中帮助改进和迭代,从而产生“飞轮效应”。
例如,HuggingFace这个在机器学习模型方面有长期积累的社区,基于社区现有的开源模型推出了HuggingGPT。它用一个大模型调用多个AI模型,将长期积累的模型生态快速转化为更大的产业。影响。
从这个阶段开始,生态的作用就会显现出来。
这就是为什么生态建设决定了MaaS的高度。
但无论处于哪个阶段,核心是大车型仍然是一个成本高昂的新事物。
无论在研发、迭代还是使用阶段,大型模型都是一种消耗大量资源且使用成本不菲的“奢侈品”。
因此,只有构建生态,才能真正通过规模经济降低成本,帮助迭代改进,最终实现大模型和MaaS真正的商业可持续性,这需要更多的生态。
因此,真正看重大模型和MaaS的玩家肯定会不遗余力地打造生态。
在MaaS新范式的游戏规则中,大模型决定一开始走多快,生态决定最终走多远。
转载请注明:http://www.0431gb208.com/sjszjzl/5553.html