AIGC时代,大模型现已成为云服务商的中心赛道。
作为亚太地区最大的云服务商,阿里云在2023云栖大会发布了其在大模型领域的最新进展:阿里云国内服务器充值平台发布自研大模型通义千问2.0版本和8个职业(场景)大模型,以及一站式大模型运用开发途径百炼。
在国内“百模大战”不断晋级的格局下,阿里云处在一个什么样的生态位?
表面上看,在基础大模型才干方面,通义千问可能不是最近间隔追逐GPT4的。2023云栖大会上发布的通义千问2.0,归纳功用逾越GPT3.5,而近邻百度文心一言4.0已宣称归纳水平“与GPT-4比较毫不逊色”。
在自家职业模型落地方面,阿里云也不是动作最快的。云栖大会上,通义千问刚刚发布了通义听悟、通义灵码等8个职业大模型。比较之下,截止本年9月,华为云盘古大模型现已积累了20多个职业大模型和400多个AI运用场景。
那么,“百模大战”中阿里云的差异化比赛力在哪?阿里巴巴董事局主席蔡崇信在云栖大会上明确标明:阿里云要做AI时代最打开的一朵云。
开源打开,就是阿里云在AIGC时代找到的锚点。自2023年4月发布通义千问正式入局大模型赛道以来,阿里云国内服务器充值平台可以看出,阿里云一直在环绕开源打开布局大模型技术生态。
2023年8月-9月,通义千问开源7B、14B参数大模型后,阿里云在云栖大会上宣告通义千问72B模型即将开源,届时将成为我国参数最大的开源模型。开源社区魔搭ModelScope已集合2300多款AI模型,AI模型下载量打破1亿,成为我国规划最大、开发者最生动的AI社区。现在我国80%的科技企业和一半的大模型公司都跑在阿里云上,包括百川智能、智谱AI、零一万物、昆仑万维、vivo、复旦大学等企业及安排。
在AIGC时代,任何科技企业包括OpenAI,阿里云国内服务器充值平台要做到基础大模型的抢先与先发优势难度都十分高。作为云服务商,阿里云活跃拥抱开源生态不失为一种优势战略。
云核算第三次浪潮
针对此轮AIGC浪潮,黄仁勋等业界大佬纷繁抛出“AI的iPhone时间、互联网时间”等点评,那么怎样点评GPT浪潮对云核算的影响?
阿里云创始人、我国工程院院士王坚博士认为,“2023年,人工智能与云核算在60年后自然地走在一同,是云核算的第三次浪潮”(自约翰·麦卡锡在1956年初次提出人工智能概念算起),前两次分别是互联网企业上云和传统企业上云。
2000年美国工程院评选的《二十世纪最伟大20项工程技术效果》榜单中,排在榜首名的是电气化。可以说,电气化催生了其他19项效果的出现,阿里云国内服务器充值平台包括无线电与电视、电话、家用电器、核算机、因特网等等。
王坚博士认为,云核算就像电,两者都是“你每分每秒都在用,但不会感觉到它的存在。”
假如将当时的人工智能改造类比100多年前的电气化改造,云核算与大模型的联系,就像电和电机的联系。
依据工信部数据,电机能耗约占整个工业能耗的65%以上,占全国总耗电的60%。未来,云核算大部分基础资源将被大模型消耗掉。
这一判别与许多业界观念不谋而合,比方2023年8月,一贯专注硬件立异的英伟达发布生成式AI和超级核算云服务。这背后是黄仁勋对未来的判别,智能时代“全部核算,都将以云的方式供应。”
环绕“电与电机”这样的趋势判别,阿里云现已在为智能时代的云底座做准备:
在电(云端算力等基础设备)的部分,现在阿里云供应了国内公共云商场三分之一左右的算力,其间也包括大模型所需的先进异构算力资源。
在电机(大模型)部分,阿里云坚持着自研大模型处在榜首梯队的抢先性,阿里云国内服务器充值平台更重要的是为更打开的大模型生态构建全栈AI基础设备。
大模型不是仅靠算力资源堆积就能做好的,而是一个系统工程。阿里云早在2009年就提出过“数据中心是一台核算机”的理念,现在大模型正是这种理念的最佳运用场景。
不只底层核算、存储、网络才干需求针对智算场景进行优化,还要融入容器、Serverless、数据库、大数据领域的智算立异。此外,云与用户的交互形态也在向“自动驾驶”进化,比方阿里云上现已有逾越30款云产品接入了大模型才干。
在家用电器(智能运用)部分:凭仗打开的AI基础途径和东西,千行百业企业运用本身私域数据与个性化场景,阿里云国内服务器充值平台将大模型才干为我所用。
锚定开源一路狂飙
ChatGPT 一骑绝尘后,GPT4选择闭源,不再发布技术细节,模型架构、参数量、数据集、token数、本钱都成为黑箱,但业界却不断有爆料信息宣告。
本年Meta的LLaMA系列大模型用开源为大模型生态撕开一个口子。阿里云国内服务器充值平台在开源实力中疯长的还有Hugging Face这样的社区。
被称为AI领域的GitHub的Hugging Face是全球最大的大模型开源社区。2023年9月,Hugging Face取得谷歌、亚马逊、英伟达、Salesforce、AMD、英特尔、IBM 和高通的一同出资,估值到达45亿美元。现在,Hugging Face上的预操练模型数量逾越30万个,数据集5.8万个。
国内大模型开源阵营中,不乏昆仑万维、百川等头部玩家,但阿里云是云核算大厂中首先开源的。
2023年8月,通义千问开源两款70亿参数模型QWen-7B 和QWen-7B-Chat,开发者可以在在Hugging Face和魔搭ModelScope途径上免费运用。现在,Qwen-7B等模型累计下载量已挨近100万。
据悉,这两款模型在多个测评基准中取得了逾越业界同尺寸开源模型的效果,在部分测评中甚至“跃级”赶超了部分更大尺寸模型。不少开发者在揭穿途径共享认为,通义千问开源模型更具普惠性,可以以较小本钱、较高功用满足大部分开发者的需求,这关于硬件投入预算不高的中小企业和个人开发者十分和睦。
9月25日,阿里云再次开源通义千问140亿参数模型Qwen-14B,Qwen-14B在多个权威评测中远超现有同规划模型,阿里云国内服务器充值平台部分目标甚至挨近llama2-70B。
接下来,通义千问72B模型也将开源,届时将成为我国参数最大的开源模型。
魔搭社区ModelScope也是阿里云大模型开源生态的重要一环。现在魔搭社区汇聚了280万AI开发者,模型下载量逾越1亿,是我国规划最大、开发者最生动的AI社区。魔搭社区还免费为开发者供应超3000万小时的GPU算力。
现在,包括百川智能、智谱AI、阿里云国内服务器充值平台上海人工智能实验室、IDEA研究院等都选择在魔搭社区首发自己的开源大模型。
大模型开源的条件
开源的条件一定是技术抢先。
随着开源大模型日渐增多,开源大模型相同面临着剧烈的比赛,在全球AI开发者用脚投票下,模型下载量和口碑都是揭穿的考题。
“从阿里云兴办的榜首天初步,企业就坚信,不打开,就没有生态。没有生态,就没有未来。这些年,咱们一直在攀爬技术的高峰,因为只需站在更先进更安稳的技术才干之上,才有打开的底气。”从蔡崇信在云栖大会的说话可以看出,阿里云对开源大模型的投入力度。
阿里云怎样坚持大模型的抢先性,这离不开底层的人工智能途径PAI。通义千问就是经过人工智能途径PAI操练而来。
本年云栖大会,阿里云全新晋级了人工智能途径PAI,底层采用HPN 7.0新一代AI集群网络架构,支撑高达10万卡量级的集群可扩展规划,阿里云国内服务器充值平台超大规划分布式操练加快比高达96%,远超业界水平;在大模型操练任务中,可节约逾越50%算力资源,功用全球抢先。
更重要的是,其他大模型企业也可以凭仗PAI途径的操练和推理才干,打造抢先的专属大模型。
现在,百川大模型、智谱AI ChatGLM、阿里云国内服务器充值平台零一万物大模型等都在凭仗超高功用分布式模型操练途径PAI灵骏,与超低延时模型推理与服务途径PAI灵积,加快本身大模型的立异。零一万物联合创始人马杰标明:“阿里云PAI灵骏智算服务为零一万物供应了高功用AI操练集群和工程途径,助力零一万物自研大模型,推动其AI-first的技术和运用生态。”
结语
从国外云巨擘的财政数据上看,云核算第三次浪潮现已初步闪现。
本年第三财季,微软智能云Azure和其他云服务的收入添加29%。微软管理层认为,高于预期的AI消费推动了Azure的收入添加。
亚马逊CEO Andy Jassy近来也标明,预计生成式AI所带来的机遇将在未来几年为亚马逊云服务(AWS)带来“数百亿美元”的收入。
在国内云服务厂商中,AIGC增量带来的财政表现还没有那么快到来。
王坚博士认为,“云核算的第三次浪潮可能要几十年才干到高峰。”
走运的是,咱们都有机遇成为这次浪潮的见证者。可以预见,阿里云国内服务器充值平台在人工智能开启的云核算新时代中,开源力气一定会有一席之地。
本文由某某资讯网发布,不代表某某资讯网立场,转载联系作者并注明出处:/alibabacloud/819.html