本文作者:访客

AI大模型“淘金热”退潮,“卖铲者”狂欢

访客 2025-04-22 11:40:08 52940
AI大模型“淘金热”退潮,“卖铲者”狂欢摘要: 当大家都去挖金矿时,卖铲子的最赚钱。在19世纪的美国加州,无数怀揣财富梦想的人涌入金矿,却鲜有人意识到,真正赚得盆满钵满的并非矿工,而是那些贩卖铲子、牛仔裤的商人。如今,大模型掀起...

当大家都去挖金矿时,卖铲子的最赚钱。

在19世纪的美国加州,无数怀揣财富梦想的人涌入金矿,却鲜有人意识到,真正赚得盆满钵满的并非矿工,而是那些贩卖铲子、牛仔裤的商人。如今,大模型掀起的“淘金热”席卷全球,在这场技术与商业的狂欢中,AI基础设施(AI Infra)正扮演着类似“卖铲人”的关键角色。

从GPT-3到PaLM,从文心一言到通义千问,大模型的参数规模以指数级增长,训练成本动辄数千万美元,推理所需的算力更是呈几何倍数攀升。在这场竞赛中,英伟达的GPU供不应求,华为昇腾芯片异军突起,云计算巨头纷纷加码算力基建。

当市场聚焦于大模型本身的技术突破时,AI Infra这个包括芯片、服务器、云计算、算法框架、数据中心等在内的底层支撑体系正成为决定胜负的关键战场。中金预测,当前AI Infra产业正处于高速增长的发展初期,在未来3-5年内,其各细分赛道的市场空间有望保持30%的高速增长率,正成为大模型应用爆发背后“掘金卖铲”的绝佳商业选择。

释放AI生产力的新钥匙

回顾ICT产业的发展历程,以基础设施、平台、应用为代表的三层架构似乎成为了其演进的必然趋势。

在传统的本地部署阶段,操作系统、数据库、中间件等基础软件发挥着不可或缺的作用,它们通过控制硬件交互、管理数据存储、调度网络通信等功能,有效解决了底层硬件系统的复杂性难题,让上层应用开发者得以专注于业务逻辑的创新。

在“云定义一切”的时代,经典的基础设施即服务(IaaS)、平台即服务(PaaS)、软件即服务(SaaS)协同进化架构应运而生。其中,PaaS层提供的应用开发环境和数据分析管理等服务,为云计算的广泛渗透奠定了坚实基础。

在历经漫长的蛰伏期后,AIGC如同按下了AI通用化进程的快进键,整个产业在一片蓬勃发展的氛围中加速重构。算力与应用无疑成为了最受瞩目的焦点,但二者之间却存在着巨大的鸿沟,这使得大模型面临着“悬浮”无法落地或“踏空”错失机会的风险。

如果将AI与云计算进行对照,算力、算法、数据可以被视作IaaS层级,而各类开源和闭源模型则是SaaS在大模型时代的全新演变形态,也就是“模型即服务(MaaS)”。

AI大模型“淘金热”退潮,“卖铲者”狂欢

AI Infra作为连接算力与应用的中间层基础设施,聚焦企业级AI应用的私有化部署场景,涵盖了硬件、软件、工具链以及优化方法等多个方面,通过构建新型软件栈及综合服务,致力于为大模型应用开发、部署、运行和管理,打造一站式模型算力部署和基础工具平台,成为连接算力与应用的核心力量。

AI Infra涵盖了与开发部署相关的所有工具和流程。随着云计算的持续发展,DataOps、ModelOps、DevOps、MLOps、LLMOps等一系列以“XOps”为代表的概念不断涌现。

从宏观层面分析,所有XOps的本质都是为了提高开发部署生命周期的效率。例如,DataOps旨在提升IaaS层的存储和PaaS层的数据处理效率;DevOps、MLOps则专注于提高PaaS层的开发部署效率;LLMOps主要为MaaS层提供效率支持。

传统的算力资源在使用过程中存在着利用率低、能耗高的问题。AI Infra通过智能调度算法和异构计算技术,实现了算力资源的动态分配和高效利用。智能调度算法可以根据模型训练任务的优先级、数据规模和计算需求,自动分配GPU集群资源,将算力利用率从传统的40%左右提升至75%以上。

异构计算技术则整合了CPU、GPU、NPU等多种芯片的优势,针对不同类型的计算任务进行优化,在保证计算性能的同时,降低了30%以上的能耗成本。例如,在图像识别任务中,NPU可以发挥其强大的并行计算能力,快速处理大量的图像数据;而在数据预处理阶段,CPU则可以高效地完成数据读取、清洗等任务。

AI Infra提供了一套完整的算法工具链,涵盖了数据预处理、模型训练、推理优化等大模型开发的全流程。其中,AutoML(自动化机器学习)工具可以自动选择最优的模型架构和超参数,无需开发者具备深厚的机器学习知识,即可快速搭建模型,将开发周期从数月缩短至数周。

模型压缩技术通过剪枝、量化等手段,能够将模型体积缩小90%以上,大大降低了模型的存储和计算需求,同时不影响模型的性能,使得模型在移动端和边缘设备上的部署更加高效。这些工具的出现,让中小开发者和企业也能够轻松地利用大模型进行应用开发,加速了大模型技术的普及和应用。

大模型的训练和应用离不开高质量的数据。然而,数据的采集、清洗、标注过程往往耗时耗力,且容易出现数据质量不高、数据安全隐患等问题。AI Infra的数据管理平台通过自动化标注工具、数据增强算法和隐私计算技术,构建了一个高效的数据闭环。

自动化标注工具利用机器学习算法对数据进行自动标注,准确率可达95%以上,提高了标注效率;数据增强算法可以通过对原始数据进行变换、扩充等操作,生成更多的训练数据,从而提高模型的泛化能力;隐私计算技术则可以在保障数据安全和隐私的前提下,实现数据的共享和协同利用,打破了数据孤岛,释放了数据的潜在价值。

在AIGC热潮兴起之前,关于AI中台的理论研究与实践探索就已开展得如火如荼。然而,彼时的AI中台更像是“救火队员”,功能繁杂多样,承担了许多基础且琐碎的工作,却难以获得上下游的广泛认可。

大模型的出现为AI平台化搭建了更为广阔的舞台,也让AI Infra“掘金卖铲”的商业模式更具确定性,进而赢得了可观的发展空间。

就如同“三明治”两片面包之间可以有无数种夹层组合一样,处于算力与应用之间的AI Infra同样具有丰富的可能性。从广义上讲,AI Infra涵盖了人工智能基础框架技术,涉及大模型训练、部署领域的各类底层设施;狭义而言,基础软件栈是AI Infra的核心组成部分,其主要目标在于优化算力算法、推动应用落地。

AI大模型“淘金热”退潮,“卖铲者”狂欢

对于企业级用户来说,AI Infra具备四大核心价值,在推动企业数字化转型和智能化升级中起到关键作用。

第一,聚焦AI应用全生命周期管理。AI Infra平台不仅为企业提供了技术支持,还通过多样化的工具帮助企业快速发现和开发符合业务需求的AI应用场景:简化模型管理,无论是在本地、边缘还是云端;快速部署与推理,无论是在虚拟机还是容器环境中;丰富的模型支持,可预置系统模型也可自定义模型;以及模型精调与优化、模型评估和性能测试等能力。

第二,加速企业级AI应用的落地。AI Infra平台不仅为企业提供了技术支持,还通过多样化的工具帮助企业快速发现和开发符合业务需求的AI应用场景。这包括数据驱动的场景挖掘,支持AI应用构建,包括Prompt工程、向量检索、知识库管理,可灵活接入本地或线上模型;智能场景精准推荐,不仅支持通用的AI应用,还集成多样化的AI解决方案;快速原型设计与验证,快速构建和测试AI原型;行业模板与经验支持,预构建的AI场景模板,无需从零开始,降低技术门槛。

第三,助力企业构建新型数字基础设施。AI Infra平台不仅是一个AI应用开发和管理的平台,更是企业构建新型数字基础设施的关键工具。包括弹性计算与资源调度,支持异构GPU硬件加速,提供裸金属、虚拟机和容器计算资源的弹性扩展;通过支持跨云和混合云架构和跨地域的部署,提供灵活的云资源调度能力;统一管理与自动化运维,集成智能运维工具,提供统一管理界面;具备边缘计算能力,减少云端传输延迟和带宽压力,适合高实时性业务场景;增强数据治理与合规性,帮助企业遵循行业标准与法规要求,保护数据隐私与安全。

第四,推动企业数智化战略升级。AI Infra平台通过数字化与智能化的双重支持,推动企业在提升业务效率的同时,实现AI决策和自动化运营,进而实现数智化战略升级,将AI深度融入到业务各个环节,通过加速AI推理应用,推动全方位的业务创新。

AI Infra会是下一个必争之地吗?

相较于对模型价值的追求,投身AI应用领域已成为行业的普遍共识,在基础模型之上将会诞生数以百万计的应用,这些应用对现有业态的改造作用,远大于从无到有的颠覆性创新。

如今,AI应用的供给正呈现出爆发式增长。从2024年开始,视频生成类模型产品密集涌现,快手的可灵、字节跳动的即梦、商汤的Vimi纷纷亮相,此外,AI搜索产品、AI陪伴类产品等也不断推陈出新。

大模型应用的爆发趋势已然明晰。根据InfoQ研究中心的数据,到2030年,通用人工智能(AGI)应用市场规模将达到4543.6亿元。模型应用层所蕴含的巨大机遇,吸引了几乎各行各业的积极参与。

当前,AI Infra市场仍处于混沌未开的阶段,国内呈现出“巨头主导”的格局。华为、阿里、百度等科技巨头凭借自身强大的技术实力和资源优势,纷纷构建起相对封闭的AI Infra体系。

例如,华为的模型采用三层架构,底层是具备超强鲁棒性和泛化性的通识性大模型,犹如一座稳固的基石,在此基础上衍生出行业大模型以及针对具体场景和工作流程的部署模型。这种架构的优势在于,当训练好的大模型部署到垂直行业时,无需重复训练,成本仅为上一层的5%-7%,大大提高了效率,降低了成本。

阿里则为AI打造了统一底座,无论是计算机视觉(CV)、自然语言处理(NLP)还是文生图大模型,都可以在这个统一底座中进行训练。百度和腾讯也分别进行了相应的战略布局。

百度拥有覆盖超50亿实体的中文知识图谱,为其AI发展提供了丰富的知识支持,就像一个巨大的知识库,为模型的训练和应用提供了充足的养分;腾讯的热启动课程学习技术,则能将万亿大模型的训练成本降低至冷启动的八分之一,有效提升了训练效率,降低了成本。

然而,这种封闭的生态也带来了一些问题,中小供应商难以切入市场,导致市场缺乏专业化分工,创业公司面临着“既难以依赖大厂,又难以独立生存”的困境,整个生态系统的活力和创新能力受到一定的限制。

在国外,AI Infra市场已经形成了相对成熟的产业链和生态系统。有的专注于数据标注,有的擅长数据质量提升,还有的在模型架构方面独具优势。这些企业凭借其专业性,在单一环节的效率、成本控制和质量保障上,往往比大厂亲自操刀做得更出色。

以美国为例,出现了一批专注于AI Infra细分领域的企业。比如Anomalo专注于数据质量检测,为Google Cloud和Notion等企业提供专业的数据质量评估和优化服务;Scale AI则通过自动化标注工具,帮助企业降低数据处理成本,提高数据标注效率。

这些企业在各自的领域深耕细作,如同汽车行业的一级供应商(Tier 1),通过专业化分工,为大模型企业提供标准化、高质量的解决方案,形成了“大厂专注核心模型研发,供应商提供基础设施支持”的良性生态。

AI大模型“淘金热”退潮,“卖铲者”狂欢

然而,国内在这方面的发展尚不成熟。一方面,国内大模型领域的主要参与者多为大厂,它们都有自己成熟的训练体系,外部供应商很难打入其内部。大厂就像一个个封闭的王国,拥有自己的一套完整体系,外部力量难以渗透。

另一方面,国内缺乏足够庞大的创业生态和中小企业群体,这使得AI供应商在大厂之外难以找到生存和发展的空间。

以谷歌为例,谷歌愿意与数据质量供应商分享自己的训练数据成果,助力供应商提升数据处理能力,而供应商能力提升后,又能为谷歌提供更多高质量数据,从而形成一种良性循环。

国内AI Infra生态的不完善,直接导致大模型创业门槛升高。如果将在中国开展大模型业务比作吃上一顿热饭,那么创业者必须从开垦土地、种植作物等最基础的工作做起,面临着巨大的挑战和困难。

目前,在AI 2.0的热潮中,一个显著特点是“两极化”:最热门的领域集中在大模型层和应用层,而类似AI Infra的中间层却存在较大的发展空白,这也可能蕴藏着下一个重大机遇。就像一座尚未被开发的宝藏,等待着探索者去发现和挖掘。

卖铲不易,掘金更难

尽管在大模型应用爆发的当下,AI Infra层潜藏着巨大的商业潜力,但对于从事AI Infra的公司而言,即便它们在专业领域实力强劲,面对市场的风云变幻,依然显得较为脆弱。

AI大模型“淘金热”退潮,“卖铲者”狂欢

英伟达的CUDA生态历经20年的发展,在AI领域,最前沿的模型和应用通常都会率先在CUDA平台上运行。

由于不同硬件之间存在各异的接口,CUDA统一了这些接口的语言,让使用者能够运用一套标准语言来操作不同硬件。在模型开发过程中,开发者往往倾向于在同一语言体系下完成开发工作,这实际上构建了英伟达CUDA生态的深厚底蕴。

目前,CUDA生态在AI算力市场占据了90%以上的份额。不过,随着AI模型的标准化进程推进,模型之间的结构差异逐渐缩小,不再需要频繁调度多种大小模型,英伟达CUDA生态的优势在一定程度上有所削弱。即便如此,英伟达在算力市场的统治地位依然难以撼动。据业内人士预测,在未来3-5年,英伟达仍将是整个AI硬件提供商中的绝对领导者,市场占有率预计不会低于80%。

对于AI Infra层的供应商来说,外部有英伟达这样的“守矿人”,如同在金矿门口售卖门票和铲子,好不容易找到进入金矿的途径,却发现里面的“挖矿人”早已习惯“徒手”挖矿,对新的工具并不接受。

从商业模式看,部分AI Infra厂商采用订阅制的商业模式,根据企业的算力使用量、模型调用次数或功能模块使用情况进行收费。这种模式类似于SaaS,企业无需一次性投入大量资金购买硬件和软件,只需按照实际使用情况支付费用,大大降低了企业使用AI Infra的门槛。

例如,有些平台推出了“基础算力包+高级算法工具”的组合套餐,中小企业每月仅需支付数千元,就可以使用百万级的算力资源和先进的算法工具,进行大模型的开发和应用。

对于大型企业和特定行业用户来说,他们往往有着复杂的业务需求和特殊的技术要求,通用的AI Infra产品难以满足他们的需求。因此,一些厂商提供定制化的AI Infra解决方案,从算力集群搭建、模型优化到应用部署,为企业提供全流程的服务。

为了促进技术的发展和应用的推广,一些AI Infra厂商通过开源技术、开放API等方式,吸引开发者和企业共建生态。开源框架PyTorch和TensorFlow就是成功的案例,它们通过社区协作不断优化性能,吸引了全球大量的开发者参与贡献代码,形成了庞大的开发者社群。

这种生态共建模式不仅加速了技术的迭代和创新,还通过生态影响力获取商业价值。厂商可以通过提供技术支持、培训服务等方式实现盈利,同时也为开发者和企业提供了一个交流和合作的平台,促进了整个行业的发展。

在国内市场,企业对软件和服务的付费意愿相对较低,更倾向于一次性采购硬件设备或自行研发解决方案。AI Infra厂商需要通过实际案例和数据,向企业证明使用AI Infra产品和服务能够带来成本节约、效率提升等实际价值,从而增强企业的付费意愿。

用户在选择AI Infra产品和服务时,也面临着“选择焦虑”,不知道如何选择适合自己的产品。因此,构建一个开放、共享、协同的AI Infra生态平台势在必行。政府、企业和行业组织可以共同努力,推动大厂开放部分技术能力,鼓励中小企业专注细分领域创新,为用户提供更加便捷、高效的一站式解决方案。

此外,还需要不断探索多元化的盈利模式,除了订阅制服务和定制化解决方案外,还可以考虑与硬件厂商合作捆绑销售、提供增值服务等方式,拓宽商业化路径。

当所有人都在追逐风口时,真正决定行业格局的往往是那些默默打磨工具的人。在这个充满变革的时代,AI Infra恰似一片待开垦的沃土,它既是技术落地的“最后一公里”,也是产业升级的“第一推动力”。

尽管面临技术、市场与生态的多重挑战,但随着标准的完善、技术的成熟与生态的繁荣,AI Infra终将成为驱动智能时代的核心力量。

对于企业与开发者而言,只有构建起开放共赢的生态系统,培育专业化分工的产业格局,才能真正实现“让应用更简单,让AI落地更便捷”的美好愿景。这场关乎未来的技术革命,不仅需要硬核的技术实力,更需要前瞻的战略视野与生态共建的智慧。

淘金热终会退潮,但修路的人永远不缺机会。

*:not([class*="icon"]):not([class*="fa"]):not([class*="logo"]):not([class*="mi"]):not([class*="code"]):not(i){font-family:PingFang SC,Arial,"Material Icons Extended",stonefont,iknow-qb_share_icons,review-iconfont,mui-act-font,fontAwesome,tm-detail-font,office365icons,MWF-MDL2,global-iconfont,"Bowtie" !important;}[class*="code"]{font-family: Consolas !important}
阅读
分享