专访GMICloud创始人AlexYeh:算力即未来,不做AI时代的旁观者

技术创新发展界 2025-04-16 07:32:47

Alex Yeh回忆过去两年半的创业历程,用“一头深海中求生的鲨鱼”来形容GMI Cloud这家新创公司。海水中礁石隐藏在未知的角落,绕开礁石继续前行则成为了这条鲨鱼的常态。

Alex Yeh是AI Native Cloud 提供商 GMI Cloud 的创始人兼CEO。成立于2023年,GMI Cloud是他的第二次创业,在创业之前,他是亚太知名私募和风投公司里的董事,是加密货币与区块链生态圈里最年轻的合伙人,投资AI相关的项目超过 100 个。

在“以天为单位演进、充满未知”的AI领域,这个比喻用来描述创业公司的探险旅程,颇为形象。不过现实往往更为精彩。

两年半前,Alex决定从美国创业,经过一番艰苦,终于寻得了500多公顷的场地和100多兆瓦电厂,开启了一段全新的AI Infra创业旅程,4个月内Alex马不停蹄地干了4件事情:找来自谷歌 X 部门的技术大牛、建立软件部署平台、跨国新建数据中心、寻找锚定客户。

而这4个月对于这次创业而言也仅仅只是旅途中的开始,还有很多问题需要勇敢者去探索、去解决。“对于AI创业而言,你不可能一开始就能预测到它具体的未来形态,也不知道具体会在何时迎来爆发。但你必须有一个保持十年的TrueNorth。它就如同航空母舰一样,不可动摇。”Alex 非常认真地说到。

2025开年,DeepSeek R1的推出后,全球的用户为之震撼,所有人都在争相测试这款出色的模型,GMI Cloud团队也不例外,在最短的时间内完成了基于H200的专属R1模型部署适配和优化,也正因此,Alex的客户来电甚至多到被打爆了。51CTO获悉,GMI Cloud基于高端硬件提升AI推理效能,提高Token吞吐效率,是团队目前每天都在持续进行的聚焦点。

Alex表示,今年Q1,GMI Cloud的营收之高已经达到了去年一年营收的三倍。这是一种非常迷人的信号:大模型进入推理阶段后,人们都在寻求什么样要求的AI云服务,为什么GMI Cloud可以从谷歌、微软、亚马逊这样的云厂商中虎口夺食?AI Infra侧和AI应用侧正在发生着怎样的演进?

带着这些问题,我们跟Alex聊了80分钟。

从未雨绸缪到枕戈待旦

科技创新总是会被短期高估、长期低估,押注AI更是如此。作为一家初创公司,如何度过起量之前的等待期是一件非常考验创始人判断力的事情。

早在DeepSeek R1推出前的五六个月,Alex做出了一项重要的决定:GMI Cloud需要快速开发一套全面的推理引擎框架。Alex回顾当时的决定,认为AI从预训练阶段进入到推理阶段是一件很清晰的、必然发生的事情。“大模型已经训练得足够好用,已经有很多不同的产品,比如航空公司的呼叫中心的AI客服已经可以帮改签机票、出国旅行时的手机上的即时转译App等等。那之后会是什么样子?肯定就会发生在edge端或local端,而且需要极低的延迟。”

彼时,Alex为这个引擎定下了三个要求:Auto Scaling(自扩容)、Global Scaling(全球扩容)、Hotswap(热切换)。前两项扩展很容易理解,那么为什么Alex特别要求了热切换呢?据介绍,在推理阶段,机器宕掉对于客户的影响非常大,热切换就是要让客户所运行系统能够足够可靠,即便出现宕机的情况,也能持续有机器快速补充。据悉,GMI Cloud目前已在3月中旬正式官宣新产品“Inference Engine自研推理引擎云平台”上线,该推理引擎的可用性高达99.995%。

也正是此番提前6个月的未雨绸缪,才造就了上文提到的Alex电话被打到爆的一幕。“2月DeepSeek爆发,一时间我们几乎所有客户的诉求都变成了推理”,形势变化如此之快,超出了Alex的预期。

当然DeepSeek的到来,同样也给Alex抛出了新的问题。事实上,包括AMD等很多的硬件厂商都曾来找GMI Cloud谈适配的合作,不过Alex都婉拒了。“我们毕竟是云厂商,而不是硬件厂商。”作为人力和资源有限的初创公司,首要的工作重心还是快速地scaling全球市场,而不是硬件多样化。“海外市场中,现在流行的模型是DeepSeek R1,而目前适配DeepSeek R1最舒服的硬件就是H200。同时这也是目前大多数客户的高性能推理的使用诉求所驱动的。现在如果选择不同硬件厂商的话,势必会降低Global Scaling的节奏。如果我们达到了一定的规模,比如Coreweave的体量,才会开始考虑硬件多样化的问题。”

我们了解到,GMI Cloud现在的工程团队忙碌状态可以用枕戈待旦来形容:“业内技术迭代非常迅速,基本每周都会有新发布的技术需要团队快速跟进。这周英伟达更新了Dynamo,下周某个社区发布了新论文,我们都需要将这些新技术、新论文以最快时间完成消化,并持续迭代我们的技术版本上线到自己的平台。”

找到锚定客户,然后拼命迭代

我们在访谈中有聊到一个假设性的问题:如果让Alex选择在应用侧创业,他会选择C端还是B端。

Alex最后选择了B端。“B端创业和C端创业还是有着不同的变现逻辑的。不管国内还是海外,ToB创业通常需要一个有实力的公司来支持。而ToC则更多地要找到比较大的应用产品让用户蜂拥而入。而且,C端产品爆发后的市场反馈处理起来也会非常有挑战,同时还要保证产品的迭代速度与最新的潮流一起向前。”

在Alex看来,每一位AI创业者都是超人,自己的superpower更适合在B端释放。

谈及自己创业的心得,Alex给出了一个“拼命三郎式”的答案:找到自己的锚定客户,不断去沟通、去了解客户的需求和反馈,拼命地去打磨、迭代产品方案,来实现客户的所想所需。

当然,以第三者的身份去看这个问题,Alex对C端出海应用充满了期待。“中国出海企业,在toC市场上有很大的优势。国人最厉害的地方就是新技术的落地。国人非常擅长做不同的产品推广营销以及硬件的整合,同时还有一个不容小觑的优势,就是开源。现在许多新的开源社区都是华人主导的,只要产品得到开源社区的支持,甚至网站都不用做,就可以赚到钱。”

整体上看,B端和C端的机会都很大。Alex举了一个文生图、文生视频赛道的例子,“toC可以面向designer做一个studio,toB则可以选择跟Adobe等大型企业去合作,或者做不同行业的定制API等等。这都取决于创业者自身的想法。”

通用Agent还有很远的路要走

目前距离Agent爆发还哪些问题有待解决?

Agent始终是一个绕不开的话题。Alex很果断地判断:通用Agent的爆发时机还没有到。首先,在某些领域,模型本身做的不是特别好,比如模型跟物理世界的交互能力还不够好;其次,算力成本核算下来依旧过高;此外,不同场景的壁垒有待打通,私有的DataSet就是一个明显的例子,只有将这些数据整合起来有可能以Agent的形式去提供客户所需的服务。

但就某些垂直场景来看,已经有不少落地Agent的机会。比如自媒体领域的内容生成、AI PPT等,再比如编程领域的Cursor、Windsurf等等。这些以文字为主的应用已经取得了较大的突破。

而算力成本方面,DeepSeek推出后,开源模型的性能甚至比闭源模型都要高。随着AI Infra持续对内存、硬件、模型的优化,每个Token的成本会一直降下去,甚至还有更低精度、更便宜成本的方案。

场景壁垒方面,拥有不同垂类私有数据的公司可以把不同垂类领域的Agent开发出来,只要产品体验足够好,相信就会有客户愿意将资料交给你。

“所以说,就我个人的初步判断,现阶段Agent距离全方面爆发还有很长的路要走,走的比较快的应用更多还是在AIGC、文生图这类赛道上。但未来几年,随着数据飞轮效应越来越明显,不断演进的应用会产生足够多真实的交互数据,这些数据进而会催生更强大的多模态大模型,而更强大的模型则会进一步带来新的一轮应用的爆发。”

先求有、再求好、再求便宜

数据的问题交给应用侧,而降成本的问题则落到了像GMI Cloud这样的云供应商的肩上。正如前文所说,现在市面上算力Token的价格依旧昂贵,尤其在海外。这正是GMI Cloud一直以来聚焦在做的工作,在不牺牲性能的情况,通过PD分离、EP等各种更好的技术将单个Token的成本砍下去。所以高性能与低成本是并不冲突的。

谈到“API价格战“”方面,Alex表示纯砍价的做法是无意义的。因为从客户需求看,“先求有、再求好、再求便宜”是一项不可忽视的市场规律。“只把成本砍到最低,但稳定性不能保证也是没有意义的。又或者说你虽然在美国最便宜,但客户需要在亚洲地区实施业务,本土化的’性价比‘才是客户最看重的。”因此,如果“有”和“好”都没有做到,客户就根本不可用,这样把价格降再便宜也于事无补。

近日,GPT-4o吉卜力风格图片功能非常火爆,用户推理的需求非常旺盛,OpenAI不得不采取了速率限制。那么,爆火的高性能推理需求到来之后,成本降低的速度又会怎样呢?

Alex表示,事实上英伟达或其他厂商每一两年就会提出新的硬件架构模式,推理的成本也会以倍速的方式在降低。

可以想象,5年之内成本基本就降到几乎为零了。

随着Scaling Law和摩尔定律的不断演进,Alex认为有两个确信的趋势:第一,大模型厂商会互相卷,模型会变得又小又好用,又便宜;第二件,半导体厂商会在推理场景上互相角逐,成本也会越来越低。而云厂商则将模型和硬件整合到一起来继续做调优,随着时代的演进,Token成本的大众化将不再是一个问题。

我们是 “Shopify of AI”

时钟拨回到去年10月,GMI Cloud拿到了8200万美元的A轮融资。接连多年的工作和创业经历,Alex找到了投资人们的理解习惯。Alex经常会跟投资人用这样的比喻来介绍自己的公司:Shopify of AI。

Shopify是一家全球知名的电商平台,成立之初就致力于帮助任何一位创业者或者网红去快速建店,实现创业梦想。而这在当时的美国,基本上已经被Ebay、Amazon绑架了,创业者被捆绑其中,自由度很差。而Shopify则不同,它给了创业者更为自主可控的选择。

Alex认为,而这也是GMI Cloud所想要做的。“过去大部分的创新都已经被美国“三朵云”绑定了,对于客户而言很难有突破性质的价值增量。我们想把Envrionment归还给客户。”

怎么实现这一点呢?GMI Cloud在产品设计上给客户留足了选择的空间。GPU Instance、Cluster Engine、Inference Engine,这三层允许用户彼此独立购买,也可以一起购买。用户可以自由选择、组合和扩展,既可以使用自己本地的模型,也可以使用GMI Cloud调好的模型,甚至也可以把第三方的平台搬过来。GPU也一样,不存在完全绑定的情况。

我们注意到GMI Cloud 的全新推理引擎产品“Inference Engine”近期在英伟达GTC2025大会上正式发布,这被外界视为GMI Cloud涉足MaaS层的一个重要信号。Alex解释道,Inference Engine其实面向的是有产品想法但缺乏机器学习背景的团队。通过Inference Engine,那些produce genius就可以专注于做产品、做推荐、搞流量,而无需再在基模开发调试上浪费精力和成本,只需要在Market Place中选择模型即可。

创新者在洪流中寻找新大陆

最后我们问到了GMI Cloud的未来3-5年的规划。Alex表示特别想做好一个AI of Internet。“我觉得这是一个超级酷的事情,我想要做一个隐形的GPU云网络,当一个隐形的support的角色,去支持那些创业团队或企业内的创新者去实现自己心中的AI产品。我们提供面向不同AI应用研发场景的算力支持和引擎支持,跟上AI发展的所有步伐,切身入局去做一些真正可以改变AI产业发展的事情,不做这个时代的旁观者。”

言语之中,Alex对于成立28个月的公司充满着一种“屠龙少年”的理想:现在的超级巨头真的让人又爱又恨,而GMI Cloud未来要做一个全栈式的AI云服务公司,不止是AI云服务公司,而是从存储到计算,以及各种上层应用,而每一层都是模块化的。

“就像豪华型酒店一样,客人可以拎包入住,住起来非常舒服,如果你喜欢房间里什么东西,你都可以拿走。”

【嘉宾介绍】

Alex Yeh 是 GMI Cloud 的创始人兼 CEO,在他的卓越引领下,GMI Cloud 迅速成为全球 AI 云计算领域的领先品牌,助力众多企业实现 AI 的即时部署与高效扩展。

作为一名极具前瞻性的连续创业者,Alex Yeh 的职业轨迹亮点频出。他曾先后在 CDIB Capital、Globaltec Capital 担任董事,专注于 VC/PE 以及 AI 领域的投资工作。在创办GMI Cloud之前,他是加密货币创投机构 Headline Crypto/ IVC 的联合创始人,也是加密货币与区块链生态领域最年轻的合伙人,投资项目超过 100 个,为行业发展注入了强大的资本活力。

凭借在云计算、AI 及 Web3 领域沉淀的深厚专业知识与丰富实践经验,Alex Yeh 不断推动行业的创新突破。2023年,他创立GMI Cloud,将目光聚焦于 AI 基础设施领域,致力于挖掘其在细分行业的潜在价值,全力推动 “AI + 全产业” 的算力智能化升级。

0 阅读:0

技术创新发展界

简介:感谢大家的关注