AI 下一阶段的畅想 -#46

尽管已经有很多大佬分析过 AI 的未来,但我还是想聊聊自己的想法,畅想一下 AI 下一阶段的发展。其主要目的是为了给自己或你们一个参考:作为一个个人投资者或开发者,应该怎么把握住下一阶段的机会,如何发展自己的技能、如何挖到有潜力的公司、如何把握趋势开发出有价值的产品,等等。

AI 下一阶段的畅想 -#46

上周不管是大厂还是小厂,好像商量好一样,都攒足了劲发布了一系列 AI 产品,让科技圈媒体赶稿都忙不过来了。我看到的有:

  • OpenAI 发布了 DALL·E 3,可谓是万众瞩目
  • Meta 发布了和雷朋合作的 AI 眼镜,还有最新的 Meta Quest 3
  • Google 推出了 Bard Extensions,可以无缝结合 Google 其他生态的数据
  • 微软发布了 Windows Copilot,在系统层面为你提供 AI 助手;Bing Image Creator 可以直接使用 DALLE3 了,我试了一下,效果很棒

其实每个星期都有新的 AI 产品诞生,比如前两周发布的 GitHub Copilot Chat 应该是最和我息息相关的了。但这周不知道怎的突然有点激动,可能是因为看了太多的演示视频,也有可能是看了 小扎和 Lex 在元宇宙中的播客,总之就是脑洞大开,突然有点期待 AI 时代的到来。

可能很多人都知道 Amara 定律:我们在短期内会高估一项技术的影响,而长期内低估。距离 ChatGPT 发布已有大半年的时间,人们从最开始的狂热到后来的热情消退,再到现在每天见证新的产品诞生,其实 AI 的进度已经超过了我们的预期,现在的瓶颈反而成了供应端(GPU)。付费就能优先体验更好的模型(更牛逼的 GPU)竟然成了一个很好的商业模式,这是很多人之前没想到的。

尽管已经有很多大佬分析过 AI 的未来,但我还是想聊聊自己的想法,畅想一下 AI 下一阶段的发展。其主要目的是为了给自己或你们一个参考:作为一个个人投资者开发者,应该怎么把握住下一阶段的机会,如何发展自己的技能、如何挖到有潜力的公司、如何把握趋势开发出有价值的产品,等等。

AI 的层级

上周红杉资本发布了一篇 Generative AI’s Act Two 来对应它们去年发布的 Generative AI: A Creative New World,我觉得这两篇文章很好的概括了从去年开始到现在 AI 的两个阶段。其中最新的 Generative AI’s Act Two 提到了 AI 的基础设施层级,如下图所示:

它把 AI 的层级从下到上依次分为了:

  • Foundation Models 基础模型
  • Compute & Inference 算力
  • Model Tuning 模型调优
  • Developer Tools/Infra 开发者工具和架构
  • Apps & Workflows 应用和工作流
  • Production Monitoring & Observability 产品监控和分析

图中每个层级都直接给出了对应的公司,很有参考价值,不过基本上除了大厂都还没上市(当然你也可以迂回地去投)。但我觉得这个划分其实不太符合我一个技术人的直觉,我认为更好的分层应该是像网络 OSI 七层协议一样,从物理层面到交互层面。网络引领了上一个时代,那作为下一个时代的 AI,它的层级应该是下图所示(我自己画的,海涵):

其实从下到上,也很好理解,我们从硬件出发分成了六层:

  • Hardware 硬件
  • Infrastructure 基础设施
  • Fondation Models 基础模型
  • Data 数据
  • Data Infrastructure 数据基础设施
  • Application 应用

硬件很好理解,目前英伟达的显卡都已经被卖爆了,不过这里也不可以忽视其他的大型硬件厂商,比如 Apple Intel AMD 等等。因为众所周知硬件的护城河还是挺高的,未来 AI 需要用到硬件的地方不只是在最底层的训练和模型,而是整个生态每一层都需要。而且未来还有可能出现专有 AI 硬件,对应到应用层或者数据设施层都有可能,比如《硅谷》里面的冰箱...(笑)。

基础设施目前很多大厂在发力的地方,毕竟硬件的供给侧出了问题,大家只能在 Infra 上面卷。现在几乎每家云都提供了 AI SDK,无论是企业还是个人都可以轻松对接,这也是使得 AI 在应用层发展如此迅速的一个原因。还有一些公司在致力于做“弹性扩容”版 GPU,使得未来在 AI 训练上的硬件供给将不再是一个制约。

中间的模型层和数据层是硅谷当红炸子鸡 OpenAI 们正在做的事。我把他们分成了专有/私有和开发/公开两类。它们基本上也分别对应了 toB 和 toC 的两种情况。目前每个公司的套路不一样,训练模型、商业模式、人才战略都各不相同,但又相互渗透,毕竟硅谷就那么大,人才之间的流动带动了整体的繁荣。Meta 选择了开源模型的道路,我个人觉得可能是更有利于小公司和其他层级的路线。另外,尽管现在训练语料的瓶颈似乎还未达到,但在可预见的未来是极有可能出现的,著名科技作者 Benedict Evans 在最近的文章 Generative AI and intellectual property 中提到了 AI 与知识产权的问题。另外在模型长度越来越不受限之后,语料的有效性会迎来挑战,真实的产自人类的预料会越来越稀少,而 AI 生成的预料又会降低模型的可用性,这目前似乎还没有什么好的解法。

Data Infrastructure 层其实主要就是数据库相关产业,数据存储方式的演变可能对后续 AI 的发展也会有很大的影响。比如图数据库是不是会比关系型数据库更适合 AI?

最后的应用层,大家应该每天都能看到无数如雨后春笋般的 AI 应用在发布,同质化已经很严重了,具体哪些能在将来拔得头筹,就很仰仗于我接下来要聊的问题——AI 应用的壁垒。

This post is for paying subscribers only

Already have an account? Sign in.

Subscribe to GeekPlux Letters

Don’t miss out on the latest issues. Sign up now to get access to the library of members-only issues.
jamie@example.com
Subscribe