其实那个时候edge AI我想说的是这个标
就是微软这次惊艳的copilot+PC背后的edge AI概念最大受益者
这也是我去年年初说的Nuvia CPU给高通带来质变之后会改变产业格局
逻辑就像我去年提到的,像微软演示的这样用LLM连接跨app的recall应用,edge端比如手机/电脑只有本地OS能做到这样的超级权限
在跨app操作上,隐私问题和权限问题是云端绕不过去的坎:比如说几十个app有几十个账户怎么存?总不能像rabbit那样,直接把用户的各种第三方账户存在自己服务器上吧。那么第一个风险就是云端异地登陆账号,容易识别为盗号被锁住账号
本地UI界面的理解也是一个巨大的优势,这种贴身服务的巨大隐私风险是不可能交给云端解决的
所以说云端LLM适合单任务,一旦涉及到多app交互的复合任务,以及贴身任务,权限问题和隐私问题是绕不过去的坎
去年LLM出来很多人都在思考是不是会像移动互联网时代那样所有app重写,基于LLM上重写
依我看,纯粹基于LLM可能过早,起码在交互形态和资源管理上还会依赖现有OS,LLM时代,会被重写的可能会是OS的形态,比如说:
以后的新OS将会是OS + LLM的紧密结合,这可能是edge端LLM最大的应用场景
没有结合LLM的OS将会达不到新时代标准
如果把OS抽象成各种service call,这一步(用LLM调度service call)在大厂内部将会优先发生,因为大厂内部flow里LLM的运行不存在资源限制,而edge端LLM接近GPT4水准还需要到2027年。事实上现在很多大厂已经在改内部data pipeline架构引入LLM以及大幅reorg来适应,在Orchestration层全方面拥抱LLM了
如果把LLM想象成OS层,那么以后也许会出现app来call OS LLM层获取其他app信息的情况,一定会有更多不一样的玩法。
edge AI市场,会从PC开始,到汽车,手机,眼镜慢慢铺开
加上PIM这种disruptive tech的加入,2027年左右将会让edge AI得到数倍巨幅加强
从科技史上拉长时间线来看,听起来像是又一个从巨型计算机->微型计算机PC,互联网->移动互联网的翻版(其实这也是为什么我从去年二月开始看好edge AI的直觉逻辑)
点击图片查看原图
点击图片查看原图
点击图片查看原图
点击图片查看原图