“所有应用都值得用大模型重做一遍”的风刮了几个月后,所有终端也想要借助大模型来重塑竞争力。
华为成为手机行业中首个给出大模型具体落地时间表的厂商。近期,随着HarmonyOS 4.0接入盘古大模型能力,华为手机内置的语音助手小艺,成为首个具备AI大模型能力的智能助手,并将在8月下旬开放测试。
(相关资料图)
按照上述进度,即将在下半年发布的华为Mate 60系列,也将顺利搭载大模型能力,并有望成为对抗苹果iPhone 15系列的一大卖点。
大模型之前,5G芯片,一度被外界视为华为对抗iPhone 15新品的秘密武器。根据网络爆料,华为5G手机有望在今年10月份回归。但与预期中的大模型能力相比,华为5G手机的推出时间,仍面临诸多不确定性。
目前,高通和联发科已经相继表态,称尚未获得美国政府批准向华为出售芯片组。即便华为5G手机回归消息成真,其竞争力也不容乐观,因为其更大概率将是联手中芯国际实现彻底的国产化替代方案,其代价则是在芯片制程上最多只能做到7nm水平,相比iPhone 15搭载的3nm,在技术迭代上差了两个时代。
与落后的5G芯片现状相比,在大模型上,眼下的华为却是实实在在领先了苹果一筹。
尽管苹果CEO库克同样将iPhone等硬件作为公司向外展示AI技术的载体,并认可人工智能掀起的巨大变革浪潮,但苹果对大模型的开发却显得颇为谨慎,按照库克的说法,“我们将继续在非常深思熟虑的基础上,在我们的产品中编织运用它。”
过去近十年间,国产手机厂商领导了两次大的产品变革:2016年开启的全面屏浪潮,一度将iPhone挤出中国市场前五;2019年开启的折叠屏浪潮,却尚未能撼动iPhone基础。
作为又一个新的产品变革机遇,大模型会是推动国产手机厂商走向大众化的“全面屏时刻”,还是囿于小众的“折叠屏困境”呢?
相比已经登录手机的ChatGPT、文心一言等第三方APP,直接内置在手机系统中的大模型产品,最直接的优势在于更强的隐私安全保障。
相比在云端处理数据的ChatGPT等APP,来自智能终端的本地化部署,可以最大程度消除用户对隐私泄露的担忧。
今年3月,ChatGPT就曾因为一个开源库的bug漏洞,造成了一个缓存问题,最终导致上亿ChatGPT付费版本——ChatGPT Plus用户的支付信息被泄露,包括姓名、电子邮件地址、信用卡号码的后四位数字和信用卡过期日期等。
受此影响,美国联邦贸易委员会还在7月份开始追查OpenAI是否违反消费者保护法,并要求OpenAI提供有关其处理个人数据、向用户提供不准确信息的可能性以及“对消费者造成损害(包括声誉损害)的风险”的大量记录。
借助手机端的本地化部署打消信息泄露担忧后,用户才能更放心大胆地将更多个人数据喂给大模型。这也就有了手机自带大模型产品的第二重优势,即打造真正的个性化私人助理。
除此之外,手机自带的大模型产品,还有着比ChatGPT们更加稳定的运行环境。
今年4月份,ChatGPT Plus被爆暂停付费,OpenAI给出的理由便是“需求量过大”,导致算力资源出现缺口。借助本地化部署,手机自带的大模型将大大削弱对云端算力资源的依赖程度,从而避免“宕机”事件的发生,甚至还可以做到在断网情况下,离线运行。
语音助手,成为一众手机厂商落地大模型能力的优先级入口。在大模型能力加持下,语音助手可以帮助用户自动生成文案、自动编写回复邮件、自动生成文章摘要、自动翻译……
甚至借助插件功能,大模型加持下的语音助手,还能完成跨APP的功能调用,如调动地图类应用、旅游类应用和天气类应用等,帮助用户制定一个出行计划或者预定餐厅等。
相比十多年前诞生的一批语音助手,大模型仿佛一针催化剂,直接带领Siri们进化到了2.0版本,并有望解决人语音助手屡屡被诟病为“人工智障”的难题。
ChatGPT问世后,微软CEO萨蒂亚·纳德拉曾吐槽道:“无论是Cortana、Alexa、Google Assistant还是Siri,这些语音助手笨得像块石头。”
据媒体爆料,苹果工程师希望将大模型与Siri结合,也是寄希望于推出更聪明的Siri。
在人工智能专家丁磊博士看来,造成上一代语音助手不智能的一大原因,在于其背后的技术体系不同。
Siri 1.0版本可以视为是决策式AI,主要工作是对已有数据“打标签”,对不同类别的数据做区别,干的主要是“判断是不是”和“区分是这个还是那个”的活儿。一旦外部请求超出既有标签库,语音助手就会回复“我回答不了”“我还在学习”等托底式回答,以延续对话。
Siri 2.0版本则是生成式AI,会在归纳分析已有的数据后,再“创作”出新的内容,实现“举一反三”的效果,在延续对话的同时,还能兼顾用户的使用体验。
对大模型登录手机上心的厂商,不只有华为和苹果。
国产手机厂商方面,小米是除华为之外对大模型最为重视的一家。今年4月份,小米正式组建大模型团队,规模达30余人,并表示有望在今年三季度将产品落地。
OPPO被爆出正在基于阿里大模型,打造手机端大模型产品。荣耀CEO赵明也频频对外表示,“未来将率先将大模型引入手机端。”
三星更是为了抢先在手机上搭载大模型产品,被爆出有考虑将其手机默认搜索引擎从谷歌更改为微软必应的计划。
为了尽可能挽回三星的出逃之心,谷歌一方面尝试对现有搜索引擎升级,加入大模型能力,另一方面,开始从系统底层融入大模型产品。
今年5月份,谷歌对外发布的新一代大模型PaLM 2中,就包括了一个最小参数级的壁虎(Gecko)方案。按照谷歌CEO皮查伊说法,“壁虎”将能够在手机上运行,且速度足够快。
今年下半年,谷歌旗下新款Pixel机型中,就将融入最新的PaLM2大模型壁虎版。Pixel一向是谷歌试验新安卓功能的前沿阵地。届时,无论国产手机厂商是否具备自研大模型的能力,将都可以直接从谷歌安卓系统中获取大模型加持的魔力。
除了来自系统开发商的努力外,芯片厂商也在为手机用上大模型操心。
联发科预计,今年10月发布的天玑9300,将支持大模型运行;高通则称,年内将能够支持参数达100亿的生成式AI模型在手机上运行。
据高通高管介绍,“100亿-150亿参数级别的模型可以覆盖绝大多数生成式AI的用例。如果终端已经可以支持这一参数级别,那么运算可全部在终端上进行,无需云端处理运算。届时手机会成为真正的个人助理。”
除此之外,在Meta推出开源大模型Llama 2之后,高通还进一步表示,将和Meta合作,在2024年推出 “手机版Llama 2”,帮助客户构建智能虚拟助手、生产力应用、内容创作工具和娱乐等用例。
相比云端千卡、万卡并行的集群服务器算力,智能手机本地化部署的优势反过来却成了束缚算力扩张的劣势。
Meta开源的Llama大模型最小版本也有70亿参数,以目前智能手机的配置,完全无法在现有内存中顺畅运行,只能部分放在手机闪存中运行,但这也导致了大模型反应速度缓慢。
此前在开源社区上,有开发者将Llama大模型移植到了手机上,但等待一次反馈的过程,最长要等上十分钟以上。
为了提升反馈效率,在补强芯片、内存等硬件配置之余,开发商开始给手机端大模型进行瘦身计划,包括但不限于剪枝、量化、蒸馏等手段,目的是在尽可能少地减损精度的前提下,降低手机端大模型所需的资源和能耗:剪枝,即将模型中对精度影响非常小的参数裁剪掉;量化,是使用更低精度的数据类型进行推理;蒸馏,则是从复杂的模型中,提取出效果相近但更加简单的模型。
但在高达万亿参数的GPT-4仍然无法解决大模型胡说八道情况下,瘦身后主动降低精度、参数量只有GPT-4百分之一的手机端大模型,如何减少虚假内容的生成,则要打上一个问号。
丁磊博士表示,ChatGPT等大模型产品,生成的内容仍存在很多的错误和逻辑不清的情况,部分场景下无法精确到执行层面被直接应用。
如果手机端大模型帮助用户制定的出行计划或者预定餐厅信息,频频出错,势必直接影响到用户的使用频率。这方面,ChatGPT已经是前车之鉴。
在连续增长半年后,第三方网站SimilarWeb监测数据显示,今年6月份,ChatGPT的网站与移动客户端的全球流量环比下降9.7%,这是自2022年11月30日发布以来,ChatGPT首次出现流量负增长。
在前OpenAI科学家肯尼斯·斯坦利看来,当下的大模型产品还没有进化到iPhone时刻。“生成式人工智能无疑已经席卷了世界,的确一些人每天都在使用它,但我认为我们仍然处于探索阶段,正在弄清楚我们如何个体地使用它。如果我们都找到了一个非常强烈的理由去随时使用它,那应该将会是iPhone时刻。”