苹果就是人工智能荡妇!这是我在Reddit上看到的一句话。话有点糙,不过用来形容苹果当下在人工智能上的策略,倒也蛮形象。 继在6月12日WWDC大会上宣布和OpenAI合作之后,又传出苹果正和谷歌洽谈,并预计在秋季将Gemini整合进iOS。与此同时,还有消息说,苹果还在跟Meta讨论合作事宜。 接下来是不是轮到Anthropic了?毕竟它在6月21日发布的Claude 3.5 Sonnet收获了很高的市场评价,不仅性能不输GPT-4,还比三个月前推出的Claude 3 opus 速度快 2 倍,成本低 80%。 有人开玩笑,坐等马斯克推特发飙,因为除了Grok,大模型似乎都在苹果的考虑范围之内。 苹果为何如此花心,见大模型都想上?不妨听听我的分析。 苹果和OpenAI的合作主要基于Siri。当OpenAI 5月发布GPT-4o时,我就觉得它是为Siri量身订做的,因为所有的演示都是通过语音来调用大模型,包括发送图片、查天气情况、实时翻译等,非常贴合Siri的使用场景。自从chatGPT问世以来,大家对Siri的弱智再也无法忍受了,要求苹果对它进行AI升级的呼声越来越高,而GPT-4o的表现简直就是我们理想中的Siri。 不过令人意外的是,一个月后苹果在WWDC上隆重介绍了新siri,而对OpenAI的合作只是轻描淡写一笔带过。根据演示,新siri发图片等AI功能应该来自苹果自身的端侧大模型,chatGPT是当用户处理复杂任务时,苹果才推荐使用。此外,数据留在苹果的私有云上,OpenAI拿不到。 有消息说,苹果和OpenAI的合作互不付费,但如果有用户订阅chatGPT,苹果能获得类似应用商店一样的分成比例。 通过这样的平等合作,苹果完成了万众期待的siri升级,同时又保留了自己在AI上的主导权。 跟谷歌合作和跟OpenAI合作的消息是同步传出来的,为什么OpenAI已经落