不可发布违法信息,一旦发现永久封号,欢迎向我们举报!
百科|常识分享
分享各种百科|日常
16百科网 > 餐饮行业新闻资讯 > 百科|常识 >  苹果为什么不接入AI大模型? 全程回顾苹果WWDC发布会:AI功能终于靴子落地


  • 【莆田鞋厂家分类】
  • 【奢侈大牌包包厂家分类】
  • 【潮牌奢侈服饰鞋子厂家分类】
  • 【名表厂家分类】

厂家货源分类区域

苹果为什么不接入AI大模型? 全程回顾苹果WWDC发布会:AI功能终于靴子落地

发布时间:2024-08-13 11:49:32  来源:互联网整理  浏览:   【】【】【

苹果为什么不接入AI大模型? 全程回顾苹果WWDC发布会:AI功能终于靴子落地 

苹果为什么不接入AI大模型?

作者:焗盐星星

在过去的一年中,AI大模型几乎可以说是最受瞩目的技术、趋势和概念!大众和全球各国政府都对其关注有加,科技互联网公司也在加速布局AI大模型。即使没有构建AI大模型的技术实力,也在紧迫地寻找业务与AI大模型的结合点。手机厂商也都在积极布局AI大模型,没有一家打算错过。

目前,AI技术已经在智能手机领域取得了巨大的突破,但奇怪的是苹果却一直没有采用更大模型来提升智能手机的AI能力。在六月份结束的WWDC 2023大会上,苹果再次选择了“谨慎对待”当前大火的人工智能。相比之下,苹果似乎更倾向于使用“Machine learning”(机器学习),去还原技术的本质。

提到苹果的人工智能,最令人印象深刻的应用莫过于“充满漏洞”的Siri了。

自2011年iPhone 4S推出以来,Siri一直备受人们“调戏”,但至今其交流能力仍未达到市场前沿水平,成为鲜有人问津的鸡肋功能。在人工智能行业呈现井喷式增长的背景下,苹果公司在人工智能领域缺乏新动作,被普遍认为已经开始掉队。面对各种质疑声音,苹果CEO库克表示:苹果本质上是硬件厂商,公司并没有像谷歌或微软那样通过升级软件来提高生产力的压力。

苹果为什么不接入AI大模型?

“卷”大模型是指在智能手机中集成更大、更复杂的神经网络模型,以提供更强大的AI能力。但这样的模型也面临着一些挑战和局限性。

首先,大模型需要更高的计算资源和存储空间,这对手机的硬件和电池寿命提出了更高的要求。

其次,大模型的训练和优化过程需要大量的数据和时间,这对厂商来说是一个巨大的工程。

虽然大模型存在一些挑战,但小模型也具有其独特的优势和应用场景。小模型具有体积小、计算资源需求低和训练效率高的特点,适合在智能手机中运行。小模型在语音识别、图像识别和自然语言处理等领域都取得了显著的进展,为用户提供了更好的体验。

在选择AI大模型还是小模型时,需要综合考虑市场需求、技术成本和用户体验等因素,以满足不断变化的消费者期望和需求。

在开发者对于人工智能需求不断增长的今天,苹果持有谨慎的态度,但这并不代表其不正视这项技术的未来发展与前景。在WWDC 2023中,苹果推出了iOS 17系统,为用户提供了一系列的新功能和改进,包括电话和FaceTime的个性化和互动功能、全新的日记应用、新的待机模式、新的动态小工具、CarKey数字汽车钥匙功能的增强,以及ARKit API框架的改进等。苹果作为硬件厂商,拥有自己的芯片、服务、系统等产品,这些产品构成的完整生态为苹果在人工智能领域提供了强大的基础设施和平台,可以在硬件和软件之间实现高效的协同和优化,提升用户体验和性能,也可以更好地保护用户隐私。

在当前人工智能领域的数据与隐私泄露风险以及人工智能监管问题已经成为全世界要共同面对的问题的情况下,苹果对用户隐私和数据安全的重视在行业里是家喻户晓的。甚至将其隐私保护功能作为产品的重要卖点。苹果采用了多种技术手段,如加密、生物识别、差分隐私等,来保护用户数据不被泄露或滥用。这将使苹果的人工智能业务能够更加合规地接触并使用用户数据,进行更有精确的服务用户,并且大幅度提升人工智能的响应速度和可靠性。同时,这也为苹果在人工智能领域的发展提供了更加坚实的基础。国内外出台的一系列政策法规也将进一步推动人工智能的发展,保护用户的隐私和数据安全。

尽管目前苹果手机更多的是关注小模型的研发和应用,但随着技术的发展和应用需求的变化,未来可能会出现更多采用AI大模型的产品,比如Vision Pro。

在即将推出的Vision Pro产品展示中,虽然苹果没有明确提及“人工智能”,但似乎所有的新动作都围绕着这一领域展开。

Vision Pro采用了基于Transformer的语音识别模型,以提高语音识别的准确性,并有效处理自然语言的序列数据。作为基于自注意力机制的深度学习模型,它还能进行自动纠错和词预测,从而提升语音识别的准确性。此外,Vision Pro还依赖视觉生成建模,通过前置摄像头扫描人脸信息,并利用机器学习技术,使用先进的编码神经网络为用户生成一个“数字分身”。利用先进的机器学习模型,根据用户的眼球追踪和瞳孔状态,预测用户的身体和大脑状态,例如是否对当前事物感兴趣、是否走神、注意力是否分散等。这些数据有助于Vision Pro提供更个性化和智能的体验,例如根据用户的注意力、放松程度或学习情况来更新虚拟环境,或者根据用户的眼睛注视方向来进行生物反馈。

此外,Vision Pro还配备了卷积神经网络,通过卷积层、激活层、池化层和全连接层实现高效和准确的图像识别和对象检测功能,为用户提供丰富逼真的混合现实体验,在自动驾驶、安防监控、医学图像分析等领域发挥着重要作用。

综合Vision Pro、iOS 17以及整个苹果生态的发展方向,可以看出苹果并不希望模糊地定义人工智能,而是热衷于用技术改造或扩展自身的产品品类,打造自己的品牌。对于苹果来说,“机器学习”这个词或许更精确地描述其技术特点。

与微软和谷歌等公司相比,苹果对人工智能技术的开放性较低,但依靠庞大市场需求支持,苹果更希望维护好产品所带来的优质体验。无论是“机器学习”还是“人工智能”,其核心意义仍是为用户带来价值,最终产品的评价仍取决于消费者的满意度。

相信人工智能的发展最终会朝着平民化、日常化的方向发展。

苹果一直以来都没有采用曲面屏,而是继续使用2.5D弧面屏。尽管曲面屏在外观上更加吸引人,增加了手感和舒适度,也成为高端手机的标志之一,像华为mate系列、小米Mix系列等国内高端机型都采用了曲面屏。然而,苹果iPhone 15 Pro最新发布的手机仍然采用2.5D弧度屏幕,这意味着苹果再次回归了之前采用过的2.5D弧面屏,而不是曲面屏。

2.5D屏和曲面屏的最大区别在于形状和工艺。2.5D屏幕是一种玻璃,其中间部分与一般的2D屏幕玻璃呈平面,但其边缘呈一定的弧度,使得边缘看起来有水滴状的效果。而双曲面屏则是正面屏幕绕其对称轴旋转而生成的曲面,即为双曲面屏,它是一种弯曲的屏幕。

查看文章精彩评论,请前往什么值得买进行阅读互动

发布于:北京


全程回顾苹果WWDC发布会:AI功能终于靴子落地

来源:财联社

北京时间周二凌晨1点,苹果公司备受瞩目的WWDC24终于揭开面纱。

除了常规的iOS 18、iPadOS 18、macOS Sequoia、watchOS 11等系统更新外,传闻已久的“Apple Intelligence”——“苹果智能”套件,以及与OpenAI的合作也终于在世人面前亮相。不过从苹果周一股价下挫近2%的表现来看,资本市场对于“苹果AI”谈不上满意。

注:为了方便阅读,首先把投资者最关心的“Apple Intelligence”进行总结,然后按照发布会的时间顺序依次呈现各个板块。

“Apple Intelligence”是什么?哪些设备能用?

苹果将Apple Intelligence定义为iPhone、iPad和Mac的个人智能系统,利用苹果芯片的能力来理解和创建语言和图像,以及跨应用采取行动。

既然特意强调芯片&本地运行,Apple Intelligence自然也有设备端的限制。iPhone方面目前只有两台设备可以用——iPhone 15 Pro和iPhone 15 Pro Max,不过平板和电脑方面似乎只要有M1芯片(及更新的M系芯片)就行了。

苹果表示,目前Apple Intelligence仅支持英语,Siri和设备语言都需设置为英语(美国)。公司将在未来一年里陆续更新今天发布的功能,并支持更多的语言和设备。

具体的AI功能方面,在内置于iOS 18、iPadOS 18和macOS Sequoia的全系统范围写作工具(邮件、备忘录、Pages,以及第三方应用)中,用户可以在所有场景中重写、校对和总结文本,从而实现一键校对语法、调整措辞语气、检查错别字等功能。在“邮件”应用中,用户还可以查看邮件摘要,并获得智能回复的建议。

对于受困于手机推送不断地用户而言,这次的更新也有了一个优先通知功能——扫描并总结一大堆推送的关键信息。

在“备忘录”和“电话”应用中,用户可以录制、转录和总结音频(在通话时启动录音,参与者会自动收到通知)。通话结束后,Apple Intelligence会生成重点摘要。

其他功能还包括:能够生成自定义表情包的“图像游乐场”功能、可以识别并移除照片背景干扰物体的擦除功能。在“回忆”功能中,用户只需输入描述,苹果系统就能利用现有的图库创建“具有独特叙事弧线的电影”。

Siri的外形和功能也出现了较大幅度的升级,将能够在苹果和第三方应用程序中执行数百种新操作,例如“将周六烧烤的照片发送给XXX”等。后续随着屏幕感知功能上线,Siri将能实时在应用程序中理解用户行动并与予以反馈。

最后是苹果与ChatGPT的整合。用户可以呼唤Siri,以及在全系统的写作工具中调用ChatGPT,实现聊天机器人、图像生成等功能。苹果用户可以无需创建帐户免费访问GPT-4o,ChatGPT的订阅用户可以连接他们的帐户,并直接在苹果系统中访问付费功能。

开场&Vision Pro确认登陆中国市场

00点56分:奥尔特曼来现场了?

知名爆料人古尔曼转发一张在苹果总部现场拍摄的照片,并表示奥尔特曼似乎正在与苹果分管企业开发的高管Adrian Perica以及销售主管Mike Fenger聊天。

01点00分:苹果WWDC24主题演讲开幕,今年的开场整活是费德里吉的“跳伞秀”,库克则站在公司房顶看着他们落地。

01点06分:库克高喊Good Morning,表示今天会先讲一系列系统更新,然后再谈AI。

01点09分:首先登场的是visionOS 2。新功能包括使用现有“照片”中2D图像,就能生成栩栩如生的3D“空间照片”等,这里的“2D转3D”其实已经用上了机器学习的技术。苹果表示,目前已经有2000余款专门为Apple Vision Pro开发的应用,还有150万款iOS和iPadOS app可以使用。

01点10分:参考iPhone的涉及,佳能专门为拍摄空间视频开发了一款镜头,这也是整场发布会唯一的新硬件。

01点12分:发布完新系统后,库克宣布Vision Pro将登陆8个国家/地区,中国市场将从本周五(6月14日)上午9点开始预购,6月28日起正式上市。苹果中国官网显示,起售价为29999元人民币。

iOS 18

01点15分:节奏非常快,接下来进入iOS 18。新版iOS提供了个性化主屏幕的功能,包括重新排列图标、改变颜色&大小、并将其放置在屏幕任意位置的功能。控制中心也进行了重新设计,定制化的灵活度也有所上升。另外安卓用户非常熟悉的“隐私模式”也首次进入iPhone。与此同时,“照片”app也迎来了迄今最大幅度的设计更新,简化的单一视图取代了网格设计。

01点18分:“信息”app的文字也可以设置独特的显示效果,包括添加粗体、下划线、斜体和删除线等格式,同时还可以设定延时发送。

01点23分:苹果更新卫星信息发送功能。iPhone 14及更高版本的手机可以离开网络时与人发短信(估计会有限制使用的地区)。此前这项功能仅限于紧急通信。

01点25分:苹果给iPhone带来了“游戏模式”,演示画面用的是中国游戏《绝区零》。同时苹果也给iPhone带来了Tap to Cash功能,类似于两台iPhone可以直接通过触碰来转账。(注:Paypal的股价跳水了,今天的第一个输家诞生)

01点30分:iOS 18的更新汇总。

AirPods、Apple Watch新系统

01点33分:接下来讲的是苹果音频和家居产品的更新,中国用户最关心的应该是AirPods。通过Siri的更新,与AirPods Pro(第二代)的交互将更加个性化,例如能通过语音和动作接电话。同时“语音突显”新功能还能消除背景噪音,提高通话质量。个性化空间音频也将应用到游戏中,苹果这回用的是腾讯的游戏做演示。

01点39分:苹果股价持续下跌,跌幅已经超过1.5%——快40分钟了还没讲到AI。

01点42分:接下来更新的是watchOS 11。新增的功能包括一项名为 “训练负荷 ”的功能,健身应用的可定制性也有所增强。苹果手表现在也支持交传翻译功能。令投资者担忧的是,苹果似乎又回到了用“机器学习”、“算法”来称呼AI的时代了。

iPadOS 18

01点47分:这应该是有一项有潜力冲击微博热搜的更新:苹果宣布计算器应用登陆iPad!

01点50分:在正经的iPadOS 18更新中,同样将获得iOS同款的主屏幕定制功能、新的照片应用和升级后的控制中心界面。新的iPadOS将有一个新的浮动标签页栏。另外还有一个Math Notes的新功能,能够使用Apple Pencil书写数学题并进行解答。

同时基于Smart Script功能,用户实时调整手写文字,例如修改错别字(改完了以后依然是按照手写字体体现)、添加空格,划掉句子,甚至可以在手写文字中粘贴键入的文本,而段落会根据新增内容自动调整。

macOS 15

01点52分:经过一段跑酷后,费德里吉开始介绍macOS 15,也就是Sequoia系统。

01点55分:新的Mac系统将出现一个叫做“iPhone镜像”的功能,可以使用Mac访问并完全控制iPhone,与此同时手机能够全程保持锁屏。iPhone收到的通知将首次在Mac上显示,当然也能交互。

01点57分:Mac的游戏属性也进一步增强,《刺客信条:影》、《生化危机 7》、《幻兽帕鲁》等游戏将在今年登陆Mac。苹果同时推出Game Porting Toolkit 2,方便开发者们以前所未有的速度将游戏移植到苹果设备上。

01点58分:密码管理app也如期登场,这款应用将登陆iOS、macOS、iPadOS、visionOS和Windows。

01点59分:在Safari功能更新中,出现了翻译、归纳总结等功能。

02点04分:MacOS的更新结束了。

Apple Intelligence登场

02点05分:库克重新登场,开始讲AI......应该是“Apple Intelligence”——苹果智能套件。

02点08分:

“苹果智能”套件将能够优先置顶推送、总结文本、生成图片,同时AI指令可以跨应用运行(例如邮件、地图、日历和存储在本地的个人信息等)。

02点15分:目前看起来“苹果智能”套件在手机本地运行层面,只能在A17 Pro上跑得动,也就是只适用于iPhone 15 Pro和iPhone 15 Pro Max,而M系芯片的iPad都能跑得动。

02点17分:苹果还提出了一个“私有云计算”的概念:“苹果智能”将在使用苹果芯片的专用服务器上启用云计算模式,确保用户数据的私密性和安全性。这里指的是那些“不得不上云运作”的AI功能。

02点23分:用上了AI的Siri将会变得自然、更贴近语境和更个性化。外观将变成一个环绕显示屏的发光体。新增了“向 Siri 输入”(Type to Siri)功能,通过双击显示屏底部,输入想做的事情,比如设置闹钟。苹果公司“画饼”称,明年将推出更多新功能来改进 Siri,包括让Siri了解显示屏上内容的屏幕感知功能,Siri还可以代表用户在应用程序中采取行动。

02点25分:在邮件等一系列文字输入应用中,将新增重写、改写、总结等功能,帮助用户快速起草和改写文件,修正语法错误等。

02点28分:苹果手机的新推送优先级功能不仅能够置顶显示某些应用的推送,还能总结一系列推送的信息(例如疯狂弹窗的聊天应用)。

02点32分:苹果发布“表情包AI生成器”,这项功能也将支持开发者调用API。

02点38分:“苹果智能”的语音转写&总结功能,也适用与打电话录音的场景。

02点39分:深度集成在系统里的ChatGPT登场!用户可以在使用Siri和一系列应用期间,要求系统调用ChatGPT来进行回应。和OpenAI的政策一样,免费用户无需创建账号就能使用GPT-4o,OpenAI的付费用户也能关联账号使用付费功能。苹果表示,未来也会引入更多的AI模型。

02点43分:“苹果智能”的部分结束,镜头切给库克进行收尾。

02点44分:发布会结束,本场发布会依旧是使用iPhone拍摄,并用Mac剪辑的。

02点50分:发布会结束时,苹果股价下跌近1.9%,谷歌短线拉涨超1%、微软也稍稍走高。

责任编辑:
热门阅读排行
© 16百科网