由左至右分別是蘋果 CEO Tim Cook、蘋果人工智慧策略資深副總裁 John Giannandrea 以及軟體工程資深副總 Craig Federighi。Photo Credit: INSIDE/Sisley 攝

蘋果軟體工程資深副總 Craig Federighi 親自解析 Apple Intelligence:蘋果的 AI 野心

自製專題

在 WWDC 發表會結束後,《INSIDE》參與了蘋果軟體工程資深副總 Craig Federighi 和蘋果人工智慧策略資深副總裁 John Giannandrea的對談,在活動上,兩人更加釐清了蘋果的 AI 戰略路線。對於現在市場上突然興起的 AI PC 熱潮,Craig 也大方回應,「這有點好���,���們至少在 M1——那是 2020 年——就在打造 AI PC 了,它具有統一記憶體,很高的頻寬,可以帶來全面的體驗,但到最近市場才突然說出了 AI PC 這個類別,但其實我們很早就已經在做了。」

此次蘋果 WWDC,在介紹各種 OS 時顯然「加速」了不少,就是為了要為下半場的人工智慧,或者說個人化 AI 留出時間,而貫穿整個 Apple 晶片、軟硬體、操作系統以及所有產品線的 Apple Intelligence,就是蘋果向消費者端出的「AI」答案。

早在蘋果 WWDC 前就有不少媒體猜測,蘋果會在 WWDC 上不斷強調「隱私」這一蘋果自始自終的強項,而蘋果也沒讓大家失望,在發表 Apple Intelligence 時,從頭到尾都在強調個人資料的隱私以及控制權。

什麼是 Apple Intelligence?蘋果的所有設備都是 AI 的上下文

一言以蔽之,Apple Intelligence 是蘋果端出的,更加理解使用者的客製化 AI 系統(以及助理),能夠依照使用者的「個人情境」來調整 AI 提供的答案與服務。

也就是說,蘋果的 AI 能參考的「上下文」(context),將不只是與聊天機器人之間的對話紀錄,而是涉及使用者所有蘋果設備的使用方式以及跨應用程式的使用習慣。

例如,iPhone 上的通知的優���������,就會依照使用者的使用經驗與習慣來調整,在群聊非常活躍非常吵時,就能顯示較為關鍵的訊息;郵件內的系統也會變得智慧,舉例來說,使用者無需打開電郵就能知道航班資訊的總結。

當然,書寫、生圖、總結會議等等常見基本的 AI 任務,Apple Intelligence 也都可以辦到,要生成 emoji 也沒問題(所謂的 Genmoji),至於生成文本,基本上只要應用程式中有「輸入游標」的地方都能使用這項 AI 能力。

另一大亮點是 AI 總結的功能還來到「電話」應用程式當中,使用者現在可以錄製、轉錄和總結一段對話的音訊(當然,開啟錄音功能時,參與者會自動收到通知),這也顯示出蘋果的 AI 的一個極大優勢。(很難想像其他 AI 供應商可以總結電話內容吧?)

蘋果強調,大部分的 AI 運算都是在設備端運行,在不得已的狀況下(例如設備的零組件限制、某功能需使用的模型過大等等),才會讓 AI 任務上到雲端處理,蘋果也為此端出了 Private Cloud Compute(PCC)也就是私有雲運算這個解方。

蘋果強調,他們把在 Apple 設備上領先業界的隱私性以及安全性擴展到了雲端上,確保發送至 PCC 的資料無法被使用者以外的任何人存取,甚至是蘋果也無法。

Craig Federighi 以及 John Giannandrea 如何解析蘋果 AI 戰略?

在 WWDC 發表會結束後,《INSIDE》參與了蘋果軟體工程資深副總 Craig Federighi 和蘋果人工智慧策略資深副總裁 John Giannandrea 的對談,在活動上,這兩位蘋果 AI 的最主要領導者更加釐清了蘋果的 AI 戰略路線。

Craig 目前是 iOS 和 macOS 開發的主要負責人,而 John 在加入蘋果之前,在 Google 待了 8 年左右,負責領導機器智慧、研究和搜尋團隊,2018 年加入蘋果之後,負責監督整間公司的 AI 以及 ML 策略,還有 Core ML 和 Siri 技術的開發。

Craig 指出,蘋果要打造的 AI,首先要直觀,並且能依照使用者的個人情境給出答案,這需要對於「使用者本身」的知識與理解,再來則是要能保��隱私��

他���出在 WWDC 上舉過的案例,如果需要知道自己的會議延後半小時後還能不能趕上女兒的表演會,如果使用「聊天機器人」這種方式,就難以獲得答案,因為它不知道誰是你的女兒,她的表演會在哪裡,以及你公司的所在地點、你偏好的交通方式,當然也就無法進行這類的任務。

「但如果是口袋中的設備,那一切就不一樣了,」Craig 說。

他也強調,要把這些知識結合 AI,需要在隱私方面有更深度思考。

面對如今生成式 AI 如火如荼的發展,蘋果自己的 AI 策略顯然是「先找到有意義的應用場景」,Craig 說,蘋果的使命是打造出有意義的、普通人都能用上的 AI。

他強調,在生成式 AI 熱潮之前,蘋果設備中就有 200 多種機器學習模型,包括車禍檢測功能,AI 都是重要的促成者,「AI 不是目的本身,而是達成目的的方式,我們會以『蘋果的方式』來讓使用者體驗與應用有意義的 AI。

至於生成式 AI 的幻覺問題,兩人指出,蘋果打一開始就非常謹慎在設計 AI 模型,研究了影響模型的行為,當然也有自家的 AI 原則,希望以負責任的態度來作 AI,也為此做了許多測試。

對於現在市場上突然興起的 AI PC 熱潮,Craig 也大方回應,「這有點好玩,我們至少在 M1——那是 2020 年——就在打造 AI PC 了,它具有統一記憶體,很高的頻寬,可以帶來全面的體驗,但到最近市場才突然說出了 AI PC 這個類別,但其實我們很早就已經在做了。」

Jonh 則回應了蘋果如何訓練 AI 的問題,他強調,蘋果首先在網路搜尋方面有很多年的研究,從公有雲上尋找品質最高的數據,並且也有取得授權,包括新聞、教科書等等,擴散模型則透過不同方式微調,並強調這些模型都是蘋果自己打造的。

Craig 也補充了 Private Cloud Compute,他指出,使用者的 IP 位址會被遮蓋起來,個資也不會永久儲存(會在完成請求後就刪除),iPhone 也只會信任有經過驗證的軟體,並且可以拒絕軟體將資料發送至雲上。

蘋果強調,獨立專家可以檢查在 Apple 晶片伺服器上運行的程式碼以驗證隱私,私有雲運算以加密方式確保 iPhone、iPad 和 Mac 不會與伺服器通訊,除非其軟體已有被公開檢查的紀錄。

至於 AI 對環境的影響,Craig 表示,傳統雲端運算,尤其是大模型對於環境有極大的影響,「我們的方案對環境的影響小了非常多,蘋果晶片的設計十分節能,且 100�� 使用再生能源。」

Siri 與 ChatGPT,以及 Gemini?

John 指出,Siri 在這代操作系統上有了巨大的飛躍,它已經不只是語音助手,而是所謂的「設備助手」了。不但有全新的使用者介面、能聽懂使用者並且真正理解設備和上下文,這得益於「語意索引」,讓 Siri 可以存取設備上的內容來理解需求,例如你可以用自然語言的方式,請 Siri 為你找到一張「某個人穿著黃色登山服」的照片,不必在大海撈針,

他強調,很多年前蘋果就開始做很多基礎研究工作,例如語意索引,甚至能讓 Siri 知道影片中發生了什麼,所有搜尋都變成語意索引,以提升搜尋效率。另一個重要的方面是隨著開發者採用其 API,Siri 的發展會變得越來越聰明。

最後,明明有了 Siri,為何還會選擇與 ChatGPT 整合?

Craig 指出,Apple Intelligence 都是基於蘋果所做的模型,包括設備端、私密雲等,都是蘋果自家模型。

「但我們知道外部有很多平台和模型可能有專門領域的模型,例如醫療或法律,有些使用者希望能了解這些知識利用這些模型,這就可以作為蘋果自家模型的補充,我們希望能從最好的開始,所以我們和 OpenAI 合作。使用者不需要再去到另一個地方,打斷工作流。其他像是創意寫作、寫程式都可以調用不同的模型。」

最後,Craig 也證實,Gemini 未來可能會加入,但目前沒有更詳細的計畫要宣布。

「iOS 已經到達第 18 個版本,不過隨著時間推移,iPhone 將不斷演進,這對蘋果來說仍是全新的開始,這是一段漫長而令人興奮的旅程的開始。」Craig 強調。

核稿編輯:Jocelyn

快加入 INSIDE Google News 按下追蹤,給你最新、最 IN 的科技新聞!

延伸閱讀:


 

最新發展: