導(dǎo)讀:彭博社記者馬克·古爾曼披露,蘋果正秘密推進多款以“視覺智能”為核心的新硬件研發(fā),涵蓋配備攝像頭的進階版AirPods、首款智能眼鏡,以及一款可懸掛于衣物上的吊墜式裝置。
近日,彭博社記者馬克·古爾曼披露,蘋果正秘密推進多款以“視覺智能”為核心的新硬件研發(fā),涵蓋配備攝像頭的進階版AirPods、首款智能眼鏡,以及一款可懸掛于衣物上的吊墜式裝置。
根據(jù)了解,這三款設(shè)備都將圍繞Siri數(shù)字助手構(gòu)建,升級版本的Siri還將能夠依靠視覺信息來進行交互;并且它們均將需要連接蘋果iPhone手機使用,并且搭載功能不同的攝像頭。
蘋果的視覺AI戰(zhàn)略野心
蘋果CEO庫克在內(nèi)部全員大會及財報電話會上多次提及,“視覺智能”已成為Apple Intelligence中最受歡迎的能力之一,它極大地優(yōu)化了用戶在學(xué)習(xí)、搜索以及與屏幕內(nèi)容交互方面的體驗,顯著提升了效率。
目前,“視覺智能”主要集成在iPhone 16的相機控制按鈕上。用戶只需長按該按鈕,就能快速對周圍環(huán)境進行識別,進而實現(xiàn)多種實用操作。比如翻譯路標、獲取餐廳詳細信息,或者將傳單上的活動信息直接添加到日歷中。
隨著iOS 26系統(tǒng)的推送,“視覺智能”的應(yīng)用場景實現(xiàn)了突破性擴展。它不再局限于相機取景,而是借助全新設(shè)計的截圖查看器,覆蓋iPhone屏幕上的所有內(nèi)容。在iOS 26系統(tǒng)里,用戶完成屏幕截圖后,系統(tǒng)會自動調(diào)用AI能力對圖片中的信息進行處理。
值得注意的是,目前該功能允許用戶拍攝照片或截圖后,通過OpenAI的ChatGPT詢問有關(guān)內(nèi)容的問題,或者通過谷歌輕松進行反向圖像搜索。
然而,蘋果的野心顯然不止于做外部AI模型的“搬運工”。據(jù)透露,蘋果正在投入大量資源開發(fā)自研的原生視覺模型,旨在取代目前依賴的外部系統(tǒng),并讓這類技術(shù)成為即將推出的AI設(shè)備系列的核心。
三線布局,構(gòu)建全場景視覺感知網(wǎng)絡(luò)
古爾曼披露的蘋果三款新硬件設(shè)備,形態(tài)各異,覆蓋不同穿戴場景,共同搭建起蘋果視覺AI的“全場景感知網(wǎng)絡(luò)”。
帶攝像頭的AirPods:這款進階版AirPods是在現(xiàn)有AirPods基礎(chǔ)上加入攝像頭,賦予耳機“環(huán)境感知”能力。其主要功能是為AI提供視覺信息,而非用于拍攝照片和視頻。預(yù)計該產(chǎn)品最早將于2026年推出。
智能眼鏡:該款智能眼鏡預(yù)計最快2027年面世,將直接對標MetaRay-Ban的高端設(shè)備。據(jù)悉,這款智能眼鏡將采用無顯示屏設(shè)計,配備先進的攝像頭系統(tǒng),包括一個能夠拍攝照片和視頻的高分辨率攝像頭,以及第二個為Siri提供視覺信息和環(huán)境感知的攝像頭。用戶可通過該眼鏡與Siri交互、撥打電話、聽音樂、拍照和錄制視頻。
吊墜式裝置:這款吊墜式裝置體積如同AirTag,可夾在衣物或掛在項鏈上。它將配備低分辨率攝像頭,為AI提供視覺感知;內(nèi)置麥克風(fēng)方便用戶與Siri對話。蘋果計劃將其作為iPhone的延伸配件進行營銷,而非作為獨立產(chǎn)品推向市場。
端側(cè)AI與隱私計算的雙重護城河
蘋果這三款新硬件的曝光,背后是其一套完整的視覺AI戰(zhàn)略邏輯。蘋果并非簡單堆砌硬件,而是依托兩大核心技術(shù)構(gòu)建壁壘,走“端側(cè)落地、協(xié)同共生”的差異化路線。
“端側(cè)部署”作為蘋果視覺AI戰(zhàn)略的首要核心,即所有視覺感知、數(shù)據(jù)處理和AI計算均在用戶設(shè)備端完成,而非依賴云端服務(wù)器。這一點與Apple Intelligence的整體定位高度契合。
具體而言,對于日常的簡單任務(wù),Apple Intelligence將直接通過本地設(shè)備端模型的運行完成,所有數(shù)據(jù)均在用戶設(shè)備上進行處理,無需傳輸?shù)皆贫耍蟠鬁p少了數(shù)據(jù)暴露的風(fēng)險,在隱私保護方面具有顯著優(yōu)勢。
對于視覺AI而言,隱私保護堪稱“生死線”。視覺數(shù)據(jù)往往涵蓋用戶的出行軌跡、社交場景、面部特征等大量敏感信息。蘋果的端側(cè)處理模式,不僅徹底解決了視覺數(shù)據(jù)的隱私安全問題,還能有效降低數(shù)據(jù)傳輸?shù)难舆t,讓視覺AI的響應(yīng)速度更快,實現(xiàn)了“安全與體驗”的雙重平衡。
而這一切的背后,離不開蘋果多年來在芯片領(lǐng)域的深厚積累。從M系列芯片到H系列耳機芯片,再到神經(jīng)網(wǎng)絡(luò)引擎,蘋果的自研芯片為端側(cè)視覺AI提供了強大的算力支撐,讓輕量化的穿戴設(shè)備(如吊墜式裝置、智能眼鏡)也能輕松承載復(fù)雜的視覺識別任務(wù)。
如果說端側(cè)AI是蘋果視覺AI的“技術(shù)根基”,那么“生態(tài)協(xié)同”便是其最核心的競爭力。根據(jù)了解,此次曝光的三款新硬件,均需與iPhone手機深度連接,同時將與正在開發(fā)中的更智能版本的Siri實現(xiàn)無縫交互,形成“硬件-服務(wù)-數(shù)據(jù)”的完整生態(tài)閉環(huán)。這種閉環(huán)生態(tài)進一步鞏固了蘋果的生態(tài)壁壘,使其在激烈的市場競爭中更具優(yōu)勢。
寫在最后
不同于其他廠商“快速發(fā)布、快速迭代”的節(jié)奏,蘋果的視覺AI戰(zhàn)略是一場“慢工出細活”的長期主義實踐,其循序漸進地搭建起視覺AI的技術(shù)體系與生態(tài)框架,試圖將視覺AI從冰冷的技術(shù)從“實驗室技術(shù)”滲透至日常生活的每一個場景,重構(gòu)人機交互的底層邏輯。
此次古爾曼披露的新品,只是蘋果視覺AI戰(zhàn)略的“冰山一角”。未來,隨著這三款硬件的正式發(fā)布,蘋果將進一步完善視覺AI的場景覆蓋,推動人機交互從“屏幕觸摸”走向“視覺感知”。