蘋果AI跳票了?! iOS 18.4 AI功能大盤點
蘋果AI完整體驗:實際測試後的真實心得
這篇文章,我想完整分享目前蘋果AI實際開放了哪些功能,以及這些功能具體要如何使用。我很好奇,與去年發表會相比,哪些功能已經可以使用了,哪些功能還沒開放,想知道蘋果AI的進度到底在哪裡了。我會對比去年的iPhone 16 Pro發表會影片以及去年的WWDC影片,逐條檢視他們提到的功能,看看現在有沒有開放,有沒有跳票。
我的測試環境設定
在開始進行實測之前,先說明一下我使用的環境。我目前使用的手機是iPhone 16 Pro,系統已經更新到iOS 18.4。這個版本雖然支援中文,但可惜的是它支援的是簡體中文。這點有點尷尬。因此,你必須把手機的系統設定調整成簡體中文,否則就無法使用這些功能。具體的調整方法是在「設定」中的「一般(通用)」裡下拉,找到「語言與地區」。首先,你要先新增「簡體中文」作為首選語言。新增並將其選為手機的主要語言後,地區也要改成「中國大陸」。接著,在蘋果AI相關的設定中(也就是「Apple智能與Siri」這個選項),也要改成「中國大陸的中文」。這樣設定之後,蘋果AI的功能才會出現。
如果真的不喜歡簡體中文,也可以改成英文。但我之所以設定成簡體中文,是想測試在簡體中文設定下,繁體中文的使用者可以使用到哪些功能。如果我直接用繁體中文測試,這個影片可能兩分鐘內就結束了。所以,我選擇先設成簡體中文,看看開放了哪些功能,以及繁體中文使用者是否能使用。
寫作工具:改寫與摘要實測
首先要檢查的是影片中提到的「書寫工具」部分。這個功能旨在讓你在撰寫Email或文案時,可以更簡單地修改句子片段、改變語法,甚至進行客製化選擇。
我準備了一段文字來測試這個工具。操作方法是先將想要修改的文字選取起來。選取後,旁邊會出現一個蘋果AI的LOGO,點一下。接著就會出現書寫工具的選項。下方提供幾種功能,像是可以把文字轉換成表格、條列要點、摘要,以及上面的「改寫」功能。改寫可以調整語氣,例如友好、正式、簡潔。還有校正和改寫的選項。你可以根據需求選擇如何修改。
我嘗試將文字改成「正式語氣」。結果它顯示「不支援該語言」,因為我選擇的文字是繁體中文。書寫工具目前不支援繁體中文。
沒關係,還有一個方法可以嘗試。我可以使用「簡繁互換」的功能,將這段文字轉換成簡體字。按一下後,文字就變成了簡體字。現在再試一次,選擇「正式」語氣。這次就可以使用了。它會開始改寫。它會把你的這段文字改寫得比較正式一些。當然,改寫後的文字會是簡體字。這點比較無奈。改寫後,它會顯示原文和改寫後的樣子,讓你選擇是否替換。
此外,你也可以利用這個工具對選取的文字進行「摘要」。點一下摘要後,它會簡單地說明這段文字做了什麼事情。
更有趣的是,你還可以進行客製化的描述。例如,你可以告訴它你想要改成「IG貼文的方式」。按下送出後,它會詢問是否要使用ChatGPT來完成。你可以選擇「使用ChatGPT」。它就會開始進行改寫。改寫完成後,它會顯示IG貼文的格式。
這裡有個很奇妙的地方。因為我的ChatGPT預設語言是繁體中文,所以你看它改寫完之後,上方出現的文字是繁體中文的,而不是單純的簡體。這點我覺得蠻神奇的。改寫後的貼文還使用了hashtag等簡單的IG貼文方式。
總的來說,這個書寫工具的功能還算OK,算是實現了它想要做的事情。雖然目前主要支援語言是簡體中文。所以如果你是繁體中文使用者,必須先進行轉換才能使用。但如果你是使用到ChatGPT的功能,語言就沒有差別,繁體中文也可以使用。
視覺辨識功能實測
接下來是「視覺辨識」(Visual Lookup)功能。這算是他們近期主打的功能之一,特別是針對動作按鈕的部分。長按動作按鈕後,就可以開始進行視覺辨識。
假設你開箱一個物品,直接拍照後,你可以選擇「搜尋」或「詢問」。如果你選擇「詢問」,基本上它應該就是直接將照片餵給ChatGPT,問這是什麼東西。我覺得這有點無聊,就是單純把東西餵給ChatGPT。
如果你選擇的是「搜尋」,它會直接透過Google搜尋進行查找。它可以告訴你搜尋到的東西是什麼。但我覺得這個功能好像沒有「搜尋圈」來得好用。因為搜尋圈可以讓你圈選照片中特定想搜尋的部分。
以花束為例,我準備了一束花來測試。拍好照片後,如果是搜尋圈,我可以特別問某朵花是什麼。但如果是用蘋果的視覺辨識,按「搜尋」後,它其實是把整張照片餵給Google,有點像以圖搜圖。這就有點無聊。它也不會特別告訴你裡面有哪些花。你也不能客製化地詢問特定的問題。這點讓我覺得這個部分的功能稍微不如預期。
接著,在Demo影片中,有一段是辨識路人狗狗的品種。我也準備了一隻狗狗來試試看。拍下照片後,它辨識出來是吉娃娃。同樣地,不管是選擇「搜尋」或「詢問」,結果都比較無聊,一個餵給Google,一個餵給ChatGPT。我覺得這不是很直覺。
Demo影片中還有翻譯菜單的功能。我拍了一下菜單。照片上方就會出現翻譯的選項。點一下後,它就會進行翻譯。這有點像是Google搜尋圈的功能,如果辨識到可翻譯的內容,就會幫你翻譯. 這點還OK。
從海報建立活動:一個亮點
Demo影片中提到一個很棒的功能。假設你看到一個活動海報,用視覺辨識拍一下,它就能直接幫你擷取活動名稱、時間和地點,並建立到日曆中。我覺得這算是一個蠻厲害的功能。
我準備了和Demo影片中一模一樣的海報來測試這個功能。開啟視覺辨識並進行螢幕錄影。可以看到它確實偵測到這是海報。上方跳出一個「創建日程」的選項。點一下後,它就開始創建了。哇,這個效果真的非常好。像是名字、地點、時間都抓得很正確。雖然預設活動時長只有一個小時,但我覺得這個海報上的活動應該不只一個小時。不過,這是一個非常簡單的情境。我覺得這個效果真的很不錯。這點確實是贏過Google的。Google頂多可能抓到時間,地點抓不到,活動名稱也還要自己打。這差距蠻大,這點做得很好。
(中間插入了一段關於贊助商 SEEK 的產品介紹,包括磁吸式無線充電座和氮化鎵充電器等。這些產品的功能和特色都有詳細說明,例如無線充電座的支架設計、可拆卸的充電板便於攜帶、同時為多個設備充電、以及可調整支架角度等。充電速度最高支援15W手機充電和2.5W手錶充電,並有五種電路保護機制。氮化鎵充電器則有多種瓦數(100W, 65W, 45W, 25W),其中一款100W的還有螢幕顯示充電資訊,另一款100W則有可折疊插頭和標示充電規格的充電孔,並附贈編織充電線。SEEK的產品質感也很好,折疊角度可以無段式旋停,底座是鋁合金材質。部分充電器可在便利商店購買。贊助商的部分就呈現到這裡,回到蘋果AI的測試。)
照片與影片中的自然語言搜尋
接著,他們還展示了一個功能,可以在照片和影片中進行搜尋。例如,我在照片中搜尋「花」,它就會列出我所有拍過的含花的照片。影片中也實現了這個功能。所以,這個自然語言的搜尋功能其實是蠻不錯的。
我嘗試搜尋「外國人」,但不知道是不是因為是繁體中文,沒有搜尋到。轉換成簡體中文後再搜尋,還是搜尋不到。搜尋「模特兒」也無法。搜尋「手機」。在繁體中文下沒有辦法。轉成簡體中文後,搜尋結果就多非常多。它基本上把拍到手機畫面的照片都列出來了。我覺得這功能還算是OK。不過,可能它還在做indexing,也就是還在分類中。我昨天才更新iOS 18.4,所以它可能還在處理當中。但基本上這功能還算是蠻不錯的。
Genmoji與Image Playground的語言限制
他們還有一個功能是「emoji」(表情符號)的部分。可以直接生成你想要的emoji,也就是所謂的Genmoji。這是將Generate和Emoji混在一起取的名字,蠻奇妙的。
但是這個功能我昨天試了非常久。我發現簡體中文是不支援的。沒錯,就是不支援。你一定要改成英文它才支援。我不知道為什麼簡體中文還不能使用這個功能,很奇妙。
按理說,在鍵盤的這個地方應該會出現一個Genmoji的LOGO。點一下之後,你就可以描述你想要什麼樣的表情符號,像是一隻會飛的狗或可樂這種。這點比較可惜,簡體中文無法使用。
除了Genmoji無法在簡體中文使用之外,「Image Playground」這個功能(中文名稱叫「圖樂園」,聽起來蠻奇特的),在簡體中文下也是沒辦法使用的。這點也比較可惜。我等一下再改成英文來試試看這個好不好用。改語言設定真的很麻煩。
(後續改回英文環境測試Genmoji和Image Playground。)在英文介面下,鍵盤符號處就可以看到Genmoji的選項。點擊後,就可以描述想要生成的emoji,例如「fat dog flying」。它會生成自己獨特的Genmoji。像這個就是生成了一隻狗,看起來沒有很胖。再添加一點描述,例如「Flying」,它就會生成像這樣的圖。我覺得效果好像沒有到非常好。這就是Genmoji,可以自己製作簡單的emoji。
Image Playground(圖片生成)也可以使用了。可以直接描述一個圖片。例如「cat sitting on a bench」。這有點像是圖片生成的功能。它畫了一隻貓坐在長凳上,這個還算不錯。你還可以加入各種不同的元素,它會把圖片修改得不太一樣。可以進行一些客製化的調整。
信件與通知的摘要功能
接著是「信件總結」的部分。我打開我的信箱,寄了一封關於股票和新聞摘要的信給自己。你可以直接請它生成摘要。點擊後,它就會直接生成一個摘要,這是OK的。這是簡體字的情況下。如果是給它繁體中文的信件,像這封,點擊生成摘要,它就會寫「無法生成」。所以,這個功能目前只支援簡體中文和英文,可能只有支援的語言才能進行摘要。這點比較可惜。
除了信件摘要以外,現在的信件上方應該都會有一個分類,告訴你是哪一類別的信。會有一個簡單的分類顯示。
通知摘要功能也是有的。在通知的地方,你可以打開看到一個摘要。它會簡單地幫你摘要通知。例如,我訂閱的Facebook、Twitter(現在叫X,有點難過)和YouTube Studio的通知。它會幫你把一些簡單的通知做一個摘要。你可以看一下目前的狀況。
這個摘要的推送時間也是可以選擇的。在「Apple智能」的設定中,你可以選擇「優先顯示通知」。它會去把一些它覺得比較重要的通知優先顯示。還有「生成通知摘要」的選項。點進去後,你可以選擇要生成摘要的App有哪些。以及這個摘要的推送時間,你可以設定在幾點推送。它也會顯示哪些App的通知最多。你可以選擇要生成哪些App的通知摘要。這個功能還算是OK。
Siri的智慧程度與實際落差
接著,我們來看一下Demo影片中展示的Siri功能。影片中Siri變得比較聰明,可以告訴你如何操作iPhone。它有點像是把iPhone的使用手冊餵給Siri。當你問它問題時,它會直接調動使用手冊的內容來回答。
我直接測試一段:「我要如何刪除手機中重複的照片」。結果它不知道為什麼沒辦法顯示。但在Demo影片中,它會直接跳出一個像是使用者說明的介面,告訴你如何在iPhone中刪除重複的照片。但現在很明顯沒辦法做到。我試了兩次,之前拍影片前也試過,它就是一直無法。這跟Demo影片有落差,比較可惜。
我也測試了Siri總結信件的功能。例如這封信。我請Siri總結這封信。我說:「幫我總結這封信件」。結果它有點蠢。它直接把這封信截圖,然後傳給ChatGPT。所以假設你的信很長,它只截到一部分,就不知道是怎麼回事。我覺得這有點白痴,蠻可惜的。
或者假設我現在拍了一張照片。例如這張。我想把這張照片加到某一個相簿。在Demo影片中,這是可以做到的。我試試看。我說:「Hey Siri,把這張照片加到親人的相簿裡」。結果它搜尋了「親人」,把我相簿裡的人臉辨識結果「親人」找出來給我。這真的是超蠢的。再試一次,我說:「Hey Siri,把這張照片加到小小寶貝的相簿之中」。結果它搜尋了一大堆「小小寶貝」。我搞不清楚這是什麼狀況,變得非常奇怪。Siri完全做了一件不相干的事情,直接幫我搜尋照片,很奇怪。
它還有Demo一段是說,把這張照片寫到正在寫給別人的信件草稿之中。我來試試看這個是不是有辦法成功。我說:「Hey Siri,把這張照片加到我寫給小寶貝的信件草稿之中」。喔,這是有辦法成功的耶。但是它沒有把照片加進來啊。再試一次。我說:「Hey Siri,把這張照片加到我寫給小寶貝的信件草稿之中」。它一直問我這是要用哪個信箱。我說:「把這張照片加到這個信裡」。結果它直接把「把這張照片加到這個信裡」這句話寫上去。真的是蠻蠢的。我搞不清楚這到底是什麼狀況。反正它就是開了一個信件草稿。但是它沒有做到我想要做的事情。它等於是把指令當成文字寫進去,我覺得非常不妥。
我也想看看Siri有沒有辦法做到像Gemini那樣聰明的多步驟指令。我直接用一般的語言試試看它可不可以做到。我說:「Hey Siri,幫我查詢我去小巨蛋要開車要多久,如果超過五分鐘的話,就訊息給小寶貝說我會遲到。」結果它直接聽不懂我在講什麼。有點尷尬。
核心賣點的缺席:私人助理功能
以上大概是目前測試下來的結果。他們在WWDC上其實還講了一個非常重要的功能。就是蘋果AI會對你整支手機進行一個全面性的了解。並且了解你這個人的所有資訊。所以你在問Siri任何問題的時候,它都可以做查詢。例如,你媽媽傳訊息給你說她飛機幾點到,你直接問Siri,它應該會知道。
這個核心功能在最近的幾次Demo影片中好像都越來越少提到。甚至在官網上也看不太到。他們甚至還把之前上架過的廣告影片給刪除了。我不確定這個功能是他們現在真的做不出來,還是遇到了什麼瓶頸。但這功能應該是Apple AI最大的賣點。特別是他們這次的iPhone 16系列都完全是使用Apple Intelligence在做宣傳。但這個最主要的功能,就是像是了解你個人、扮演私人助理或私人秘書的功能,現在是完全沒有看到任何的Demo。這讓我感到比較難過。
總結與現狀評估
大概的蘋果AI現狀就是這樣。我個人覺得,就目前而言,那個最核心的私人助理功能,也就是能夠了解你的手機訊息、了解你個人資訊並提供相關協助的功能,沒有做出來是一個非常大的缺陷。其他一些比較簡短的功能,其實其他家的手機目前都做得到。特別像是三星的Gemini,其實做得更好。像是他們還可以做到跨App的應用。
最關鍵的一點是,Siri我覺得目前來講,聽一些一般語言的辨識能力還是有點笨。它聽不太懂自然語言。但是Gemini,你怎麼跟它講,就算講得超快,它都聽得懂。這算是一個蠻大的落差。
整體來說,蘋果AI在其他部分我覺得大概做到了七八成。還算OK。但是目前還沒有支援繁體中文。這確實是一個比較可惜的地方。
留言 0