Apple Live Text vs Google Lens:誰才是最佳影象識別?

Apple Live Text vs Google Lens:誰才是最佳影象識別?

在iOS的眾多新功能中,有些可能聽起來是小變化,但對你的日常使用確實有幫助。無論是FaceTime的螢幕共享、iCloud+、離線Siri等,都有很多新功能可以探索。iOS中的一個功能是實時文字,蘋果早在2021年WWDC上展示了這個功能。因此,如果你想知道Live Text是否和Google Lens一樣好,這裡有一份蘋果Live Text與Google Lens的詳細比較。

Apple Live Text vs Google Lens:最佳影象識別工具?

在這篇文章中,我們將從多個方面比較Live Text與Google Lens。我們將討論語言支援、離線可用性,以及Live Text和Google Lens的其他功能。像往常一樣,使用下面的目錄在本文的不同部分之間進行導航。

什麼是Live Text?

對於那些沒有看過蘋果開發者大會的人來說,讓我給你一個關於iOS中新的Live Text(實時文字)功能的快速概述。

基本上,一旦你在iPhone上安裝了iOS,你的裝置將能夠識別圖片中的文字–也就是從相機中直接識別。這樣一來,你就可以從現實世界中複製貼上東西,查詢你拍下的業務,以及更多。它本質上是Google Lens,但來自蘋果。

基本功能對比

首先,讓我們看看Live Text和Google Lens提供的基本功能。這樣一來,我們就可以看到這兩者中哪一個能在一開始就帶來更多的好處。

Apple Live Text

正如我上面提到的,蘋果Live Text可以從你的圖片庫中識別文字、電話號碼、電子郵件等,也可以直接從相機應用中識別。還有視覺查詢,它可以識別動物和知名地標,因此你可以通過取景器點選它們來獲得更多資訊。

一旦你識別了圖片中的文字,你就可以以各種方式使用它。很明顯,你可以把文字複製貼上到你想要的地方,但你可以做的還有很多。如果你已經確定了一個電子郵件,Live Text會直接給你一個選項,讓你建立一個新的電子郵件到該地址。如果確定的文字是一個電話號碼,你將得到打電話的選項,在蘋果地圖中開啟任何確定的地址,以及更多。

Live Text識別文字

由於蘋果翻譯應用的存在,也有內建的翻譯。你可以點選彈出式上下文選單中的 “Translate” 按鈕,將確定的文字翻譯成英語(或任何支援的語言)。

蘋果翻譯應用

也許對我來說最有用的是,Live Text能夠理解圖片中的追蹤號碼,並能讓你直接開啟追蹤連結,這讓我印象深刻。

Google Lens

另一方面,Google Lens也能做很多漂亮的事情。很明顯,它可以識別圖片中的文字,或者直接從你的相機應用中識別。然後,你可以複製-貼上突出顯示的文字,或者,類似於實時文字,撥打電話,傳送電子郵件,以及更多。你還可以直接從Google Lens建立一個新的日曆事件,這可能會很方便。

Google Lens文字掃碼

Google Lens的另一個整潔的功能是名片掃描。如果有人遞給你他們的名片,你可以用Google Lens掃描它,你會得到一個選項,即新增一個新的聯絡人,並自動填寫他們的所有細節。這真是太酷了,這也是我們在參加釋出會和與人交流時經常使用的東西。

現在,Live Text的視覺查詢功能可能能夠識別著名的地標、書籍、動物等,但在物體識別方面,Google Lens完全是另一個層次。

由於谷歌在搜尋和影象搜尋方面的專長,Google Lens可以利用所有這些知識,識別你周圍看到的幾乎任何物體。無論是植物、筆,還是你發現的你最喜歡的名人所穿的手提包。只要用Google Lens掃描圖片,你就會得到相關的搜尋結果。這是Google Lens的一個很酷的功能,是蘋果的Live Text/Visual Lookup所沒有的。

此外,Google Lens還可以幫助你完成作業。這是另一件Live Text根本無法做到的事情。你可以用Google Lens掃描一道數學題,它就會給你分步解決。它也適用於其他科目,包括物理學、生物學、歷史、化學等。

Google Lens掃描解決資料問題

顯然,Google Lens目前提供的功能比蘋果的Live Text要多得多。希望隨著時間的推移,蘋果將使Live Text更加有用,並在其中加入更多的功能。但就目前而言,Google Lens的功能比Live Text更豐富,提供的功能也更多。

整合對比

接著,讓我們來談談這些影象識別功能與整個作業系統的整合情況。好吧,蘋果公司一直對整合體驗有著獨特的關注,這也延伸到了Live Text。

在你的iPhone上,執行iSO 15,實時文字被嵌入到預設的照片應用程式,以及相機中。雖然安卓手機上的Google Lens也是這種情況,但不同的是,你必須點選啟用Google Lens,才能開始掃描文字、物體或其他你想做的事情。另一方面,”實時文字 “幾乎是一直在執行的。你只需長按你想複製貼上的文字或你想撥打的電話號碼,就可以繼續操作了。

更重要的是,實時文字也被嵌入到iOS本身。因此,如果你正在使用像WhatsApp這樣的簡訊應用程式,或任何其他應用程式,如Notes,或iPhone上的電子郵件應用程式,並想從現實世界中掃描和貼上一些文字,你可以使用 “來自相機的文字 “功能,直接輸入文字。在此檢視這一功能的使用情況:

Google Lens也有類似的功能,但在這種情況下,你必須先切換到相機應用,進入Google Lens,掃描文字並複製它,然後回到原始應用並在那裡貼上它。這是很多額外的步驟,如果你使用實時文字,你不需要為這些步驟而煩惱。

蘋果通常非常善於將其功能整合到它所銷售的裝置中,Live Text也不例外。它在你需要的地方工作,並以你想使用它的方式使自己有用。對於安卓系統中的Google Lens,我不能這麼說,尤其是在日常使用中。

顯然,Live Text在這方面做得更好,但我希望Google Lens能儘快帶來類似的整合。因為當好的功能從其他地方被複制過來時,最終會使產品對我們更好,我很支援。

準確性對比

就準確性而言,Google Lens和蘋果Live Text都同樣出色。我已經廣泛使用了Google Lens,過去幾天我一直在我的iPhone上使用Live Text,我還沒有注意到這兩個影象識別軟體的準確性有任何問題。

儘管如此,我注意到,如果你用Live Text掃描文字,它有時會把 “O”(字母)誤認為 “0”(數字),反之亦然。這可能有點煩人,不是我想給的東西,但考慮到這仍然是一個測試版,我不會認為這是一個大問題。

另一方面,當涉及到物體識別時,Google Lens完全佔據了上風。它不僅能比iPhone上的Visual Lookup識別更多的物體和動物,而且其結果也很準確。Visual Lookup在識別任何物體方面完全失敗,我甚至給它提供了一張金門大橋的照片,這正是蘋果在WWDC 2021主題演講中使用的例子。但這也沒有用,所以很明顯,這個功能需要大量的工作。

Google Lens物件識別

總的來說,Google Lens比蘋果在iOS中的Live Text功能有更好的準確性。不過,就文字、電子郵件、電話號碼等而言,這是一場激烈的競爭。

語言支援對比

由於Google Lens和Live Text都支援翻譯,因此必須考慮它們都適用於哪些語言。這也延伸到了它們甚至可以識別哪些語言的文字,而且,當涉及到這些指標時,Live Text比Google Lens落後很多。

以下是Live Text所支援的翻譯語言:

  • English
  • Chinese
  • French
  • Italian
  • German
  • Portuguese
  • Spanish

另一方面,Google Lens支援Google Translate可以使用的所有語言的翻譯。這就是超過103種語言的文字翻譯。與這個數字相比,蘋果的七種語言支援漸漸變成了虛無。

裝置支援對比

蘋果的新實時文字功能可用於iOS 15的iPhone、iPadOS 15的iPad和macOS 12 Monterey。

谷歌鏡頭可在所有裝有Android 6.0 Marshmallow及以上版本的裝置上使用。此外,它被整合到谷歌照片和谷歌應用程式中,這意味著你也可以在iOS裝置上使用它。

谷歌鏡頭在更多的裝置上比蘋果Live Text可用,這並不奇怪。然而,如果你使用多臺裝置,並希望有一個單一的影象識別解決方案,那麼Google Lens在不同的生態系統中可用的機會更大。

誰更有優勢?

現在我們已經經歷了Live Text和Google Lens的所有不同的比較點,問題仍然是,你應該使用哪一個?這個答案將因人而異。作為一個深入蘋果生態系統的人,我在上週使用Live Text的次數比我使用Google Lens的次數多。然而,Google Lens提供了Live Text和Visual Lookup沒有的獨特功能。

這完全取決於你的用例和你的工作流程。我並不經常發現自己想知道在哪裡可以買到克里斯-海姆斯沃斯穿的牛仔褲。但我確實發現自己想在WhatsApp對話中新增文字,而不需要從Mac上覆制貼上,而Live Text讓我比Google Lens更容易做到這一點。那麼,你對Google Lens和Live Text有什麼看法?你認為哪一個更好,為什麼?請在評論中告訴我們。

評論留言