像GPT-4這樣的大型語言模型的真正價值不在於寫作而是閱讀

像GPT-4這樣的大型語言模型的真正價值不在於寫作而是閱讀

圍繞大型語言模型的所有關注都集中在其寫作能力上–但閱讀可能是潛力所在?

從邏輯上講,我們可以肯定地說,一百萬只猴子敲打一百萬臺打字機,最終會複製出莎士比亞的全部作品。這對猴子來說很好,但對人類來說實際上並不那麼有用。

我們所處的全球網際網路連線的世界可能會像猴子寫的一連串文字一樣感覺混亂和無厘頭。有一天早上你醒來,發現驚慌失措的銀行儲戶,其中許多人是在關注社交媒體的同時做出決定的,在幾個小時內就把一個主要的金融機構搞垮了。像GPT-4這樣的大型語言模型(LLMs),可以在一分鐘內旋轉出熱門話題和博文,只會讓這種噪音變得更糟糕。

一百萬只猴子的力量被壓縮到一個模型中,一百萬年也被壓縮到一分鐘。

但是,儘管許多風險投資人和創始人認為,語言模型的技術進步的真正價值不在於增加噪音。真正的價值不在於 “寫”,而在於 “讀”。換句話說,能夠創造洞察力來理解這一切。能夠經受住生成性人工智慧炒作週期的創始人將是那些在構建時考慮到這一點的人,而不是另一個以GPT-4為動力的營銷文案生成器。

分析SVB媒體報道

最近,對LLMs潛力的興奮–以及對它們的批評–都集中在它們的寫作能力上。以諾姆-喬姆斯基和他在《紐約時報》上的合著者為例,他們抨擊了 “ChatGPT的虛假承諾“,因為它並不完全模仿人類學習語言的方式。

這些譴責,以及關於人工智慧實際上是被困在計算機中的有知覺的人的荒謬建議,可能會隨著GPT-4中展示的能力而變得更加頻繁。它們也是關注科幻問題而不是使用LLM的好處的很好的例子,LLM是幫助我們做我們自己不能做的工作(”機器人 “一詞來自斯拉夫語的 “工作 “字根)。換句話說,我談到的那個閱讀方面。

在一分鐘的時間內閱讀和評估1000篇文章,對人類來說是不可能的,但現在可以通過語言模型幾乎即時地’閱讀’和建立這些文章的資料點。

大型語言模型不需要像人類那樣能夠 “理解 “思想和概念,以便能夠可靠地做出有意義的區分,複製人類的工作。在Overtone,我們最近用我們的模型分析了導致矽谷銀行恐慌的媒體報道。在一分鐘的時間裡閱讀和評估1000篇文章,對人類來說是不可能的,但現在有了語言模型,幾乎可以瞬間 “閱讀 “和建立這些文章的資料點。

這些資料點的抽象程度高於實體提取或情感(NLP直到最近才被用於此),並且能夠以人類可以理解和有用的方式對大量的文字進行準確分類,例如編輯決定哪些文章應該被納入通訊,或者公關人員應對危機。但請注意:人工智慧並不是在增加噪音。

戳中熊的要害

那些過分關注LLM寫作的好處的人,提倡人類與技術互動的新方式,比如成為一個 “提示工程師”,這包括向黑盒子模型投擲不同的輸入組合,以獲得一個最佳結果。

對我來說,這錯過了語言模型解析文字和分類的能力,包括將其歸類,以確定生成的輸出是否在做人類提示機器想要的東西。正如一位教授告訴《華盛頓郵報》的那樣,prompt工程 “不是一門科學……它是’讓我們以不同的方式戳一下熊,看看它是如何咆哮回來的’。”

作為一個在職業生涯的前半部分擔任記者和編輯的人,線上內容製作的工作不是,或者至少不應該是創造**的內容。它應該是創造**的內容,使你的受眾得到資訊、娛樂或啟發,以滿足他們的使用者需求

基於語言模型的最佳企業將專注於使用他們自己的 “閱讀 “模型進行微調,以可靠地創造出有效的溝通給使用者,即讀者,而不是提示工程和旋轉生成輸出的車輪。這些使用者,人類,可以從接收資訊中獲得價值,而這些資訊並不只是拼湊到網際網路上,而是以他們和他們的需求為基礎。

找到正確的用例和為他們的 “讀者 “創造價值,將是初創企業可以做的最重要的工作,因為法律碩士變得越來越容易獲得,正如我們已經看到本週斯坦福大學在相對較小的計算能力上對羊駝的訓練。投資者擔心人工智慧業務的可防禦性,而為數不多的護城河之一將是與使用者建立聯絡並創造他們所需要的**內容。

Greg Brockman在GPT-4開發者Livestream上展示的稅收檔案分析的例子是一個很好的例子,但其價值不在於GPT-4能夠以對話或詩歌的方式輸出關於稅法的資訊。其價值在於能夠解析像稅法這樣的檔案,並使用現有的語言規則來了解不同的稅收規則是如何共同發揮作用的。特定行業的企業,從教育到娛樂,可以創造類似的價值,因為他們知道他們的使用者,他們的讀者的問題,以及語言需要如何被概念化和表達來解決這些問題。

大型語言模型有其侷限性,但對寫作的關注使辯論從它們的真正用處轉移到了我們的當下,用語言來理解外面的所有語言。最好的企業將專注於解決人們的問題,而其他一切都在耍猴。

作者:Christopher Brennan(Overtone公司的首席產品官)

評論留言