可解釋人工智慧(XAI):企業就緒的人工智慧指南

可解釋人工智慧(XAI):企業就緒的人工智慧指南

根據普華永道關於XAI的報告,到2030年,AI有15.7萬億美元的機會。然而,隨著人工智慧工具變得越來越先進,更多的計算是在人類難以理解的 “黑箱 “中完成的。這種缺乏可解釋性的情況無法滿足人們對透明度、信任和對預期商業結果的良好理解的需求。可解釋性是企業採用人工智慧的關鍵,因為人們不容易相信一個他們沒有徹底理解的機器建議。

可解釋的人工智慧(XAI)來解決這個黑盒子問題。它解釋了模型是如何得出具體結論的,以及演算法的優勢和劣勢是什麼。XAI拓寬了人工智慧模型的可解釋性,幫助人類理解其決策的原因。

什麼是XAI?

XAI是指演算法解釋他們為什麼得出特定結果的能力。雖然基於人工智慧的演算法幫助人類在業務上做出更好的決定,但人類可能並不總是瞭解人工智慧是如何得出這個結論的。XAI旨在解釋這些演算法是如何得出這些結論的,以及哪些因素影響了這個結論。在維基百科中,XAI被定義為:

可解釋的人工智慧(XAI)指的是在應用人工智慧技術(AI)時的方法和技術,以便人類專家能夠理解解決方案的結果。它與機器學習中的 “黑匣子 “概念形成鮮明對比,即使是他們的設計者也無法解釋為什麼人工智慧會得出一個特定的決定。

為什麼它現在是相關的?

短時間內,XAI創造了一個透明的環境,使用者可以理解和信任AI做出的決定。

企業使用人工智慧工具來提高他們的業績,做出更好的決定。然而,除了從這些工具的輸出中受益,瞭解它們的工作方式也是至關重要的。由於缺乏可解釋性,企業無法做出相關的 “what-if “場景,併產生信任問題,因為他們不瞭解人工智慧是如何達到一個特定的結果。

Gartner指出,缺乏可解釋性並不是一個新問題。然而,人工智慧工具變得更加複雜,以在企業中提供更好的結果,這個問題現在引起了更多關注。這些更復雜的人工智慧工具是在一個 “黑盒子 “中執行的,很難解釋其決策背後的原因。

雖然人類可以解釋較簡單的人工智慧模型,如決策樹或邏輯迴歸,但更精確的模型如神經網路或隨機森林是黑箱模型。黑箱問題是機器學習演算法的主要挑戰之一。這些由人工智慧驅動的演算法提出了具體的決定,但很難解釋這一決定背後的原因。

XAI現在很有意義,因為它向我們解釋了黑箱人工智慧模型,幫助人類感知人工智慧模型的工作原理。除了具體決策的推理,XAI還可以解釋不同的案例,以得出不同的結論和模型的優勢/弱點。隨著企業更好地理解人工智慧模型以及他們的問題是如何解決的,XAI在企業和人工智慧之間建立了信任。因此,這項技術有助於企業充分使用人工智慧模型的潛力。

它是如何工作的?

XAI如何工作 Source: DARPA

今天的人工智慧技術通過受益於不同的模型為企業提供決策或建議。然而,使用者不容易察覺到結果是如何實現的,或者為什麼模型沒有提供不同的結果。除了提供準確和具體的結果,XAI還使用了一個可解釋的模型,並有一個解釋介面,以幫助使用者理解模型的工作原理。我們可以將XAI歸為兩種型別:

可解釋的模型,如決策樹或Naive Bayes

這些模型很簡單,可以快速實現。這些演算法由簡單的計算組成,甚至可以由人類自己完成。因此,這些模型是可解釋的,人類可以很容易地理解這些模型如何得出一個特定的決定。為了觀察該具體決策背後的原因,使用者可以快速分析演算法,找到不同輸入的影響。

解釋黑盒模型

解釋更復雜的模型,如人工神經網路(ANN)或隨機森林,則更為困難。由於它們的複雜性和難以理解其輸入和預測之間的關係,它們也被稱為黑箱模型。

企業更普遍地使用這些模型,因為它們在大多數商業應用中比可解釋的模型效能更好。為了解釋這些模型,XAI方法涉及建立一個具有資料視覺化和情景分析功能的解釋介面。這種介面使這些模型更容易被人類理解。這種介面的特點包括

視覺分析
視覺分析

Source: Google Cloud

XAI介面將不同資料點的輸出視覺化,以解釋特定特徵與模型預測之間的關係。在上面的例子中,使用者可以觀察不同資料點的X和Y值,並從顏色程式碼中瞭解它們對推斷絕對誤差的影響。在這個具體的圖片中,X軸所代表的特徵似乎比Y軸所代表的特徵更能決定結果。

情景分析

情景分析 

Source: Fiddler Labs

XAI對每個特徵進行分析,並分析其對結果的影響。通過這種分析,使用者可以建立新的場景,瞭解改變輸入值如何影響輸出。在上面的例子中,使用者可以看到對預測貸款風險有積極/消極影響的因素。

其優點是什麼?

XAI的目的不是提高效能,而是解釋具體的決定或建議是如何達成的。它幫助人類瞭解人工智慧如何/為何以某種方式行事,並在人類和人工智慧模型之間建立起信任。XAI的主要優點是:

  • 提高可解釋性和透明度:企業可以更好地理解複雜的人工智慧模型,並感知它們在特定條件下以某種方式行事的原因。即使是黑盒模型,人類也可以使用解釋介面來理解這些人工智慧模型是如何實現某些結論的。
  • 更快的採用:由於企業可以更好地理解人工智慧模型,他們可以在更重要的決策中信任它們
  • 改進除錯:當系統工作時出現意外,XAI可以用來識別問題,幫助開發人員除錯問題。
  • 啟用監管要求的審計

XAI如何服務於人工智慧的倫理?

隨著人工智慧越來越多地融入我們的生活,人工智慧倫理的重要性也在增加。然而,高階人工智慧模型的複雜性和缺乏透明度使人們對這些模型產生懷疑。在不瞭解它們的情況下,人類無法決定這些人工智慧模型是否對社會有益、值得信賴、安全和公平。因此,人工智慧模型需要遵循特定的道德準則。Gartner將人工智慧的道德規範歸納為五個主要部分:

  • 可解釋性和透明性
  • 以人為本,對社會有益
  • 公平
  • 安全性和安全性
  • 負責任

XAI的主要目的之一是幫助AI模型為這五個組成部分服務。人類需要對人工智慧模型有深刻的理解,以瞭解它們是否遵循這些組成部分。人類無法信任一個不知道如何工作的人工智慧模型。通過了解這些模型的工作方式,人類可以決定人工智慧模型是否遵循這五個特徵。

提供XAI的公司有哪些?

大多數XAI供應商提出不同的解釋介面,以澄清複雜的AI模型。一些例子的供應商包括:

  • 谷歌雲平臺:谷歌雲的XAI平臺使用你的ML模型對每個因素進行評分,以瞭解每個因素對預測的最終結果的貢獻。它還可以運算元據以建立場景分析
  • Flowcast:這個基於API的解決方案旨在通過整合到不同的公司系統來揭開黑箱模型。Flowcast建立模型以澄清不同模型的輸入和輸出值之間的關係。為了實現這一目標,Flowcast依靠轉移學習和持續改進。
  • Fiddler實驗室:這家美國創業公司為使用者提供不同的圖表來解釋人工智慧模型。這些圖表包括不同場景之間的相似性水平。通過使用現有的資料,Fiddler分析了每個特徵的影響,並創造了不同的假設場景。

評論留言