當前位置:歷史故事大全網 - 歷史上的今天 - 該模型在因果推理下是可解釋的嗎?-方法概述

該模型在因果推理下是可解釋的嗎?-方法概述

機器學習的因果可解釋性——問題、方法和評估

機器學習方法在工作中的應用越來越廣泛,深度神經網絡的成功將感知智能推向了壹個高峰。但是,人們往往需要理解模型為什麽會做出這樣的判斷。以及在壹些極其嚴苛的場景下,比如金融、補貼、詐騙等。,模型的判斷依據和理由就變得尤為重要。

機器學習的可解釋性應運而生,並逐漸應用於工業場景。但在壹些黑箱度較高的模型中,如深度神經網絡,很難有效解釋。隨著機器學習可解釋技術的不斷發展,問題逐漸被克服。然而,傳統的可解釋技術更多地依賴於特征和結果變量之間的相關性,並可能檢測到壹些相反甚至病態的解釋關系。同時,妳不能回答“如果壹個幹預發生了變化,模型的決定或判斷是什麽?”這種反事實的相關問題。

因果推理技術是研究幹預對結果影響的壹種特殊方法。通常我們把相關性看成是壹種無向關系(特征和結果會相互影響,如果壹方被調整,另壹方也會相應改變),而把因果關系看成是壹種有向關系(特征決定結果,只有特征的變化才會改變結果,而沒有反向關系)。因果關系在多個場景中通常是穩定的,比相關性受到的幹擾小。所以基於因果關系的決策或判斷更加穩定,這也是我們希望機器學習方法能夠學習的關系。我們希望機器學習的方法是判斷壹個物體是貓,因為它看到的是毛發、胡須、腳掌肉墊、沒有虎皮紋的特征。不是因為貓身邊有毛線球,貓砂,鏟屎官,而是狗足夠多。)

反事實估計和反事實推理是因果推理技術的重要組成部分。(個人理解)因果推斷可以理解為想回答,1)什麽原因(為什麽);2)如果……回答如果必須基於各種幹預的結果。觀察中缺乏反事實結果是因果推理的根本問題。與估計因果效應不同(此類方法主要解決如何消除偏差和估計反事實,並以此為基礎判斷不同幹預下結果的差異),基於因果關系的機器學習可解釋方法主要基於反事實解釋,“模型在其他場景(幹預)下會做出什麽樣的決策或判斷?”來展示機器學習模型學習到的因果關系。

朱迪亞·珀爾曾闡述了可解釋性的不同層次,並強調反事實解釋的生成是最高層次。Pearl的可解釋性水平大致可以分為以下三層,

在社區裏,我看到了很多精彩的文章,詳細介紹了傳統的機器學習可解釋技術。本文(系列)將詳細闡述基於因果關系的機器學習的可解釋方法。

基於因果關系的機器學習的解釋方法大致可以分為三類:基於模型的方法、基於樣本的方法和因果關系確認相關方法(引用文章中提到的其他部分因方向不重要而省略)。

基於模型的解釋方法主要是從因果效應的角度拆分模型各部分的功能。比如計算深度神經網絡第n層和第m個神經元的變化引起的平均因果效應。與傳統的可解釋方法相比,這種方法可以回答“神經網絡的壹個神經元對最終輸出有多大的因果作用?”以此來衡量模型各個組成部分的重要性,並給出壹些量化的結果。

基於模型的方法可以大致分為兩類:估計因果效應和近似構造。如上所述,可以通過計算每個神經元(通常是壹個組件,而不是這樣壹個細節)對輸出變量的因果作用來確定組件的重要性。近似構造法,通過生成擾動樣本,構造壹個二分圖,其中不動點是輸入特征的元素,輸出結果的元素,邊是元素之間的影響關系。通過對二分圖的劃分,得到輸入輸出要素之間影響密切的子成分,進而說明模型的決策過程和判斷依據。

基於樣本的解釋方法旨在通過尋找樣本實例來解釋模型的決策和判斷過程。反事實樣本是在現有事實樣本的基礎上進行修改,以推斷和想象可能的結果。其中,最典型的方法是反事實解釋。這種方法是通過對已有樣本的特征進行極小的改變,得到預期的反事實結果,並收集這些稍有改變的樣本,來解釋模型的決策。例如,壹個用戶從平臺上丟失了。我們盡可能少的改變他的特征,這樣模型預測他會保持。觀察特征的變化,並在此基礎上進行解釋。這裏我們還是用擾動的概念,用最小擾動得到的可解釋樣本,也就是反事實估計量。反事實估計並不真正幹擾樣本,而是通過模型的預測來模擬人類的想象力,因此處於因果階梯的第三級。

生成反事實解釋器的方法大致可以分為六類,包括啟發式方法、加權方法、基於多樣性的方法、混合整數規劃方法、基於原型的方法和基於GAN的方法。啟發式方法主要使用距離測度尋找最小擾動,而加權方法在距離測度中給每個特征維度分配不同的權重(權重由ANOVA F-value得到)。基於混合整數規劃的方法主要用於分類特征較多的場景。通過其他方法生成的反事實樣本可能會生成分類特征的連續值,從而導致不合理的特征。然而,通過混合整數規劃,可以生成合理的反事實樣本。基於原型法,通過尋找壹個有反事實結果的目標樣本來確定生成方向,加速了生成算法的收斂(有反事實結果的樣本不能直接選取,因為它的擾動可能很大)。基於GAN生成反事實的方法有很多,簡單的是基於conditionalGAN,以期望的反事實為標簽生成反事實樣本。

基於因果推理(反事實樣本)的模型可解釋性方法已經越來越多地應用於各種場景。接下來,我們來看兩個來自自然語言處理和推薦系統場景的案例。

識別重復問題是問題搜索場景中的壹項重要任務,圖中有兩句話被識別為重復問題。右邊的柱狀圖是用SHAP值計算的單詞重要性,可以看出“朋友”這個詞的重要性並沒有排在第壹位。通過幹擾Q2產生反事實樣本,我們發現“我如何幫助壹個

在產品推薦的情況下,還需要反事實的可解釋性。比如,當我們看到壹個商品作為top1候選推薦給用戶時,我們可能想知道哪些用戶行為影響了這個結果,然後通過改變壹些行為來改變推薦結果。圖中推薦系統推薦頂1位置的背包。通過算法識別出的“最小可移除行為集”(反事實中的最小擾動),可以看出“購買阿迪達斯登山鞋,評論尼康相機是很好的徒步伴侶,對Intenso充電寶給予很高的評價”使得推薦系統決定將狼爪的背包放在首位(因為種種跡象表明愛麗絲喜歡徒步)。如果刪除這些行為,iPad Air的排名就會變成top1。

在不同的場景下,因果可解釋方法仍然可能受到特定模型的限制,並且存在壹些時間復雜度問題。除此之外,還有很多問題需要解決。後面會介紹壹些具體的方法。

下面簡單介紹壹下如何評價基於因果機器學習的可解釋性方法以及相應的評價指標。不同類別的解釋方法有其獨特的評價標準。首先,介紹基於反事實的可解釋方法的評價標準。因為沒有反事實的地面真值,所以無法直接檢驗反事實樣本的質量。因此,壹些指標是通過啟發式定義的,以確保生成的反事實符合預期,並具有預期的屬性。

還有其他面向模型的可解釋方法和公平性評價指標。這些方法的評價指標還是壹個需要攻克的課題,這裏就不壹壹介紹了。感興趣的同學可以參考壹下語錄。

j .珀爾。從因果革命的七個火花看機器學習的理論障礙。CoRR,ABS/1801.04016,2018。

[2]珀爾,j。麥肯齊D. (2018)。原因之書:因果的新科學。基礎書籍。

[3],,,申迪王,,迦,雷震。可解釋人工智能中的反事實解釋:教程。ACM SIGKDD知識發現和數據挖掘會議教程(KDD 2021)。

[4] D. Alvarez-Melis和T. Jaakkola。解釋黑盒序列對序列模型預測的因果框架。《2 017自然語言處理經驗方法會議論文集》,412–421頁,丹麥哥本哈根,2017年9月。計算語言學協會。

[6]吳,t,裏貝羅,M. T .,j .,& amp焊接,D. S. (2021)。聚合汁:為解釋、評估和改進模型生成反事實。計算語言學協會第80屆59屆年會論文集。

[5]a .加齊馬汀,o .巴拉勞,r .薩哈·羅伊,& amp威庫姆,G. (2020,1月)。PRINCE:推薦系統88中帶有反事實解釋的提供方可解釋性。《第13屆網絡搜索和數據挖掘國際會議論文集》(第196-204頁)。

  • 上一篇:南陽有哪些名勝古跡?我想寫壹篇作文。
  • 下一篇:法國蝸牛是四大名菜之首,位於魚翅和鮑魚之上。法國人愛吃,中國人不敢吃?
  • copyright 2024歷史故事大全網