到2023年底,私人信貸管理的資產規模接近2萬億美元,大約是2009年的十倍。
1 同時,算法決策在銀行業變得普遍,73%的機構報告使用了機器學習(ML)模型和工具。
2 來自英國銀行和保險行業的證據進一步表明,大約55%的人工智能(AI)應用已經涉及某種形式的自動化決策。
3 包容性金融旨在為家庭和小企業提供負擔得起的高質量金融服務。數字信貸和ML支持的決策支持的普及通過擴展信用評分[1]、定價[2]和欺詐檢測[3]超越了傳統渠道,推動了這一議程。然而,當模型依賴于有偏的標簽、低估某些人群或從不平衡的數據質量中學習時,同樣的技術可能會加劇歷史上的不平等。
最近的事件增加了公眾和監管機構對這些風險的關注。無論法律調查結果如何,關于自動化信貸決策中基于性別的差異的指控都加劇了對模型如何使用敏感信息以及不同受保護群體之間結果差異的審查。[5],[6] 受到設計科學研究的啟發,我們將公平意識信貸評分視為設計和評估決策支持工具的問題,而不僅僅是孤立地改進預測模型。[7],[8] 在此背景下,我們提出了兩個研究問題:(1)信貸評分支持系統如何在保持預測性能的同時減少不同受保護群體之間的差異;(2)這樣的系統如何以連貫和可審計的方式支持多種公平考慮?
信貸評估中的公平性是多方面的。對于風險預測,兩個常見的指標是結果平等性,例如人口統計平等性,以及錯誤率平等性,例如機會平等或幾率平等。[9] 這些平等目標可能與效率發生沖突,因此必須明確和管理由此產生的公平性-準確性權衡。[10]
現有的偏見緩解方法大致分為三類。預處理方法在模型擬合之前修改訓練數據(例如,重新加權或表示學習)以減輕偏見。[11] 后處理方法在推理時調整決策閾值,通常通過設置特定群體的截止值來減少差異。[9] 在處理過程中將公平目標或約束嵌入模型訓練中,使預測器本身內化公平目標。[12],[13] 雖然后處理易于部署,但它需要在決策時明確訪問受保護的屬性,會在不同群體之間產生閾值不一致性,并且不會改變底層的預測器。當數據是偏見的主要驅動因素時,預處理可能會有所幫助,但當模型重新訓練或分布發生變化時,其效果可能會減弱。這激發了針對深度模型的在處理策略,旨在減少對受保護屬性的依賴,無論是表示層面還是預測層面。
在深度學習(DL)環境中,對抗訓練已成為阻止受保護屬性泄露的實用方法:預測器與一個輔助審計器競爭,后者試圖從表示或預測中推斷出受保護的屬性。然而,大多數對抗設置要么(a)僅優化真實性(生成數據增強)而不明確公平目標,[14],要么(b)將對抗網絡視為啟發式正則化器,而不系統地描述公平性-準確性權衡或可部署性影響(例如,閾值選擇、子群體校準)。[15]
本文提出了去偏見對抗神經網絡(DA-NN),這是一種在處理過程中將標準預測目標與針對感興趣的公平概念進行調整的對抗網絡相結合的框架。對抗網絡懲罰預測和受保護屬性之間的基于協方差的依賴性,而預測器同時優化預測損失。因此,訓練信號平衡了兩個目標:在保留數據上測量的預測性能和公平性。通過構建,DA-NN在部署時不需要特定群體的閾值;相反,它旨在提供一條在廣泛閾值范圍內減少群體差異的單一操作曲線。
我們首先在兩個不同的數據集上進行實證評估。結果表明,所提出的模型滿足了四個標準的公平性標準:無知覺性、獨立性、充分性和分離性。然后,我們將DA-NN與廣泛使用的基線進行比較,包括邏輯回歸(LR)、AdaBoost、全連接神經網絡(FCNN)和一種最近的用于偏見緩解的對抗訓練框架[16]。研究結果表明,我們的方法在保持公平性的同時提供了更強的預測性能。最后,為了使權衡透明化,我們通過改變訓練過程中的公平權重來追蹤公平性和準確性之間的實證邊界,并報告相應的指標對。這些邊界幫助監管機構和平臺在政策或業務約束下選擇操作點,并量化獲得額外公平性所需的準確性成本。
本研究有三個關鍵貢獻。(1)方法創新。我們開發了DA-NN,這是一種在訓練過程中通過正則化組合損失直接優化與指標對齊的公平目標的模型,其中包含了預測和受保護屬性之間的基于協方差的依賴性懲罰;(2)實證驗證。在兩個信貸評分數據集上的廣泛實驗表明,DA-NN在不犧牲預測準確性的同時實現了持續的公平性改進,支持了我們方法的普遍性;(3)管理意義。我們的發現表明,金融機構可以采用對抗訓練模型來提高信貸分配的公平性,而不影響預測準確性。這樣的方法可以降低監管風險,增強借款人的信任,并促進更具包容性的金融服務。
本文的其余部分組織如下。第2節回顧相關工作。第3節介紹公平性措施和提出的基于對抗學習的決策支持工具。第4節介紹在中國P2P借貸平臺的應用,第5節介紹在德國信用數據集上的應用,展示主要結果、準確性-公平性權衡以及額外的基準驗證。第6節討論部署和管理意義,第7節總結本文。