什么是反脆弱人工智能?
在系統思維中,“反脆弱”是一種設計,不僅可以從故障中恢復,而且在遇到故障時更加強大、更有效。基于實際改善決策的因素構建 AI 系統將為反脆弱人工智能創造機會。認知科學的研究中提到,良好的決策是:主動闡明假設、構建假設檢驗驗證這些假設以及在利益相關者之間建立清晰的溝通渠道的產物。許多引發人為錯誤的認知偏差都是上述三方面出現問題的結果。例如沒有清楚地闡明假設,就將解決方案應用于不合適的環境條件;不測試假設,就無法根據不斷變化的條件來調整正確的決策。AI很容易受到不良數據的影響,因為我們過分強調了它在分類和識別方面的應用,而低估了它在建議和情境化方面的應用。然而,決策型AI又非常容易被破壞。設計反脆弱AI非常困難,因為將算法分析的結果作為結論和作為建議,這兩者之間有很大的差別。而決策者,為了節省精力非常有可能一股腦的將AI輸出作為結論。這種想法,已經在刑事司法和警務領域造成了災難性的錯誤。那么在醫學中,為什么AI能夠提高決策質量?因為,許多診斷并沒有單一的正確答案,某種癥狀背后可能對應多種疾病,到底患有哪種疾病,可能只是概率問題。臨床醫生會在頭腦中建立一個決策樹,其中包含他能想到的所有可能病因,并讓病人做排除某些可能病因的測試。因此,醫學診斷是一個“定義假設、檢驗測試、進一步縮小可能病因集”的循環過程,直到決策收斂。這時候,AI決策模型的作用是提示醫生將可能的疾病類型納入他的決策樹,所以盡管可能數據不佳,但患者的治療效果卻有所改善。目前,這種AI已經在用于改善醫療專業人員之間的溝通和知識共享,或在關鍵時刻從患者那里獲得新的相關信息。
使用AI進行決策的正確姿勢
在決定如何最好地利用人工智能時,技術領導者需要首先考慮他們如何定義需要解決的問題。如果 AI 是改善決策,那么 AI 應該引導決策者進行假設檢驗,而不是試圖超越專家。當 AI 試圖勝過專家,它完全取決于接收到的數據的質量,從而產生了一系列漏洞,攻擊者可以輕松地利用這些漏洞。當人工智能的目標不是成為最好的頂級專家,而是加強和支持決策實踐時,其對不良數據具有彈性并能夠具有反脆弱的功能。但這樣的人工智不能做決定。相反,它幫助人們闡明決策背后的假設,將這些假設傳達給其他利益相關者,并在與這些假設相關的條件發生重大變化時提醒決策者。綜上,人工智能可以幫助決策者弄清楚什么狀態是可能的,或者在什么條件下它們是可能的。這樣的解決方案可以通過解決現有弱點來增強決策團隊的整體能力,而不是因不良數據產生一些新的弱點。相關鏈接: