從這個視角觀察模型已經變得越來越重要,因為 AI 在做的任務也越來越複雜,比如對於 AI 醫療給出的診斷結果,如何理解、如何解釋是真的「生死攸關」。「如果訓練數據中有不符合的,或者對抗性生成的數據,這就會影響到模型(損害模型),後果就是接下來針對新的輸入做出的預測可能是錯誤的。我們正在研究的影響函數(influence functions)可以讓我們準確地追蹤訓練數據中的單個點是如何對某個給定的新輸入的預測產生影響的。」Percy Liang 說。
Percy Liang 的研究的另一個目的是確保 AI 能夠理解自己的限制,而且能夠和人類溝通自己的限制。傳統上,測試 AI 系統的重要指標之一是平均準確率,但 Percy Liang 認為「對於 AI 的安全問題來說,這並不是一個多麼好的討論方式。畢竟,對於一個可靠性是 80% 的系統,人類到底應該怎麼做呢?」