和弱泛化一樣,我們可以對抗地採樣測試集來讓它的數據分佈與訓練集盡量不同。AlphaGo Zero 是我最喜歡的例子:在測試階段,它看到的是與它在訓練階段完全不一樣的, 來自人類選手的數據。此外,人類選手也在儘力把 AlphaGo Zero 帶到它在訓練時從未見過的地方。雖然 AlphaGo Zero 不能明確地理解抽象的數學、對弈心理學或者綠色是什麼意思, 但是很明顯它在圍棋這個領域理解得很好,足夠擊敗人類選手。 如果一個人工智慧系統可以在有經驗的人類的干擾下穩定地工作, 我認為它具有了足夠的強泛化能力。
其次, 我們需要把足夠多樣的數據送給模型來促使它學到更為抽象的表示。只有環境里有非常豐富的內容,正確的表示才能被發掘出來(AlphaGo Zero 就提出了角色需要使用自然流形中多少的數據,才能具有一定的理解能力的問題)。沒有這些限制的話,學習本身就是欠定義的,我們能夠恰好找到一個好的解的可能性也非常小。 也許如果人類不能站起來看到天空,就不會想要知道為什麼星星會以這樣奇怪的橢圓形軌跡運行,也就不會獲得智慧。