首頁體育 > 正文

學了後面忘前面 治療AI“健忘症”還難有良策

2021-10-09由 新華網 發表于 體育

原標題:學了後面忘前面 治療AI“健忘症”還難有良策

學了後面忘前面 治療AI“健忘症”還難有良策

很多人在上學的時候都有這樣的經歷,在經過了一個寒假返校後,發現前一學期學到的內容有的已經忘了。在見識過人工智慧PK人類的屢屢勝績後,有人不免羨慕AI強大的學習本領,但事實上人工智慧的“記性”並不如你想象的那樣好,如果你像人工智慧系統那樣學習,很可能在學習新知識的同時,大腦便會逐漸忘了之前的內容,其原因就在於人工智慧遭遇了“災難性遺忘”。

近日,來自谷歌大腦的最新研究發現,在街機學習環境的由多個子任務組成的單任務場景中也存在著“災難性遺忘”。特別像在“蒙特祖瑪復仇”這種探索型遊戲裡,場景變化較大,會出現學習完當前遊戲場景後,忘記上一個遊戲場景知識的情況。

那麼人工智慧為什麼會產生“災難性遺忘”?目前解決“災難性遺忘”的方案有哪些?難點在哪?就此,科技日報記者採訪了有關專家。

學一個忘一個 深度學習效率低下

自從阿爾法圍棋(AlphaGo)相繼戰勝多名圍棋冠軍後,深度學習已經成為眾多實現人工智慧的方法中最耀眼的“明星”,也是各大研發機構角逐的主戰場。而谷歌大腦團隊這次面臨的“災難性遺忘”,正是人工智慧深度學習中所面臨的一個普遍且嚴重的問題。

“‘災難性遺忘’指的是人工智慧系統,如深度學習模型,在學習新任務或適應新環境時,忘記或喪失了以前習得的一些能力。”騰訊人工智慧實驗室副主任俞棟博士在接受科技日報記者採訪時說,“災難性遺忘”會造成人工智慧系統在原有任務或環境中的效能大幅下降。

美亞柏科資訊中心總經理魏朝東介紹,在深度神經網路學習不同任務的時候,相關權重的快速變化會損害先前任務的表現,通俗來說,就是在學習中像猴子搬苞谷,撿一個丟一個,記住了新知識,也有可能會忘掉了老知識。

正是源於此,“災難性遺忘”的存在,一定程度上限制了人工智慧在一些場景中的應用。

福州大學數學與計算機科學學院、福建省新媒體行業技術開發基地副主任柯逍博士舉例說,如一個AI影象識別系統,當需要新增一個新的類別的物體時,就不得不把原先的所有物體都再學習一次。如在文物鑑定系統中,當有一天發現原始資料中有一個文物朝代錯了,便沒辦法單獨對這一個錯誤的文物進行修改學習;再如讓AI系統學習英語之後,再讓它學習德語,它可能會把原來學習的英語語法全部忘光。

那麼在谷歌大腦的最新研究中,“災難性遺忘”又造成了哪些影響?其中又有何新發現?

“除了傳統的新知識學習會覆蓋舊知識之外,這次谷歌大腦還發現,在如‘超級瑪麗’等探索型遊戲裡,‘災難性遺忘’會阻礙模型對新知識的學習。”廈門大學科技處副處長、人工智慧系教授紀榮嶸說。

紀榮嶸進一步解釋說,面向街機遊戲學習的強化學習方法都會採用“經驗回放”的訓練方式,就是將模型在遊戲探索時候的片段進行儲存,然後給模型進行“回放”訓練。而像“蒙特祖瑪復仇”這種遊戲,遊戲場景變化比較大,模型需要不間斷探索遊戲場景,因此,在訓練時候就必須不斷回放早期場景的遊戲經驗,不然會因為“災難性遺忘”而忘記了早期的遊戲知識。

“這也導致了新的遊戲經驗雖然能夠被取樣到‘經驗回放’庫裡,但因為學習方式的設定,導致學習效率低,同時由於不同階段的學習會互相干擾,使得AI無法一次透過該遊戲的全部關卡。”紀榮嶸說。

AI“腦容量”存上限 新舊知識難共存

AI為什麼會產生“災難性遺忘”?

“深度學習的結構一旦確定,在訓練過程中很難調整。神經網路的結構直接決定學習模型的容量。”柯逍說,AI“腦容量”存在上限,也就導致了人工智慧只能有限地處理特定任務。就像水桶一半高的地方有個洞,以至於無論怎麼增加水桶的高度,這個水桶只能裝一半高的水。

中科院自動化所腦網路組研究中心研究員、模式識別國家重點實驗室副主任餘山指出,這還涉及到神經網路學習知識的機制。在單個任務的訓練過程中,網路中各個神經元之間的連線權重進行了專門的調整,以勝任當前的任務。而在新任務的訓練中,連線權重要針對新任務進行調整,這將“抹去”適應舊任務的原有結構,導致在舊任務上的效能大大下降。

人類的記憶能力其實是有限的,但為何出現“災難性遺忘”的情況卻比較少?“主要是人類在學習過程當中,大腦能夠主動保留有用的知識和技巧,同時不影響新的資訊獲取。” 紀榮嶸說,但現在的人工智慧模型大部分是基於隨機梯度下降來更新模型引數,這個過程主要服務於當前任務的最佳化,並不會去評估哪些引數權重對舊的知識是有用的,所以就很容易出現知識被覆蓋的情況。

紀榮嶸也表示,當前像Siri或小愛這樣的人工智慧助手產品,還不能算真正意義上的通用人工智慧,一方面,這些人工智慧助手只能在預設的知識範圍內和人類互動,完成指令;另一方面,人類沒辦法像養寵物或養小孩一樣,透過互動去教導這些人工智慧助手學習新的知識或新的指令。

有多個解決方案 但都治標不治本

據瞭解,破解“災難性遺忘”是實現通用人工智慧的一個關鍵。解決了“災難性遺忘”問題,就意味著模型具備了持續學習的能力, 可以像人類一樣不斷獲取新的知識、新的技能,同時能夠最大化地保持舊的經驗知識和技巧。

那麼,目前解決“災難性遺忘”的方案有哪些?

“最常見的方式是多工學習, 就是把所有任務的訓練資料同時放到一起,模型就可以針對多種任務進行聯合最佳化。”紀榮嶸舉例說,如讓模型同時學習“坦克大戰”和“超級瑪麗”兩個任務,等兩個任務同時學的差不多的時候,模型才停止訓練。

但柯逍也指出,這種方式隨著任務增多,新任務樣本數量被稀釋,訓練會拖慢學習新知識的效率,並且不是任何情況都能獲得先前任務的資料來複習的。

還有的解決方案是根據新的任務知識來擴充模型結構,保證舊的知識經驗不被損害。此次,谷歌大腦所提出的“記憶碎片觀察”方法正是對不同任務(場景)構建多個人工智慧模型來進行學習。“模型擴充的方式從本質上並沒有解決‘災難性遺忘’的問題,只是用多個模型來替代單個模型去學習多種任務,避免舊引數被覆蓋。”紀榮嶸說。

當前,解決“災難性遺忘”還存在著一對矛盾:在學習新任務的過程中,需要給予網路足夠多的自由度進行連線權重調整,但是又要避免這樣的調整“抹去”原有的記憶。

“因此,科學家們開始設計新的學習演算法解決上述矛盾,使得網路在進行權重調整的時候,對已有知識的影響最小化。”餘山表示,其團隊近期提出的正交權重修改演算法,就屬於這類,主要透過限制權重修改只能在舊任務的解空間中進行,這一演算法較好的克服了“災難性遺忘”,使得同一個分類器網路可以連續學習多達數千個類別的識別。

魏朝東認為,雖然科學家們已經探索出多種解決方案,但目前的AI學習只是從認知科學中獲得了一小部分靈感,對大腦的模擬還沒達到人們想象的高度,大部分AI學習方案是“先天不足”的。“災難性遺忘”是一個綜合性問題,不僅需要有理論支撐,未來還需要有可行的技術手段去實現。(記者 謝開飛 通訊員 歐陽桂蓮 許曉鳳 王憶希)

頂部