谷歌的人工智能研究人員最近展示了一種新的訓練方式,可以讓計算機理解為什么有些圖像比其他圖像更美觀。
傳統上,機器會使用基本的分類——比如判斷一個圖像是否有“貓”。新的研究表明,現在人工智能可以對圖像質量進行評分,不管類別是什么。這個過程被稱為神經圖像評估(NIMA),它利用深度學習訓練卷積神經網絡(CNN)來預測圖像的評級。
根據研究人員發表的一份白皮書:“我們的方法與其他方法不同,因為我們通過卷積神經網絡來預測人類的意見分數分布。我們的結果網絡不僅可以被用來可靠地給圖像打分,而且與人類的感知高度相關,并且還可以幫助在攝影通道中對照片編輯/增強算法進行調整和優化。”
NIMA模型避開了傳統的方法,采用了10分制的評分標準。機器會檢查圖像的特定像素和整體美學。然后它會決定某一個評級有多大可能被一個人選擇。基本上,人工智能會試圖猜測一個人喜歡這張照片的程度。這并不能使機器獲得感知或思考的能力,但它可能會讓計算機成為更好的藝術家或策展人。這個過程可能會被應用于尋找一批最好的圖片。
如果你是那種每次拍20或30張圖片的人,為了確保你擁有最好的照片,這可以為你節省很多空間。假設,只要點擊一下按鈕,AI就可以查看存儲中的所有圖片,并確定哪些圖片是類似的,然后保留最好的,刪除剩余的。根據谷歌研究博客最近的一篇文章,NIMA也可以用來優化圖像設置,從而產生完美的結果:
“我們觀察到,由NIMA評分的對比調整可以改善基準的審美評分。因此,我們的模型能夠引導一個深度的CNN過濾器,找到其參數近乎理想的設置,比如亮度、高光和陰影。”
創建一個幾乎和人類一樣理解圖像質量的神經網絡似乎并不具有革命性,但對于擁有像人類一樣視力的計算機應用程序卻有很多。
為了讓人工智能在現實世界中執行任務,比如在沒有人類幫助的情況下安全地駕駛汽車,它必須能夠“看到”并理解它的環境。NIMA,以及像它這樣的項目,正在為未來的全功能機器打下基礎。(選自:thenextweb作者:Tristan Greene 編譯:網易見外智能編譯平臺 審校:nariiy)