精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

OpenAI 開源最新工具包,模型增大 10 倍只需額外增加 20% 計算時間

責任編輯:editor004

作者:思穎

2018-01-17 11:23:49

摘自:雷鋒網

AI 研習社消息,近日,OpenAI 在 GitHub 上開源最新工具包 gradient-checkpointing,該工具包通過設置梯度檢查點(gradient-checkpointing)來節省內存資源。

雷鋒網 AI 研習社消息,近日,OpenAI 在 GitHub 上開源最新工具包 gradient-checkpointing,該工具包通過設置梯度檢查點(gradient-checkpointing)來節省內存資源。據悉,對于普通的前饋模型,可以在計算時間只增加 20% 的情況下,在 GPU 上訓練比之前大十多倍的模型。雷鋒網(公眾號:雷鋒網)AI 研習社將該開源信息編譯整理如下:

通過梯度檢查點(gradient-checkpointing)來節省內存資源

訓練非常深的神經網絡需要大量內存,利用 Tim Salimans 和 Yaroslav Bulatov 共同開發的 gradient-checkpointing 包中的工具,可以犧牲計算時間來解決內存過小的問題,讓你更好地針對模型進行訓練。

對于普通的前饋模型,可以在計算時間只增加 20% 的情況下,在 GPU 上訓練比之前大十多倍的模型。

訓練深度神經網絡時,損失的梯度是在內存密集部分通過反向傳播(backpropagation)算法來計算的。在訓練模型時定義計算圖中的檢查點,并在這些檢查點之間通過反向傳播算法重新計算這些圖,可以在降低內存的同時計算梯度值。

當訓練一個 n 層的深度前饋神經網絡時,可以利用這種方式將內存消耗減少到 O(sqrt(n)),代價是需要執行一個額外的前向傳遞操作。這個庫可以在 Tensorflow 中實現這一功能——使用 Tensorflow graph editor 來自動重寫后向傳遞的計算圖。

OpenAI 開源最新工具包,模型增大 10 倍只需額外增加 20% 計算時間

圖:使用常規的 tf.gradients 函數和使用這種優化內存梯度實現法(memory-optimized gradient implementation)訓練不同層數的 ResNet 模型時需要的內存對比

大家現在就可以安裝

pip install tf-nightly-gpu

pip install toposort networkx pytest

當執行這一程序時,需要保證能找到CUPTI。

這時可以執行

export LD_LIBRARY_PATH="${LD_LIBRARY_PATH}:/usr/local/cuda/extras/CUPTI/lib64

使用方法

這個庫提供嵌入式功能,能對 tf.gradients 函數進行替換,可以輸入如下程序來引入相關函數:

from memory_saving_gradients import gradients

大家可以像使用 tf.gradients 函數一樣使用 gradients 函數來計算參數損失的梯度。

gradients 函數有一個額外的功能——檢查點(checkpoints)。

檢查點會對 gradients 函數進行指示——在計算圖的前向傳播中,圖中的哪一部分節點是用戶想要檢查的點。隨后,會在后向傳播中重新計算檢查點之間的節點。

大家可以為檢查點提供一系列張量(gradients(ys,xs,checkpoints=[tensor1,tensor2])),或者可以使用如下幾個關鍵詞('collection'、'memory' 、'speed')來進行設置。

覆蓋 tf.gradients 函數

使用 gradients 函數的另一個方法是直接覆蓋 tf.gradients 函數,方法如下:

import tensorflow as tf

import memory_saving_gradients

# monkey patch tf.gradients to point to our custom version, with automatic checkpoint selection

def gradients_memory(ys, xs, grad_ys=None, **kwargs):

return memory_saving_gradients.gradients(ys, xs, grad_ys, checkpoints='memory', **kwargs)

tf.__dict__["gradients"] = gradients_memory

這樣操作之后,所有調用 tf.gradients 函數的請求都會使用新的節省內存的方法。

測試

在測試文件夾中,有已經寫好的用于測試代碼準確性和不同模型占用內存的腳本。

大家可以執行 ./run_all_tests.sh 來修改代碼,并著手測試。

OpenAI 開源最新工具包,模型增大 10 倍只需額外增加 20% 計算時間

圖:在CIFAR10數據集上,使用常規的梯度函數和使用最新的優化內存函數,在不同層數的 ResNet 網絡下的內存占用情況和執行時間的對比

via:GitHub

鏈接已復制,快去分享吧

企業網版權所有?2010-2024 京ICP備09108050號-6京公網安備 11010502049343號

  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 嘉兴市| 安溪县| 海南省| 永平县| 罗定市| 那曲县| 柞水县| 乐山市| 罗平县| 麻栗坡县| 新蔡县| 宜城市| 寿宁县| 三河市| 凭祥市| 乌拉特中旗| 乌拉特后旗| 城市| 柳江县| 石城县| 达尔| 会宁县| 罗源县| 涟源市| 拜城县| 延安市| 武山县| 龙胜| 旺苍县| 兰考县| 泗洪县| 昌江| 田阳县| 烟台市| 合阳县| 磐石市| 临潭县| 章丘市| 陆丰市| 墨竹工卡县| 永年县|