Colaboratoryを使ってみた
GoogleのColaboratoryを使ってみた。
自宅でDeep Learningのお勉強などをしたりしていると、GPU欲しいなと思うことがしばしばある。Colaboratoryなら、あります。GPUどころか、TPUも使えます。
AutoEncoderを書いてみる
以前にQiitaで書いたAutoEncoderを、Colaboratoryの環境上で、keras
の部分をtensorflow
のkeras
に置き換えて書いてみた。
で、この50epochs回すヤツをハードウェアアクセラレーションなし、GPU、TPUで実行してみた。で、autoencoder.fit()
の時間を測定してみた。
import time start_time = time.time() autoencoder.fit(x_train, epochs=epochs, batch_size=batch_size, validation_data = (x_valid, None)) print('{:.2f}[sec]'.format(time.time()-start_time))
結果は、次のとおり。
時間[sec] | |
---|---|
None | 619.32 |
GPU | 81.56 |
TPU | 650.02 |
あれ?TPU遅い?というか、TPUが生きるネットワークになってないってことかな?
今後のAI関連のお勉強は
もう自前で環境を用意する必要はない。みんな、Colaboratoryを使えばイイ。そして、Colaboratoryを使うということは、Tensorflowを使うということで、PyTorchとかChainerとかは今後どうなっちゃうの?って感じでもある。