Colaboratoryを使ってみた

GoogleColaboratoryを使ってみた。

自宅でDeep Learningのお勉強などをしたりしていると、GPU欲しいなと思うことがしばしばある。Colaboratoryなら、あります。GPUどころか、TPUも使えます。

AutoEncoderを書いてみる

以前にQiitaで書いたAutoEncoderを、Colaboratoryの環境上で、kerasの部分をtensorflowkerasに置き換えて書いてみた。

で、この50epochs回すヤツをハードウェアアクセラレーションなし、GPU、TPUで実行してみた。で、autoencoder.fit()の時間を測定してみた。

import time
start_time = time.time()
autoencoder.fit(x_train,
                epochs=epochs,
                batch_size=batch_size,
                validation_data = (x_valid, None))
print('{:.2f}[sec]'.format(time.time()-start_time))

結果は、次のとおり。

時間[sec]
None619.32
GPU81.56
TPU650.02

あれ?TPU遅い?というか、TPUが生きるネットワークになってないってことかな?

今後のAI関連のお勉強は

もう自前で環境を用意する必要はない。みんな、Colaboratoryを使えばイイ。そして、Colaboratoryを使うということは、Tensorflowを使うということで、PyTorchとかChainerとかは今後どうなっちゃうの?って感じでもある。