pyTorchを触ってみました
GWで少し暇なので最近話題のpyTorchを触ってみました。
ロゴが格好いい
2019/11/15追記
↓pytorchのGPUの確認の検索が多いので個別にページ作りました↓
PytorchでGPUが使えているか確認する方法 - にわかSteamerのメモ帳
確かFacebookがバックに付いてるライブラリです(曖昧)
国産のchainerと比較するとこんな感じ...明らかに世界規模ではpyTorch...
個人的にはchainerもっと盛り上がってもいいと思いますが、日本だけの模様...
5月2日の講演でPyTorch 1.0が発表されてこれからもっと盛り上がっていきそうです。
今回はpyTorch入れて、tutorialをやってみます。
結論から言うと、自分のメインpcはwindowsで、chainerではなぜかCUDA使えなくてブチ切れたのですが、pyTorchは普通に使えました。(Linuxではchainer普通に使えてます)
- CUDA toolkit等を導入する(GPU使用)
まずこれをしないと始まりません。
GPU使わないよって人は飛ばしてください。
まずCUDAインストールします、最新の9.1をインストール
CUDA Toolkit 9.1 Download | NVIDIA Developer
C++でビルドするのでvisual studioのインストールが必須です。
自分はvisual studio 2015 community editionをインストールしました。
また、cudaのインストール時にvisual studio integrationの項目がfailedになる場合は、カスタムインストールにしてintegrationの項目をアンチェックすれば正常にインストールできます。
ついでにcudnnもダウンロードします(登録必要)
こちらも最新の7.1をインストール。tensorflowとかは最新のcudaだったりcudnnが使えなかったりしたので、最新のものを使えるのはうれしい(今はtensorflowも対応してるかも?)
NVIDIA cuDNN | NVIDIA Developer
- pythonの環境を作成する
次にpythonの環境を作りましょう。
普通にanacondaで環境は作ればいいと思います。
conda create -n py36 python=3.6 anaconda
のようにしてpython3.6の環境を作成します。
次に公式にならって次のようにコマンドを打ってpytorchを導入
conda install pytorch cuda91 -c pytorch
pip3 install torchvision
ちなみにcpuのみの利用ならば
conda install pytorch-cpu -c pytorch
を使用してください。
これでエラーがなければ正常にpytorchが導入されてます。
- 実際にpytorchを動かしてみる
まずは本当にGPUが使えるか確認します。
import torch
print(torch.cuda.is_available())
これでTrueが返ってくれば一安心、GPUが使えます。
次にTutorialですが、公式の60分講座をやってみました。
CIFAR-10の学習モデル構築になります。
Deep Learning with PyTorch: A 60 Minute Blitz — PyTorch Tutorials 0.4.0 documentation
詳細はページを見ていただければわかると思うので省きます。
使ってみた印象としてはchainerのフォークって言われてるのがよくわかります、似すぎ。
chainerに慣れてる人なら違和感なく使えると思います、つまり使いやすい。
また、軽量なネットワークしか書いてないので、次は重いの書いてその時の動作等を調べてみたいと思います。
pyTorchは公式のtutorial豊富なのいいなぁ