GPUサーバを立てた
研究室にDeep Learning用のGPUサーバを立てた
先週半ばにパーツが届き、先週金曜日に後輩の助けを借りつつGPUサーバを組み立てた。今まで、パソコンを組み立てたことがなく、GPUをSLI構成なんて見たことがなかったため、すごく新鮮でいい経験になった。配線に苦戦したので、パーツの選びかたが大事だなと思った。
OSはUbuntuを採用した。その理由は数あるLinuxのディストリビューションの中で、NVIDIAのドライバーをインストールするのがもっとも簡単だと思ったからだ。
以前、NVIDIA Dockerを使ってCUDAドライバをなんとかする方法を投稿したが、その手法は今も使っている。今回のサーバは透過プロキシを利用したため、Docker Hubは必ずしも必要ない。やっぱり必要だった...
ただ、なぜかCNNのモデルが動かない。なんでだろう...