2019年1月5日土曜日

128GB メモリ

制限緩和後、あらためて EC2 の H2O を起動。

メモリは 120GB 確保。
java -Xmx120g -jar h2o.jar

split は相変わらずダメでしたが、XGBoost 、Deep Learning ともに、最後まで走りました。ただ、データの質が良くなく、結果はボロボロ。
1試行20分程度でしたので、グリッドサーチを考えるとやはり GPU が欲しいところ。XGBoost は GPU 対応でしたので、次に必要に迫られた場合には試行してみましょう。

データを動かしてみて、見つかった不都合個所を改善し、再度計算へ。大規模データでもこのループを回せるようになりました。が、まだまだ終わりがなさそうです。

なお、今回の課金は$40弱。初年度無料枠に加え、昨年の SageMaker 講習会で $25 のクーポンをいただいていましたので、最終的には数百円の出費になるようです。安く済ませることができました。

0 件のコメント:

コメントを投稿