S3 に上げた 18GB のファイルを Sagemaker のインスタンス (ml.m5.4xlarge) へコピー。
これ、爆速でした。
アップに数時間かかったのに、AWS内でのコピーは 数十秒。驚き。csv に変換できるかな?と試したところ、できました。64GB のメモリ選択で正解でした。
再度、作成した 11GB の csv を S3 へコピー。こちらは1分弱。ま、早いでしょう。
SageMaker でのファイルコピーは Jupyter 上から Python で行ったのですが、
EC2へはコマンドをたたきました。
・S3からローカルにファイルをコピー
$ aws s3 cp s3://バケット名/ディレクトリ名/ファイル名 ./ディレクトリ名/
・EC2からS3にファイルをコピー
$ aws s3 cp ディレクトリ名/ファイル名 s3://バケット名/ディレクトリ名/
こちらも速いなあ、と思ってみてますと、途中でエラーを吐きました。
download failed: [Errno 28] No space left on device
容量確認。
ubuntu@ip:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
nvme1n1 259:0 0 50G 0 disk
└─nvme1n1p1 259:1 0 8G 0 part /
ボリュームを50GBに拡大していましたが、パーティションはそのままでした。50Gに拡大します。
ubuntu@ip:~$ sudo growpart /dev/nvme1n1 1
ubuntu@ip:~$ lsblk
nvme1n1 259:0 0 50G 0 disk
└─nvme1n1p1 259:1 0 50G 0 part /
OK。再度コピーしました。
が、エラーを吐きます。
ubuntu@ip:~$ aws s3 cp s3://
download failed: [Errno 28] No space left on device
容量は空いています。
ubuntu@ip:~$ df -i
Filesystem Inodes IUsed IFree IUse% Mounted on
/dev/nvme1n1p1 1024000 185280 838720 19% /
で、お決まりの reboot 。
すんなりコピーできました。
0 件のコメント:
コメントを投稿