Deep learning Fastai Aws practice
基本参考就可以了.
价格还有有点小贵 光是 gpu 3rmb/hour..先试一个月,豁出去了
start aws p2.xlarge instance
社区 AMI 搜 fastai 配一个.
访问:
ssh -i ~/.ssh/x260-2018-0517.pem ubuntu@34.201.8.230 -L8888:localhost:8888
run jupyter notebook
jupyter notebook --generate-config
vim ~/.jupyter/jupyter_notebook_config.py
addc.NotebookApp.ip = '*'
jupter note-book &
然后在 note-book 运行的 url 改个 aws ip 即可.
kaggle cmd
不得不说用 aws 下载 kaggle data 那叫一个快.
pip install kaggle
kaggle.json,到自己的 kaggle 账户里下到本地,传到 aws
scp kaggle.json ubuntu@34.234.100.228:/home/ubuntu/.kaggle
download data:
mkdir -p /home/ubuntu/fastai/courses/dl1/data/dogbreeds
kaggle competitions download -c dog-breed-identification -p /home/ubuntu/fastai/courses/dl1/data/dogbreeds
kaggle submit result.csv:
kaggle competitions submit -c dog-breed-identification -f -m “1st fast ai result”
upload ipynb
原始版本是自己电脑上先写(gai)的,推到 aws 环境里:
scp xx.ipynb ubuntu@xxxxx:/home/ubuntu/fastai/courses/dl1/
image classifier dog and breeds
aws 关闭与重启
在线收费很贵的..竞价请求关闭前,可以存个快照,再取消该竞价请求.
要再用的时候,快照创建镜像,重新竞价请求即可.
7.3 更新
6 月份被扣了个 7 刀,下面这俩是罪魁,自己把 disk 设置 80G,免费的只有 30GB…每天都要收钱的..
0.1 GB-M 的卷
0.05 GB-M 的快照
重新搞了个 spot instance 这次用 40GB 的,基于社区的 fast-ai
镜像的类型选择为 hvm,不要选择 pv.,否则下次竞价选择 p2.xlarge 会报错
-
git clone fastai
-
update pytorch
J 神建议还是用 0.3 ,新的 0.4 可能还不能完全支持
fastai
是 conda env 的名字
conda install -y --name fastai$PYTHON_VERSION -c soumith pytorch=0.3.0
- cuda not ok
apt-get install cuda-drivers
重启下 sudo reboot -f