$AutoDL$ 一日体验
今天体验了一下
$AutoDL$3,还不错
数据
因为我的数据集比较大,有 $45G$,所以首先上传到了百度网盘,使用 $AutoDL$ 的 $AutoPanel$ 连接到百度网盘,需要在百度网盘开放平台创建应用,然后再下载到 $AutoDL$ 的实例里面,下载速度跟百度网盘会员有关
我开的一台内蒙 $A$ 区的 $RTX A5000$ 卡,镜像选择 $Pytorch\ 1.9 + Python\ 3.8 + cuda\ 11.1 $
一开始用的无卡模式,下载速度不太稳定,$1m/s-30m/s$ 来回跳,大概下载了一个小时,贵在便宜(●ˇ∀ˇ●)
远程连接
然后开正常 $gpu$ 模式,用 $PyCharm$ 的 $ssh$ 远程连接服务器,添加 $Interpreter$ ,选择 $SSH\ Interpreter$,填写登录指令,包括 $Host、Username、Password$
设置 $Python\ Interpreter$,默认在
/root/miniconda3/bin/python
然后设置 $Path\ mappings$,包括本地的( $local\ Path$ )和远程的( $remote\ Path$ ),这样就连接上了
训练
跟本地的环境一样,使用
pip install xx
,安装缺少的依赖
由于我的项目还需要用到 $Java$,使用:
sudo apt update
sudo apt install openjdk-8-jdk
java -version
最后在 $PyCharm$ 下运行训练代码,就在远程开始跑了
当然,可以借助 $JupyterLab$ 可视化,就不细讲了
总结
如果本地没有 $gpu$ 的话,用云 $gpu$ 还是很不错的,可以选择环境和配置,甚至多卡分布式训练,如果有预算,建议还是自己配一台,毕竟长时间用云服务器的话,半年时间都可以买一张 $3080\ Ti$ 了
最后编辑于:2022 年 08 月 17 日 21:37