如果要大于四张gpu卡训练(例如A800),是不是只能使用公共集群进行申请,无法自己创建个人实例?
已经把GPU容器资源池1的实例模版,设置为最大4张A800卡了。当然也可以使用公共集群使用更多的数量。