1 réponse
- Le plus récent
- Le plus de votes
- La plupart des commentaires
1
Hi there - thanks for opening this thread. Multi-model endpoints are not supported on GPU instance types, see here: https://docs.aws.amazon.com/sagemaker/latest/dg/multi-model-endpoints.html#multi-model-endpoint-instance
In order to host a multi-model endpoint, choose a CPU instance type instead. The ECR image for CPUs will contain the required com.amazonaws.sagemaker.capabilities.multi-models=true
label, see here: https://github.com/aws/deep-learning-containers/blob/master/pytorch/inference/docker/1.8/py3/Dockerfile.cpu
répondu il y a 2 ans
Contenus pertinents
- Réponse acceptéedemandé il y a un an
- demandé il y a 4 mois
- demandé il y a un an
- demandé il y a 6 mois
- AWS OFFICIELA mis à jour il y a 2 ans
- AWS OFFICIELA mis à jour il y a 2 ans
- AWS OFFICIELA mis à jour il y a 2 ans
- AWS OFFICIELA mis à jour il y a 8 mois
Thanks for your help. I struggle with this problem FOR A MONTH. X) My Best Person at this month is you!