1 回答
- 最新
- 投票最多
- 评论最多
0
Lambda可以。如果是已经训练好的模型,直接上云部署,可以考虑把模型放到EFS,在Lambda里面调用。或者封装成docker,用Lambda调用。如果还没训练,可以考虑用SageMaker训练,SageMaker有Serverless的部署方式,类似Lambda。 Lambda没有GPU,部署模型的机器是否需要GPU看您的要求。SageMaker Serverless Inference的话,是不带GPU的。内存需要自己测一下需要多少。
Lambda可以。如果是已经训练好的模型,直接上云部署,可以考虑把模型放到EFS,在Lambda里面调用。或者封装成docker,用Lambda调用。如果还没训练,可以考虑用SageMaker训练,SageMaker有Serverless的部署方式,类似Lambda。 Lambda没有GPU,部署模型的机器是否需要GPU看您的要求。SageMaker Serverless Inference的话,是不带GPU的。内存需要自己测一下需要多少。