Help us improve the AWS re:Post Knowledge Center by sharing your feedback in a brief survey. Your input can influence how we create and update our content to better support your AWS journey.
为什么当我尝试在Amazon SageMaker中导入Hugging Face BERT模型时,我的内核会一直挂掉?
0
【以下的问题经过翻译处理】 当我尝试使用以下pip命令将Hugging Face BERT模型导入到我的Amazon SageMaker笔记本实例的conda_pytorch_p36内核中时,内核总是会崩溃:!pip install transformers在ml.c5.2xlarge和ml.c5d.4xlarge Amazon SageMaker实例上,使用Hugging Face BERT,RoBERTa和GPT2模型的结果是相同的。为什么会出现这种情况,我该如何解决这个问题?