为什么当我尝试在Amazon SageMaker中导入Hugging Face BERT模型时,我的内核会一直挂掉?

0

【以下的问题经过翻译处理】 当我尝试使用以下pip命令将Hugging Face BERT模型导入到我的Amazon SageMaker笔记本实例的conda_pytorch_p36内核中时,内核总是会崩溃:!pip install transformers在ml.c5.2xlarge和ml.c5d.4xlarge Amazon SageMaker实例上,使用Hugging Face BERT,RoBERTa和GPT2模型的结果是相同的。为什么会出现这种情况,我该如何解决这个问题?

profile picture
专家
已提问 3 年前31 查看次数
1 回答
0

【以下的回答经过翻译处理】 当最新的句子片段出现问题时,会出现此问题。解决方法是强制安装 sentencepiece==0.1.91 版本。

profile picture
专家
已回答 3 年前

您未登录。 登录 发布回答。

一个好的回答可以清楚地解答问题和提供建设性反馈,并能促进提问者的职业发展。

回答问题的准则