Explore how you can quickly prepare for, respond to, and recover from security events. Learn more.
All Content tagged with AWS 神经元
AWS Neuron is a software development kit (SDK) for running machine learning inference using AWS Inferentia chips.
内容语言: 中文 (简体)
Select up to 5 tags to filter
排序方式 最新
4 条结果
【以下的问题经过翻译处理】 当我阅读文档但无法找到答案时,我产生了以下问题。
1. 编译是否必须在CPU上完成?我可以使用加速器如GPU来加速编译吗?
2. 在Inf1实例上编译是否利用神经元核心,还是像其他实例一样只使用CPU?
3. 看起来有几种方法可以利用多个神经核心进行推理,我找到:
* `torch.neuron.DataParallel`
* 在编译之前设置`os....
【以下的问题经过翻译处理】 我刚开始在Inf1上使用Neuron,并且正在按照示例操作。我完成了[resnet50](https://awsdocs-neuron.readthedocs-hosted.com/en/latest/src/examples/pytorch/resnet50.html)例子,没有问题。然后我尝试按照[BERT](https://awsdocs-neuron.readt...
【以下的问题经过翻译处理】 Inferentia对应的实例上是否支持Diffusers模型的部署?如果已经支持,有哪些文档可以指导如何实现呢?
【以下的问题经过翻译处理】 你好。我们正在尝试将所有内部的 PyTorch 模型转换为在 Inferentia 上的 AWS Neuron 模型。我们成功地转换了一个模型,但是我们尝试的第二个模型无法编译。编译并没有生成任何错误消息或任何类型的日志,所以我们陷入了困境。这是一个相当简单的 U-Net 模型,但是很大,使用部分卷积而不是常规卷积,但除此之外没有其他花哨的运算符。在同一实例上将此模型转...