1 Resposta
- Mais recentes
- Mais votos
- Mais comentários
0
I figured it out. It turns out that the examples didn't spell out that you need to convert the Python model back from the java model, and you can't call transform() right on the dataframe. Complete code below.
from sagemaker_pyspark import SageMakerModel
from sagemaker_pyspark.transformation.serializers import ProtobufRequestRowSerializer
from sagemaker_pyspark.transformation.deserializers import KMeansProtobufResponseRowDeserializer
rowSer=ProtobufRequestRowSerializer(featuresColumnName="features")
smModel = SageMakerModel.fromEndpoint(
endpointName="endpoint-9ad5fcee9c52-2017-12-08T13-36-26-267",
requestRowSerializer=rowSer,
responseRowDeserializer=KMeansProtobufResponseRowDeserializer(
closest_cluster_column_name="cluster",
distance_to_cluster_column_name="closest")
)
ew_model = SageMakerModel._from_java(smModel)
data=SageMakerModel.transform(ew_model,pred)
respondido há 6 anos
Conteúdo relevante
- AWS OFICIALAtualizada há um ano
- AWS OFICIALAtualizada há 2 anos
- AWS OFICIALAtualizada há um ano
- AWS OFICIALAtualizada há um ano