2 Risposte
- Più recenti
- Maggior numero di voti
- Maggior numero di commenti
0
instead of loading model object from a zip file in lambda session. you can load the model object to elastic-cache upfront and load it in lambda instance from elastic-cache. you might need to serialize and deserialize but I think it would still be faster.
con risposta 3 anni fa
0
Hi! Thanks for your answer. In theory, that'd be a good idea and could work. However, my other question in this forum then comes into play :D
Serverless Inference currently does not support a VPC configuration. Redis clusters, however, need to be in a VPC.
con risposta 3 anni fa
Contenuto pertinente
- AWS UFFICIALEAggiornata 2 anni fa
- AWS UFFICIALEAggiornata 3 anni fa
- AWS UFFICIALEAggiornata 2 anni fa
- AWS UFFICIALEAggiornata 2 anni fa