Vllm

Vllm

22 Schwachstellen gefunden.

Hinweis: Diese Liste kann unvollständig sein. Daten werden ohne Gewähr im Ursprungsformat bereitgestellt.
  • EPSS 0.06%
  • Veröffentlicht 07.02.2025 20:15:34
  • Zuletzt bearbeitet 01.07.2025 20:58:00

vLLM is a high-throughput and memory-efficient inference and serving engine for LLMs. Maliciously constructed statements can lead to hash collisions, resulting in cache reuse, which can interfere with subsequent responses and cause unintended behavio...

  • EPSS 0.27%
  • Veröffentlicht 27.01.2025 18:15:41
  • Zuletzt bearbeitet 27.06.2025 19:30:59

vLLM is a library for LLM inference and serving. vllm/model_executor/weight_utils.py implements hf_model_weights_iterator to load the model checkpoint, which is downloaded from huggingface. It uses the torch.load function and the weights_only paramet...