Hinweis: Diese Liste kann unvollständig sein. Daten werden ohne Gewähr im Ursprungsformat bereitgestellt.
2.6
CVE-2025-25183
- EPSS 0.06%
- Veröffentlicht 07.02.2025 20:15:34
- Zuletzt bearbeitet 01.07.2025 20:58:00
vLLM is a high-throughput and memory-efficient inference and serving engine for LLMs. Maliciously constructed statements can lead to hash collisions, resulting in cache reuse, which can interfere with subsequent responses and cause unintended behavio...
8.8
CVE-2025-24357
- EPSS 0.27%
- Veröffentlicht 27.01.2025 18:15:41
- Zuletzt bearbeitet 27.06.2025 19:30:59
vLLM is a library for LLM inference and serving. vllm/model_executor/weight_utils.py implements hf_model_weights_iterator to load the model checkpoint, which is downloaded from huggingface. It uses the torch.load function and the weights_only paramet...