| タイトル | vLLMにおける制限またはスロットリング無しのリソースの割り当てに関する脆弱性 |
|---|---|
| 概要 | vLLMは大規模言語モデル(LLM)の推論およびサービングエンジンです。バージョン0.1.0から0.19.0未満の間、vLLMのOpenAI互換APIサーバーにサービス拒否(DoS)脆弱性が存在していました。ChatCompletionRequestおよびCompletionRequestのPydanticモデルでnパラメータの上限検証が欠如していたため、認証されていない攻撃者が非常に大きなn値を持つ単一のHTTPリクエストを送信することが可能でした。これにより、Pythonのasyncioイベントループが完全にブロックされ、リクエストがスケジューリングキューに到達する前に数百万のリクエストオブジェクトコピーがヒープに割り当てられて即座にメモリ不足クラッシュが発生していました。この脆弱性はバージョン0.19.0で修正されています。 |
| 想定される影響 | 当該ソフトウェアが扱う情報について、外部への漏えいは発生しません。 また、当該ソフトウェアが扱う情報について、書き換えは発生しません。 さらに、当該ソフトウェアが完全に停止する可能性があります。 そして、この脆弱性を悪用した攻撃の影響は、他のソフトウェアには及びません。 |
| 対策 | 正式な対策が公開されています。ベンダ情報を参照して適切な対策を実施してください。 |
| 公表日 | 2026年4月6日0:00 |
| 登録日 | 2026年4月21日10:47 |
| 最終更新日 | 2026年4月21日10:47 |
| CVSS3.0 : 警告 | |
| スコア | 6.5 |
|---|---|
| ベクター | CVSS:3.0/AV:N/AC:L/PR:L/UI:N/S:U/C:N/I:N/A:H |
| vLLM |
| vLLM 0.1.0 以上 0.19.0 未満 |
| No | 変更内容 | 変更日 |
|---|---|---|
| 1 | [2026年04月21日] 掲載 |
2026年4月21日10:47 |
| 概要 | vLLM is an inference and serving engine for large language models (LLMs). From 0.1.0 to before 0.19.0, a Denial of Service vulnerability exists in the vLLM OpenAI-compatible API server. Due to the lack of an upper bound validation on the n parameter in the ChatCompletionRequest and CompletionRequest Pydantic models, an unauthenticated attacker can send a single HTTP request with an astronomically large n value. This completely blocks the Python asyncio event loop and causes immediate Out-Of-Memory crashes by allocating millions of request object copies in the heap before the request even reaches the scheduling queue. This vulnerability is fixed in 0.19.0. |
|---|---|
| 公表日 | 2026年4月7日1:16 |
| 登録日 | 2026年4月15日11:27 |
| 最終更新日 | 2026年4月21日3:30 |
| 構成1 | 以上 | 以下 | より上 | 未満 | |
| cpe:2.3:a:vllm:vllm:*:*:*:*:*:*:*:* | 0.1.0 | 0.19.0 | |||