| タイトル | ggml.aiのllama.cppにおけるバッファエラーの脆弱性 |
|---|---|
| 概要 | llama.cppはC/C++で実装された複数のLLMモデルの推論器です。バージョンb8492以前では、RPCバックエンドのdeserialize_tensor()がテンソルのbufferフィールドが0の場合にすべての境界検証をスキップしていました。認証されていない攻撃者は、細工されたGRAPH_COMPUTEメッセージを介して任意のプロセスメモリを読み書きできます。ALLOC_BUFFER/BUFFER_GET_BASEからのポインタ情報漏洩と組み合わさることで、完全なASLR回避およびリモートコード実行を可能にします。認証は不要であり、RPCサーバーポートへのTCPアクセスだけで攻撃が成立します。この問題はバージョンb8492で修正されました。 |
| 想定される影響 | 当該ソフトウェアが扱う全ての情報が外部に漏れる可能性があります。 また、当該ソフトウェアが扱う全ての情報が書き換えられる可能性があります。 さらに、当該ソフトウェアが完全に停止する可能性があります。 そして、この脆弱性を悪用した攻撃の影響は、他のソフトウェアには及びません。 |
| 対策 | 正式な対策が公開されています。ベンダ情報を参照して適切な対策を実施してください。 |
| 公表日 | 2026年4月1日0:00 |
| 登録日 | 2026年5月7日12:30 |
| 最終更新日 | 2026年5月7日12:30 |
| CVSS3.0 : 緊急 | |
| スコア | 9.8 |
|---|---|
| ベクター | CVSS:3.0/AV:N/AC:L/PR:N/UI:N/S:U/C:H/I:H/A:H |
| ggml.ai |
| llama.cpp b8492 未満 |
| No | 変更内容 | 変更日 |
|---|---|---|
| 1 | [2026年05月07日] 掲載 |
2026年5月7日12:30 |