製品・ソフトウェアに関する情報
ggml.aiのllama.cppにおける複数の脆弱性
Title ggml.aiのllama.cppにおける複数の脆弱性
Summary

llama.cppはC/C++で複数の大規模言語モデル(LLM)の推論を行うソフトウェアです。b7824以前のバージョンでは、`ggml_nbytes`関数に整数オーバーフローの脆弱性が存在し、攻撃者が特定のテンソルの次元を持つGGUFファイルを作成することでメモリ検証を回避できます。これにより`ggml_nbytes`は必要なサイズよりもはるかに小さい値(例えばエクサバイト単位の代わりに4MB)を返し、その後アプリケーションがテンソルを処理するとヒープベースのバッファオーバーフローが発生します。この脆弱性により、メモリ破損を介したリモートコード実行(RCE)が可能となります。b7824でこの問題は修正されています。

Possible impacts 当該ソフトウェアが扱う全ての情報が外部に漏れる可能性があります。 また、当該ソフトウェアが扱う全ての情報が書き換えられる可能性があります。 さらに、当該ソフトウェアが完全に停止する可能性があります。 そして、この脆弱性を悪用した攻撃の影響は、他のソフトウェアには及びません。 
Solution

正式な対策が公開されています。ベンダ情報を参照して適切な対策を実施してください。

Publication Date March 24, 2026, midnight
Registration Date May 1, 2026, 10:47 a.m.
Last Update May 1, 2026, 10:47 a.m.
CVSS3.0 : 重要
Score 7.8
Vector CVSS:3.0/AV:L/AC:L/PR:N/UI:R/S:U/C:H/I:H/A:H
Affected System
ggml.ai
llama.cpp b7824 未満
CVE (情報セキュリティ 共通脆弱性識別子)
CWE (共通脆弱性タイプ一覧)
ベンダー情報
その他
Change Log
No Changed Details Date of change
1 [2026年05月01日]
  掲載
May 1, 2026, 10:47 a.m.