ggml.aiのllama.cppにおける複数の脆弱性
タイトル ggml.aiのllama.cppにおける複数の脆弱性
概要

llama.cppはC/C++で複数の大規模言語モデル(LLM)の推論を行うソフトウェアです。b7824以前のバージョンでは、`ggml_nbytes`関数に整数オーバーフローの脆弱性が存在し、攻撃者が特定のテンソルの次元を持つGGUFファイルを作成することでメモリ検証を回避できます。これにより`ggml_nbytes`は必要なサイズよりもはるかに小さい値(例えばエクサバイト単位の代わりに4MB)を返し、その後アプリケーションがテンソルを処理するとヒープベースのバッファオーバーフローが発生します。この脆弱性により、メモリ破損を介したリモートコード実行(RCE)が可能となります。b7824でこの問題は修正されています。

想定される影響 当該ソフトウェアが扱う全ての情報が外部に漏れる可能性があります。 また、当該ソフトウェアが扱う全ての情報が書き換えられる可能性があります。 さらに、当該ソフトウェアが完全に停止する可能性があります。 そして、この脆弱性を悪用した攻撃の影響は、他のソフトウェアには及びません。 
対策

正式な対策が公開されています。ベンダ情報を参照して適切な対策を実施してください。

公表日 2026年3月24日0:00
登録日 2026年5月1日10:47
最終更新日 2026年5月1日10:47
CVSS3.0 : 重要
スコア 7.8
ベクター CVSS:3.0/AV:L/AC:L/PR:N/UI:R/S:U/C:H/I:H/A:H
影響を受けるシステム
ggml.ai
llama.cpp b7824 未満
CVE (情報セキュリティ 共通脆弱性識別子)
CWE (共通脆弱性タイプ一覧)
ベンダー情報
その他
変更履歴
No 変更内容 変更日
1 [2026年05月01日]
  掲載
2026年5月1日10:47