Quantized model memory estimator
Hugging Face Hub APIから取得したsafetensorsの情報をもとに、llama.cppで量子化を行ったモデルの動作に必要なGPUメモリサイズを概算(GB単位)で計算します。
モデル名 (例: meta-llama/Llama-3.3-70B-Instruct)
Clear
Submit
output
Share via Link