模型:
ethzanalytics/gpt-j-6B-8bit-sharded
这是适用于低RAM加载的版本 hivemind/gpt-j-6B-8bit ,即适用于免费的Colab运行时 :)
请参考 original model card for hivemind/gpt-j-6B-8bit 了解所有细节。
注意:在加载模型之前,您需要对其进行“patch”,以使其与加载8位权重等兼容。有关如何执行此操作的详细信息,请参阅上述原始模型卡片。
安装 transformers 、 accelerate 和 bitsandbytes (如果需要):
pip install transformers accelerate bitsandbytes
对模型进行"patch",使用 device_map="auto" 进行加载:
import transformers
from transformers import AutoTokenizer
"""
CODE TO PATCH GPTJForCausalLM GOES HERE
"""
tokenizer = AutoTokenizer.from_pretrained("ethzanalytics/gpt-j-6B-8bit-sharded")
model = GPTJForCausalLM.from_pretrained(
"ethzanalytics/gpt-j-6B-8bit-sharded",
device_map="auto",
)
详细信息请参考笔记本。