模型:
declare-lab/flan-alpaca-xxl
任务:
许可:
?我们通过对Flan收集的数据在Vicuna-13B上进行精调来开发Flacuna。Flacuna在解决问题方面优于Vicuna。在此处访问该模型: https://huggingface.co/declare-lab/flacuna-13b-v1.0 。
?对于大规模LLM评估基准——InstructEval,您想了解? ? Flan-Alpaca的表现吗?阅读我们的论文: https://arxiv.org/pdf/2306.04757.pdf 。我们评估了超过10个开源指令调优LLM,包括Pythia、LLaMA、T5、UL2、OPT和Mosaic等不同的LLM系列。代码和数据集: https://github.com/declare-lab/instruct-eval 。
?FLAN-T5在文本转音频生成方面也很有用。如果您感兴趣,可以在此处找到我们的工作: https://github.com/declare-lab/tango 。
我们的 repository 包含将 Stanford Alpaca 合成指令调优扩展到现有指令调优模型(如 Flan-T5 )的代码。我们要感谢 Joao Gante 的贡献!我们还在 declare-lab/flan-eval 上对许多指令调优模型进行基准测试。我们的预训练模型在HuggingFace ?上完全可用:
Model | Parameters | Instruction Data | Training GPUs |
---|---|---|---|
12311321 | 220M | 12312321 , 12313321 | 1x A6000 |
12314321 | 770M | 12312321 , 12313321 | 1x A6000 |
12317321 | 3B | 12312321 , 12313321 | 1x A6000 |
12320321 | 11B | 12312321 , 12313321 | 4x A6000 (FSDP) |
12323321 | 3B | 12312321 , 12325321 | 1x A6000 |
12326321 | 3B | 12312321 , 12328321 / 12329321 | 1x A6000 |
12330321 | 3B | 12312321 , 12332321 | 1x A6000 |
*推荐以获得更好的性能
Alpaca 代表了一种令人兴奋的新方向,可以便宜、简便地近似大型语言模型(LLMs)如ChatGPT的性能。具体而言,它们利用像GPT-3这样的LLM生成指令作为合成训练数据。这些涵盖了超过50,000个任务的合成数据可以用于微调较小的模型。然而,由于底层 LLaMA 模型的许可限制,原始实现不太可访问。此外,用户已经注意到 potential noise 在合成数据集中存在。因此,探索一个已经在高质量(但不太多样化)指令上训练的完全可访问的模型如 Flan-T5 可能更好。
from transformers import pipeline prompt = "Write an email about an alpaca that likes flan" model = pipeline(model="declare-lab/flan-alpaca-gpt4-xl") model(prompt, max_length=128, do_sample=True) # Dear AlpacaFriend, # My name is Alpaca and I'm 10 years old. # I'm excited to announce that I'm a big fan of flan! # We like to eat it as a snack and I believe that it can help with our overall growth. # I'd love to hear your feedback on this idea. # Have a great day! # Best, AL Paca