英文

? ? 冷饮翻译羊驼:人类和机器指令调整

?我们通过在Flan集合上对Vicuna-13B进行微调,开发了Flacuna。Flacuna在解决问题方面比Vicuna更好。在此处访问模型 https://huggingface.co/declare-lab/flacuna-13b-v1.0

?想了解? ? 冷饮翻译羊驼在大规模LLM评估基准InstructEval上的性能吗?阅读我们的论文 https://arxiv.org/pdf/2306.04757.pdf 。我们评估了超过10个开源指令调整的LLM,包括Pythia、LLaMA、T5、UL2、OPT和Mosaic。代码和数据集: https://github.com/declare-lab/instruct-eval

?FLAN-T5在文本到音频生成方面也很有用。如果你感兴趣,请在 https://github.com/declare-lab/tango 找到我们的工作。

我们的 repository 包含了将 Stanford Alpaca 的合成指令调整扩展到现有的指令调整模型(如 Flan-T5 )的代码。我们要感谢 Joao Gante !我们还在 declare-lab/flan-eval 处对许多指令调整模型进行基准测试。我们预训练模型在HuggingFace上完全可用?:

Model Parameters Instruction Data Training GPUs
12311321 220M 12312321 , 12313321 1x A6000
12314321 770M 12312321 , 12313321 1x A6000
12317321 3B 12312321 , 12313321 1x A6000
12320321 11B 12312321 , 12313321 4x A6000 (FSDP)
12323321 3B 12312321 , 12325321 1x A6000
12326321 3B 12312321 , 12328321 / 12329321 1x A6000
12330321 3B 12312321 , 12332321 1x A6000

*建议为了更好的性能

为什么?

Alpaca 代表了一种新的令人激动的方向,可以廉价而简单地近似大型语言模型(LLMs)如ChatGPT的性能。具体而言,它们利用类似GPT-3的LLM生成指令作为合成的训练数据。这些合成数据涵盖了50,000多个任务,然后可以用于微调较小的模型。然而,原始的实现由于底层 LLaMA 模型的许可限制而不太易于访问。此外,用户已经注意到 potential noise 在合成数据集中存在问题。因此,探索一个已经在高质量(但不太多样化)指令上训练的完全可访问的模型,如 Flan-T5 ,可能会更好。

使用方法

from transformers import pipeline

prompt = "Write an email about an alpaca that likes flan"
model = pipeline(model="declare-lab/flan-alpaca-gpt4-xl")
model(prompt, max_length=128, do_sample=True)

# Dear AlpacaFriend,
# My name is Alpaca and I'm 10 years old.
# I'm excited to announce that I'm a big fan of flan!
# We like to eat it as a snack and I believe that it can help with our overall growth.
# I'd love to hear your feedback on this idea. 
# Have a great day! 
# Best, AL Paca