BERT(Bidirectional Encoder Representations from Transformers)是一种由 Google 在 2018 年提出的自然语言处理(NLP)模型,它在当时彻底改变了语言模型的设计思路。名字里的几个关键词已经透露了它的特点:**双向**(Bidirec...
一、LoRALoRA,英文全称`Low-Rank Adaptation of Large Language Models`,直译为大语言模型的`低阶适配`,是微软的研究人员为了解决大语言模型微调而开发的一项技术。例如,GPT-3有1750亿参数,为了让它能干特定领域的活儿,需要做微调,但是如果直接...