目前为定制大语言模型 ( LLM ) 以适应下游任务,广泛采用两种方法:微调 ( Fine-tuning ) 与上下文学习 ( In-context learning, ICL ) 。近期,Google DeepMind 与斯坦福大学的研究者探讨了这两种方法的泛化能力,他们发现上下文学习 ( ICL ) 具有更强的泛化能力(但这在推理时 ...