[文献阅读]——Prefix-Tuning: Optimizing Continuous Prompts for Generation前言任务介绍Prefix-Tuning实验其它
前言task-specific的Fine-tuning需要为一个下游任务保存一个模型(只fine-tune task-specific的网络,参数量也不是很多啊?),而本文提出的prefix-tuning为不同任务设置一个向量,插入到输入中,减少需要保存的参数。该问题的相关工作:fine-tuning:微调整个模型lightweight fine-tuning:选择一些参数(问题是选哪些)、或者插入一些层与层之间的参数来微调(ADAPTER)prompting:给输入插入一些触发词,来充分利用语