毕业生职位分类案例研究

Clavié等人(2023)提供了一项关于提示工程应用于生产系统中中等规模文本分类用例的案例研究。通过使用将工作分类为真正的“初级职位”(是否适合应届毕业生的任务),他们评估了一系列提示工程技术,并使用GPT-3.5 (gpt-3.5-turbo)报告了他们的结果。

该研究表明,LLMs在所有经过测试的模型中表现最佳,包括DeBERTa-V3中的一个极强的基准模型。gpt-3.5-turbo在所有关键指标上也明显优于早期的GPT3变体,但需要进行额外的输出解析,因为其遵循模板的能力似乎不如其他变体。

他们的提示工程方法的关键发现是:

  • 对于像这样不需要专业知识的任务,Few-shot CoT提示在所有实验中的表现都不如Zero-shot提示。
  • 提示对于引导正确推理的影响非常巨大。简单地要求模型对给定的工作进行分类会得到65.6的F1分数,而后提示工程模型的F1分数为91.7。
  • 试图强制模型遵循模板会降低所有情况下的性能(这种行为在GPT-4的早期测试中消失,这项测试在该论文之后进行)。
  • 许多小的修改对性能产生了巨大的影响。
    • 下面的表格显示了所有经过测试的修改。
    • 正确地给出指令并重复关键点似乎是最有效的提升性能的方法。
    • 简单地给模型一个(人类的)名字并这样称呼它,可以将F1分数提高0.6个百分点。

经本文测试的 Prompt策略

Short nameDescription
Baseline提供一个职位招聘信息并询问它是否适合毕业生。
CoT在查询之前给出几个准确分类的示例。
Zero-CoT要求模型一步步推理后再给出答案。
rawinst通过添加到用户消息中, 来给出有关其角色和任务的说明。
sysinst作为系统消息给出有关其角色和任务的说明。
bothinst将角色作为系统消息和任务作为用户消息拆分说明。
mock通过模拟讨论来给出任务说明,其中模型确认了它们。
reit通过重复强调关键要素来加强说明。
strict要求模型严格按照给定模板回答。
loose要求仅根据给定模板给出最终答案。
right要求模型得出正确的结论。
info提供额外的信息以解决常见的推理失败。
name为模型取一个我们在对话中称呼它的名称。
pos在查询之前向模型提供正面反馈。

所有Prompt性能策略对性能的影响

PrecisionRecallF1Template Stickiness
Baseline61.270.665.679%
CoT72.685.178.487%
Zero-CoT75.588.381.465%
+rawinst8092.485.868%
+sysinst77.790.983.869%
+bothinst81.993.987.571%
+bothinst+mock83.395.188.874%
+bothinst+mock+reit83.895.589.375%
+bothinst+mock+reit+strict79.993.786.398%
+bothinst+mock+reit+loose80.594.887.195%
+bothinst+mock+reit+right8495.989.677%
+bothinst+mock+reit+right+info84.996.590.377%
+bothinst+mock+reit+right+info+name85.796.890.979%
+bothinst+mock+reit+right+info+name+pos86.99791.781%

“Template stickiness” 指的是模型多频繁地按照所期望的格式作答。


评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注