通过结合以下的洞见,我在使用机器学习从解释性文本中生成优质的间隔重复卡片[1]中用 GPT-4 取得了成功,通常都能一次搞定:
- 对于卡片生成任务,选择要强化的目标概念,和为这些目标概念编写卡片,是两个独立的问题[2]。在这些例子里,我负责选择制卡对象(例如,通过指向更大篇幅中的短语),模型的任务是根据这些给定的目标,生成有用的卡片。
- 对于卡片生成任务,如果提供了编写卡片的原则,大型语言模型(LLM)的表现可能会有所提升[3];我提供了这些原则。
- 对于卡片生成任务,大型语言模型(LLM)经常需要额外的提示,来确定从何种角度制卡[4];我提供了这些提示。
- 对于卡片生成任务,如果提供了充足的上下文,大型语言模型(LLM)可能会表现得更好[5];我提供了上下文。
这对于简单的描写来说,效果相当好,但对于更概念化的材料来说就不行了:对于卡片生成任务,大型语言模型(LLM)缺乏为复杂概念材料编写卡片的模式[6]
一个提示词示例:20230614123022
链接至本文(已汉化)
声明
此内容发布由 Andy Matuschak 许可。未经允许,不得转载或修改。保留所有权利。
Thoughts Memo 汉化组译制
感谢主要译者 Jarrett Ye,校对偶然奇怪~ ☆
原文:GPT-4 can often generate usable spaced repetition prompts for declarative knowledge from explanatory text with guidance (andymatuschak.org)
参考
1. 使用机器学习从解释性文本中生成优质的间隔重复卡片 ./716570823.html2. 对于卡片生成任务,选择要强化的目标概念,和为这些目标概念编写卡片,是两个独立的问题 ./656354899.html
3. 对于卡片生成任务,如果提供了编写卡片的原则,大型语言模型(LLM)的表现可能会有所提升 ./644435843.html
4. 对于卡片生成任务,大型语言模型(LLM)经常需要额外的提示,来确定从何种角度制卡 ./644435780.html
5. 对于卡片生成任务,如果提供了充足的上下文,大型语言模型(LLM)可能会表现得更好 ./645670312.html
6. 对于卡片生成任务,大型语言模型(LLM)缺乏为复杂概念材料编写卡片的模式 ./656355546.html