chatgpt和instruct GPT是同源的,是一种指令式的命令,
简单来说就是先通过人工的标注方式来训练出一一种强化学习的冷启动模型和reward反馈模型。
然后再通过强化学习的模式来学习出对话友好的chatGPT。
从GPT-3的输入语句数据集中采样部分输入,然后再用人工标注来完成输出结果和行为,之后再对GPT-3进行有监督的训练,这就是指令式GPT的冷启动模型。
在采样的输入语句里面,前向推理就可以获得很多歌模型输出结果,然后再通过人工标注的行为来对这些输出的结果进行各种排序和打标,这些数据就是用来训练成为reward反馈模型。
采样一些新的输入语句,在用policy策略网络生成输出结果,通过反馈模型来计算反馈,之后再用作policy策略网络。