RLHF / Human-in-the-loop

OpenAIが、深いドメイン知識を持つエキスパートを広く募集しています。

OpenAI AI Domain Expert Interest Form

Reinforcement Learning from Human Feedback (RLHF):
モデルが生成した出力に対して人間が「より望ましい」「あまり望ましくない」といったフィードバックを与え、そのフィードバックをもとに報酬関数を調整・最適化していくアプローチ。

Human-in-the-loop:
モデルだけでなく人間が随時ラベルづけや評価に関与することで、システムの性能を高める枠組みを指す。