LinkedInは、次世代のレコメンダーシステムにおいて、プロンプトエンジニアリングを回避し、代わりに小規模で高度に洗練されたモデルを中心とした戦略を採用したと、LinkedInの製品エンジニアリング担当VPであるErran Berger氏が語りました。Beyond the Pilotポッドキャストで、Berger氏は、AIモデルを誘導するために特定のテキスト入力を工夫するプロンプトエンジニアリングという手法は、望ましいレベルの精度、レイテンシ、効率を達成するには不適切であると判断されたと説明しました。
代わりに、LinkedInのAIチームは、70億パラメータのモデルを微調整するための詳細な製品ポリシー文書を作成し、その後、数億パラメータを持つより小さな教師モデルと生徒モデルに蒸留しました。このマルチ教師蒸留アプローチは画期的なものであり、LinkedInのAI製品スイート全体で利用される再現可能なプロセスを生み出しました。
プロンプトから離れるという同社の決定は、AI開発におけるトレンドの高まり、つまり特定のタスクに合わせた特殊で効率的なモデルの追求を浮き彫りにしています。大規模言語モデル(LLM)はその汎用性で注目を集めていますが、LinkedInの経験は、特に速度と精度が最重要視される特定のアプリケーションにおいて、より小さく、微調整されたモデルが優れたパフォーマンスを提供できることを示唆しています。
Berger氏は、このアプローチによる大幅な品質向上を強調しました。「この評価プロセスをエンドツーエンドで採用することで、LinkedInでここ数年見られなかったような大幅な品質向上が実現するでしょう」と述べました。
LinkedInは15年以上にわたりAIレコメンダーシステムを開発しており、この分野のリーダーとしての地位を確立しています。同社のレコメンダーシステムは、求職者を関連性の高い機会と結びつけ、プロフェッショナルがネットワークを構築する上で重要な役割を果たしています。この新しいアプローチは、プラットフォームがパーソナライズされた効果的な推奨を提供するための能力をさらに強化することを目的としています。
これらのより小さく、より効率的なモデルの開発は、AIの状況に広範な影響を与えます。それは、AIの未来には、大規模な汎用モデルと、連携して動作するより小さく、特殊なモデルの組み合わせが含まれる可能性があることを示唆しています。このアプローチは、より持続可能でスケーラブルなAIソリューションにつながり、展開に必要な計算リソースを削減できます。
AIが進化し続けるにつれて、LinkedInの経験は、次世代AIシステムの構築における課題と機会に関する貴重な洞察を提供します。効率と精度に対する同社の焦点は、汎用モデルだけに頼るのではなく、特定のニーズに合わせてAIソリューションを調整することの重要性を強調しています。LinkedInが開発した再現可能なクックブックは、現在、同社のAI製品全体で再利用されています。
Discussion
Join the conversation
Be the first to comment