Words

【言葉】

★MoE (Mixture of Experts)

【意味】

★活性化させるAIアーキテクチャです。
目的: 大規模なモデルであっても、入力ごとに必要な専門家だけを使うため、計算効率を維持しつつ高い性能を実現します。
利点: 限られた計算リソースで、多様なタスクに対応できるスケーラビリティを提供します。

【出会いのきっかけ】

★とあるセミナーにて

【その他】

タイトルとURLをコピーしました