Words
【言葉】
★MoE (Mixture of Experts)
【意味】
★活性化させるAIアーキテクチャです。
目的: 大規模なモデルであっても、入力ごとに必要な専門家だけを使うため、計算効率を維持しつつ高い性能を実現します。
利点: 限られた計算リソースで、多様なタスクに対応できるスケーラビリティを提供します。
【出会いのきっかけ】
★とあるセミナーにて
【その他】
★
