LoRAは2021年に発表された論文"LoRA: Low-Rank Adaptation of Large Language Models"引用:https://arxiv.org/abs/2106.09685
で登場した学習の軽量化手法です。一般的にLoRAは学習済みモデルに特定のタスクに特化させる学習であるファインチューニングを行う際に使用される技術になります。一般的な学習手法では重みの更新は以下の式で行われます。Wnew=Wold+δW 重み行列のサイズがd×dであるならば、更新量もd×dの計算が必要になります。これに対し、LoRAでは以下の式で更新を行います。Wnew=Wold+AB LoRAでは学習時の重み行列の更新に二つの低ランク行列A,Bを使用することで計算量を削減します。低ランク行列Aの行列サイズはd×rで、Bの行列サイズはr×dとなり、この時の計算量は2×d×rになり、d>>rならば計算量を大幅に削減できます。