Векторные авторегрессии в комплексной форме CVAR(p) имеют в два раза меньше коэффициентов, чем векторные авторегрессии действительных переменных VAR(p). Это позволяет строить векторные регрессии с векторами размерностью k=6 и выше. Так для моделирования шестимерного вектора с единичным лагом с помощью VAR(1) необходимо оценить 36 неизвестных коэффициентов, а с помощью CVAR(1) — всего 18! А поскольку оценивается меньшее количество коэффициентов, то они находятся точнее. И всегда для векторов этой и более высокой размерности CVAR(p) оказываются точнее VAR(p) как в аппроксимации, так и в прогнозировании.
Этот вывод подтверждён многочисленными практическими исследованиями как моих студентов, так и моими лично.
Но если вектор становится большим и k>14, то даже комплексная форма представления модели оказывается очень громоздкой. Уже при k>14 и лаге, равном единице, необходимо оценить 196 неизвестных коэффициентов при действительной форме и 98 при комплексной. 98 коэффициентов, конечно, оценить по статистическим данным проще, чем 196 неизвестных коэффициентов, но это всё равно очень сложно.
Поэтому векторные авторегрессии больших размерностей встречаются очень редко.
В очередной раз обратившись к решению проблемы мультиколлинеарности, я вдруг получил метод, позволяющий просто строить аддитивные модели любой размерности. Трансформировав этот метод применительно к векторным авторегрессиям, я вдруг обнаружил, что с его помощью можно построить модель авторегрессии с векторами любой размерности. О том, как это сделать, я написал статью и она только что опубликована в научном журнале: «Метод построения векторных авторегрессий любой сложности«.
В этой статье я показываю как просто можно построить векторную авторегрессию для вектора размерностью k=8 и лага p=10. Всего надо было оценить 648 неизвестных коэффициентов.
Легко!