В 70-х годах академик АН УССР Алексей Григорьевич Ивахненко опубликовал несколько интересных монографий. Одну из них, которую я хорошо запомнил, он опубликовал вместе с германским учёным Миллером.
Когда я писал кандидатскую диссертацию, я изучил много книг и статей, так или иначе связанных с темой моего исследования. Публикации Алексея Григорьевича с темой слабо коррелировали, поэтому предложения, изложенные в них, меня не заинтересовали, но часть этих идей я в работе показал.
В середине прошлого года я вспомнил о публикациях в связи с полиномом Колмогорова-Габора и решил освежить свои впечатления о них. И я был поражён целым рядом идей, высказанных Алексеем Григорьевичем, которые сегодня могут быть развиты и дать замечательные результаты, и которые остались не раскрытыми.
Первая идея очевидна — полином Колмогорова-Габора вполне может заменить собой нейронную сеть, поскольку в нём взаимосвязь между показателями и факторами не структурируется, как и в нейронных сетях. Первые исследования показали, что такая замена и возможна, и эффективна.
Второе положение развивает первое. К нейронным сетям невозможно применить байесовский подход — ни напрямую, ни накривую. А к полиному Колмогорова-Габора можно, в том числе и мой метод неравномерного сглаживания, который, по сути, является байесовским.
И третье положение. Изложенный А.Г. Ивахненко метод группового учёта аргументов (МГУА) может быть существенно упрощён. Тогда построение полинома становится простой задачей и полином может быть удобным и широко используемым инструментом исследования экономики.
Но то самое упрощение метода, которое мне удалось сделать (метод декомпозиции), применимо к решению задач построения аддитивных моделей любой сложности, например, при построении векторных авторегрессий VAR.
На практике в основном используют векторы небольшой размерности k — до 4 или 6, поскольку количество оцениваемых коэффициентов VAR равно квадрату этой размерности k2. А если ещё авторегрессия содержит лаги p, то количество оцениваемых коэффициентов становится равно pk2.
Поэтому вектора большой размерности в VAR практически не встречаются. Я видел статью японских учёных, у который в VAR размерность вектора была k=11. Но лаг был равен p=1. Это означает, что они оценивали 121 неизвестный коэффициент модели авторегрессии. Это максимальное количество коэффициентов VAR, которое я встречал.
Мне захотелось тут же проверить метод декомпозиции на практике, и я построил на примере Мосбиржи VAR с размерностью вектора k=8 и с лагом p=10. Легко посчитать, что эта модель содержит 640 неизвестных коэффициентов.
Верифицировал эту модель простыми авторегрессиями AR(10) и модель оказалась значимой.
Итак: есть мировой рекорд! А как подготовлю и опубликую статью, расскажу о методе более подробно.