Оценивание методом наименьших квадратов параметров неэлементарных линейных регрессий с равномерно квантованными объясняющими переменными
- Авторы: Базилевский М.П.1
-
Учреждения:
- Иркутский государственный университет путей сообщения
- Выпуск: № 4 (2024)
- Страницы: 46-56
- Раздел: Математическое моделирование и его применение в научных исследованиях
- URL: https://journal-vniispk.ru/2413-0133/article/view/280578
- DOI: https://doi.org/10.25729/ESI.2024.36.4.005
- ID: 280578
Цитировать
Полный текст
Аннотация
Статья посвящена разработке новой структурной спецификации регрессионных моделей. Ранее автором были введены в рассмотрение неэлементарные линейные регрессии, в которых объясняющие переменные преобразуются с помощью таких неэлементарных операций, как минимум, максимум и модуль. В данной статье для преобразования объясняющих переменных в регрессионной модели предлагается использовать операции округления их значений до ближайшего целого числа в меньшую сторону (пол) или в большую сторону (потолок). В математике и цифровой обработке сигналов такой процесс преобразования называется квантованием. Рассмотрен известный равномерный квантователь с границей округления 0,5. Предложена неэлементарная линейная регрессия с квантованными объясняющими переменными. Определены области возможных значений шагов квантования для модели с одной объясняющей переменной. На основе этого разработан алгоритм приближенного оценивания с помощью метода наименьших квадратов параметров предложенной структурной спецификации. С использованием искусственно сгенерированных статистических данных в пакете Gretl проведены вычислительные эксперименты, подтвердившие корректность приведенных математических рассуждений. Все полученные в ходе экспериментов неэлементарные линейные регрессии с квантованными переменными оказались адекватнее классических линейных регрессий.
Полный текст
Введение. Для выявления скрытых знаний в статистических данных в настоящее время весьма эффективны методы регрессионного анализа [1]. Эта область машинного обучения активно развивается в последние годы и не ограничивается только лишь оцениванием параметров, известных широкому кругу специалистов линейных регрессионных моделей методом наименьших квадратов (МНК). Так, например, в [2] предложен подход к построению нечетких регрессионных моделей, в [3] разработан эффективный алгоритм динамического оценивания параметров регрессий с помощью метода наименьших модулей, в [4] предложен метод, устойчивый к наличию экстремальной стационарной координатной помехи, в [5] сформулирован алгоритм оценки модели полиномиальной логит-регрессии.
Реальные статистические зависимости между выходной и входными переменными редко носят линейный характер, поэтому актуальной задачей является поиск новых, вполне интерпретируемых нелинейных математических форм связи между исследуемыми факторами. Такие формы иначе называют структурными спецификациями регрессионных моделей. Среди таких новых спецификаций хотелось бы выделить неэлементарные линейные регрессии [6], содержащие в уравнении модели бинарные операции min и max. Позднее эти регрессии были обобщены [7] с использованием тернарных, кватернарных, …, l-aрных операций min и max. Частным случаем такой спецификации можно считать производственную функцию Леонтьева. В [8] введены модульные линейные регрессии, в которых объясняющие переменные преобразуются с помощью операции модуль, и предложен алгоритм точного оценивания их параметров методом наименьших модулей, а в [9] – алгоритм приближенного МНК-оценивания.
Операции min, max и модуль носят дискретный характер. К ним же относится операция «антье» – целая часть вещественного числа . Цель данной статьи состоит в создании новой спецификации регрессионных моделей, включающей операции «антье», а также алгоритма оценивания её параметров с помощью МНК.
1. Регрессии с квантованными объясняющими переменными. Впервые операцию ввёл К. Ф. Гаусс более 200 лет назад. Как отмечено в [10], эта операция округляет до ближайшего целого числа в меньшую сторону. Например, , , . Операции округления до ближайшего целого в большую сторону не существовало, пока в начале 60-х годов К. Э. Айверсон [11] не ввел названия «пол» (floor) и «потолок» (ceiling). Эти операции обозначаются и соответственно и строго определяются по следующим правилам:
, .
Таким образом, операция пол – округление до ближайшего целого числа в меньшую сторону, т.е. , а операция потолок – округление в большую сторону. Подробное описание свойств этих функций можно найти в работах [10, 12].
В этой связи функция округления до ближайшего целого числа может быть записана в виде:
(1)
Например, , .
Обобщением функции (1) является так называемый равномерный квантователь (quantizer):
(2)
где – шаг квантования.
Тот же самый квантователь (2) можно записать через операцию потолок:
.
Квантование в математике и цифровой обработке сигналов [13, 14] – процесс преобразования входных значений в выходные в меньшем объеме. Разница между входным значением и его квантованным значением называется ошибкой квантования.
Графики квантователя (2) при и при на промежутке представлены на рис. 1 (а), (б).
Рис. 1. Графики функции (2)
Как видно по рис. 1, при расстояние между соседними квантованными значениями (уровнями) равно 1, а при соответственно 0,2. При ступенчатые графики на рис. 1 трансформируются в обычные прямые линии.
Функции (2) в настоящее время активно применяются при квантовании нейронных сетей (см., например, [15]). Интересная идея обсуждается в работе [16], в которой авторы предлагают следующее обобщение функции (2):
(3)
где – граница округления.
В [17] проведены теоретические исследования методов глубокого обучения нейронных сетей с использованием квантователя (2).
Используя квантователь (3), введем в рассмотрение неэлементарные линейные регрессии (НЛР) с квантованными объясняющими переменными:
(4)
где – наблюдаемое значение выходной переменной под номером ; – наблюдаемое значение входной переменной под номером ; – общее количество наблюдаемых значений; – общее количество входных переменных; , – неизвестные параметры; – неизвестный шаг квантования входной переменной ; – неизвестная граница округления входной переменной ; – ошибка аппроксимации в i-м наблюдении.
Модель (4), как и все известные НЛР, относится к нелинейным по оцениваемым параметрам. Несколько упростим её. Будем рассматривать НЛР (4) с границами округления , , т.е. НЛР, в которой квантование переменных подразумевает округление до ближайшего целого значения:
, (5)
Шаги квантования , в НЛР (5) по определению положительны. Определимся с областью возможных значений шагов квантования. Сделаем это сначала для модели с одной объясняющей переменной вида:
, . (6)
Если в НЛР (6) операция будет принимать одно и то же значение для любого наблюдения , то из-за вхождения в модель свободного члена возникнет совершенная мультиколлинеарность, из-за которой становится невозможно единственным образом идентифицировать МНК-оценки. Определим возможные значения шага квантования , при которых в регрессии (6) возникает совершенная мультиколлинеарность. Известно [10], что пол тогда и только тогда, когда
.
Тогда совершенная мультиколлинеарность в НЛР (6) возникает тогда, когда шаг квантования удовлетворяет системе линейных неравенст
, , , . (7)
Пусть переменная принимает как положительные, так и отрицательные значения. Очевидно, что при бесконечно больших значениях шага квантования , операция будет равна нулю для любого . Определим, начиная с какого значения это будет происходить. Для этого подставим в систему (7) . Получим
, , . (8)
Очевидно, что всегда найдется число такое, что множество решений системы (8) не пусто. Из (8) следует, что операция в любом наблюдении обращается в нуль, если
(9)
Заметим, что неравенство (9) справедливо тогда, когда в операции сработала компонента с положительным наблюдением переменной , иначе строгий знак неравенства в (9) нужно заменить на нестрогий.
Таким образом, верхнее ограничение на шаг квантования для НЛР (6), как следует из вышесказанного, имеет вид
или .
Далее будем использовать только первое неравенство с нестрогим знаком.
К сожалению, внутри промежутка могут быть точки, удовлетворяющие системе (7), т.е. точки, в которых в модели (6) возникает совершенная мультиколлинеарность. Рассмотрим возможные случаи.
Случай № 1. Среди значений переменной есть как положительные, так и отрицательные. В таком случае множество решений системы (7) пусто для любого , поэтому внутри промежутка отсутствуют точки с совершенной мультиколлинеарностью. Сюда же можно отнести случай, когда среди значений переменной есть хотя бы 1 нуль.
Случай № 2. Все значения переменной положительны. В этом случае система (7) может иметь решения при , которые можно записать в виде:
, , . (10)
Поэтому из промежутка нужно исключить точки, удовлетворяющие ограничениям (10).
Случай № 3. Все значения переменной отрицательны. В этом случае система (7) при может иметь следующие решения:
, , . (11)
Следовательно, из промежутка нужно исключить точки, удовлетворяющие ограничениям (11).
В зависимости от конкретной ситуации, исходя из вышеуказанного, можно определить область возможных значений шага квантования в модели (6). Тогда для любой точки из этой области легко вычисляются МНК-оценки параметров и регрессии. Поэтому, взяв некоторое количество точек из области возможных значений параметра , оценив в каждой из них линейную относительно параметров и модель, и выбрав регрессию с минимальной величиной суммы квадратов ошибок, получим близкие к оптимальным оценки НЛР (6). Мера такой близости зависит от величины шага разбиения области значений параметра : чем меньше шаг, тем ближе оценки к оптимальным, но тем выше вычислительная сложность задачи. Таким образом, на основании вышеизложенного можно сформулировать следующий алгоритм приближенного МНК-оценивания параметров НЛР (5).
Шаг 1. Сформировать области возможных значений шагов квантования входных переменных. При этом:
- если среди значений j-й переменной есть как положительные, так и отрицательные, либо хотя бы одно нулевое значение, то область имеет вид
; (12)
- если все значения j-й переменной положительны, то ограничение (12) требуется дополнить условиями
, , ; (13)
- если все значения j-й переменной отрицательны, то ограничение (12) следует дополнить условиями
, , .
Шаг 2. Выбрать в каждой области некоторое количество точек.
Шаг 3. Используя выбранные точки вместо шагов квантования переменных в (5), оценить с помощью МНК параметры всех возможных линейных регрессий (5).
Шаг 4. Выбрать лучшую модель, например, по величине коэффициента детерминации .
2. Вычислительные эксперименты. Вычислительные эксперименты проводились с использованием искусственно сгенерированных статистических данных, представленных в первых трех столбцах таблицы 1. Для оценивания параметров НЛР по предложенному алгоритму в эконометрическом пакете Gretl был написан специальный скрипт на языке hansl. При этом для округления значений использована встроенная функция floor.
Таблица 1. Статистические данные
y | x1 | x2 | ||||
2,61 | 7,1 | 6,33 | 7,8 | 8,1 | 7,2 | 6,3 |
12,96 | 7,3 | 15,145 | 7,8 | 16,2 | 7,2 | 14,7 |
4,15 | 4,8 | 9,462 | 5,2 | 8,1 | 3,6 | 10,5 |
13,79 | 7,1 | 11,902 | 7,8 | 12,15 | 7,2 | 12,6 |
8,55 | 5,9 | 9,523 | 5,2 | 8,1 | 7,2 | 10,5 |
5,11 | 5,3 | 12,636 | 5,2 | 12,15 | 3,6 | 12,6 |
14,26 | 11,3 | 10,375 | 10,4 | 12,15 | 10,8 | 10,5 |
1,27 | 2,9 | 6,016 | 2,6 | 4,05 | 3,6 | 6,3 |
6,34 | 8,3 | 6,117 | 7,8 | 8,1 | 7,2 | 6,3 |
14,33 | 6,6 | 14,366 | 7,8 | 16,2 | 7,2 | 14,7 |
Эксперимент № 1. Сначала по этим данным с помощью МНК была построена парная линейная регрессия вида:
, (14)
для которой .
Затем с помощью разработанного алгоритма оценивались параметры НЛР (6) с квантованной переменной . Поскольку все значения этой переменной положительны, то на первом шаге алгоритма область возможных значений шага квантования определялась из неравенств (12), (13). Перебирая различные комбинации переменной в (13), оказалось, что эта система неравенств решений не имеет. Тогда область возможных значений шага квантования
. (15)
На втором шаге алгоритма на промежутке (15) равномерно были выбраны точки (начальное значение – 0,01, шаг – 0,01). На третьем шаге с помощью МНК оценивались параметры уже линейных регрессий (6). На рис. 2 представлен график зависимости полученных коэффициентов детерминации оцененных регрессий от шага квантования . Заметим, что промежуток (15) был взят несколько шире.
Рис. 2. Зависимость R2 от k1
По рис. 2 видно, что когда шаг квантования мал, то коэффициент детерминации НЛР (6) близок к коэффициенту линейной регрессии (14). На промежутке частота изменения очень высока, а, начиная со значения 2,4, она постепенно снижается. Амплитуда же, наоборот, сначала низкая, а потом постепенно разрастается. При коэффициент детерминации равен 0, поскольку возникает совершенная мультиколлинеарность. Ни в каких других точках он в нуль не обращается. Полученные результаты подтверждают корректность вышеописанных математических рассуждений. Своё наибольшее значение 0,49021 коэффициент достигает на промежутке . При НЛР (6) имеет вид:
.
Значения квантователя представлены в четвертом столбце табл. 1. Тем самым, при квантовании переменной удалось повысить качество линейной регрессии (14) по коэффициенту детерминации с 0,3994 до 0,49021.
Эксперимент № 2. Аналогичным образом строились зависимости от . Оцененная с помощью МНК парная линейная регрессия имеет вид
, (16)
а её коэффициент .
Область возможных значений шага квантования также определялась из неравенств (12), (13). Но в этот раз оказалось, что система (13) имеет решения
, .
Поэтому область возможных значений шага квантования
. (17)
На промежутке (17) равномерно были выбраны точки (начальное значение – 0,01, шаг – 0,01). График зависимости полученных коэффициентов детерминации оцененных линейных регрессий от шага квантования представлен на рис. 3.
Рис. 3. Зависимость R2 от k2
По рис. 3 видно, что коэффициент детерминации оказался равен 0 в точках, не принадлежащих промежутку (17). Полученные результаты вновь согласуются с описанной выше математической теорией. Своё наибольшее значение 0,66779 коэффициент достигает на промежутке . При НЛР имеет вид:
.
Значения квантователя представлены в пятом столбце табл. 1. Тем самым, при квантовании переменной удалось повысить качество линейной регрессии (16) по коэффициенту детерминации с 0,5358 до 0,6678.
Эксперимент № 3. Строились зависимости от и . Сначала была получена модель множественной линейной регрессии вида:
, (18)
для которой .
Для построения НЛР (5) с квантованными переменными и были использованы те же области возможных шагов квантования (15) и (17). На этих промежутках равномерно были выбраны точки (начальное значение – 0,1, шаг – 0,1). Решив переборную задачу, была получена следующая НЛР:
,
для которой .
Значения квантователей и представлены в шестом и седьмом столбцах табл. 1. Как видно, при квантовании переменных и удалось повысить качество линейной регрессии (18) по коэффициенту детерминации с 0,811975 до 0,924549.
Заключение. В статье предложены и исследованы неэлементарные линейные регрессии с квантованными объясняющими переменными. Результаты исследований позволили разработать алгоритм приближенного МНК-оценивания параметров предложенных моделей. Применение разработанного алгоритма при обработке искусственно сгенерированных статистических данных показало, что при квантовании объясняющих переменных качество регрессионных моделей может ощутимо улучшаться.
К сожалению, разработанный и описанный в статье алгоритм не гарантирует нахождения оптимальных МНК-оценок и шагов квантования переменных в неэлементарной линейной регрессии. Однако области возможных значений неизвестных параметров удалось идентифицировать однозначно, поэтому при разбиении этих областей как можно большим количеством точек будет получаться решение, мало отличающееся от оптимального. Таким образом, разработанный в статье математический и алгоритмический аппарат можно успешно применять для решения реальных прикладных задач анализа данных в различных предметных областях. Для этого, в первую очередь, возникает необходимость в разработке вместо скрипта пакета Gretl специализированного программного обеспечения, имеющего интерфейс. Научный интерес вызывает проведение сравнительного анализа качества решения конкретных задач моделирования с использованием разработанных ранее неэлементарных линейных регрессий (с операциями минимум, максимум и модуль) и новых спецификаций (с операциями пол и потолок).
Об авторах
Михаил Павлович Базилевский
Иркутский государственный университет путей сообщения
Автор, ответственный за переписку.
Email: mik2178@yandex.ru
ORCID iD: 0000-0002-3253-5697
SPIN-код: 4347-5028
Доцент, к.т.н.
Россия, ИркутскСписок литературы
- Arkes J. Regression analysis: a practical introduction. London, Routledge, 2023, 412 p.
- Исмагилов И.И. Классификация регрессионных моделей и метод построения линейных нечётких регрессий / И.И. Исмагилов, Г. Алсаиед // Инновационная экономика: информация, аналитика, прогнозы, 2023. – № 2. – С. 130-138.
- Голованов А.А. Регрессионный анализ данных на основе метода наименьших модулей в динамических задачах оценивания / А.А. Голованов, А.Н. Тырсин // Заводская лаборатория. Диагностика материалов, 2023. – Т. 89. – № 5. – С. 71-80.
- Бочаров Д.А. Метод линейной регрессии, устойчивый к экстремальным стационарным помехам / Д.А. Бочаров // Сенсорные системы, 2020. – Т. 34. – № 1. – С. 44-56.
- Farghali R.A., Qasim M., Kibria B.G., Abonazel M.R. Generalized two-parameter estimators in the multinomial logit regression model: methods, simulation and application. Communications in statistics-simulation and computation, 2023, vol. 52, no. 7, pp. 3327-3342, doi: 10.1080/03610918.2021.1934023.
- Базилевский М.П. Метод построения неэлементарных линейных регрессий на основе аппарата математического программирования / М.П. Базилевский // Проблемы управления, 2022. – № 4. – С. 3-14.
- Базилевский М.П. Обобщение неэлементарных линейных регрессий / М.П. Базилевский // Моделирование и анализ данных, 2023. – Т. 13. – № 2. – С. 85-98.
- Базилевский М.П. Оценивание модульных линейных регрессионных моделей с помощью метода наименьших модулей / М.П. Базилевский, А.Б. Ойдопова // Вестник Пермского национального исследовательского политехнического университета. Электротехника, информационные технологии, системы управления, 2023. – № 45. – С. 130-146.
- Базилевский М.П. Программное обеспечение для оценивания модульных линейных регрессий / М.П. Базилевский // Информационные и математические технологии в науке и управлении, 2023. – № 3 (31). – С. 136-146.
- Грэхем Р. Конкретная математика. Основание информатики: пер. с англ. / Р. Грэхем, Д. Кнут, О. Паташник. – М.: Мир, 1998. – 703 с.
- Iverson K.E. A programming language. Proceedings of the May 1-3: Spring joint computer conference, 1962, pp. 345-351.
- Трапезников С.С. Целая и дробная часть числа / С.С. Трапезников, Г.С. Изергина // Краевая научно-практическая конференция «Прикладные и фундаментальные вопросы математики». – Пермь, 2014. – 30 с.
- Марьев А.А. Методы и устройства цифровой обработки сигналов. Дискретизация. Квантование. Цифровой анализ сигналов / А.А. Марьев. – Ростов-на-Дону – Таганрог: Изд-во ЮФУ, 2020. – 132 c.
- Малыгин И.Г. Высокоскоростной алгоритм передачи видеоинформации о чрезвычайных ситуациях на объектах транспорта / И.Г. Малыгин, О.А. Королев // Морские интеллектуальные технологии, 2021. – Т. 1. – № 1. – С. 64-70.
- Louizos C., Reisser M., Blankevoort T. et al. Relaxed quantization for discretized neural networks. arXiv preprint, 2018, available at: https://arxiv.org/pdf/1810.01875(accessed: 05/12/2024).
- Li Z., Guo C., Zhu Z. et al. Efficient adaptive activation rounding for post-training quantization. arXiv preprint, 2022, available at: https://arxiv.org/pdf/2208.11945 (accessed: 05/12/2024).
- Li H., De S., Xu Z. et al. Training quantized nets: a deeper understanding. Advances in neural information processing systems, 2017, vol. 30, available at: https://proceedings.neurips.cc/paper/2017/file/1c303b0eed3133200cf715285011b4e4-Paper.pdf (accessed: 05/12/2024.
