Полиномиальная регрессия - Polynomial regression

В статистика, полиномиальная регрессия это форма регрессивный анализ в котором отношения между независимая переменная Икс и зависимая переменная у моделируется как пя степень многочлен в Икс. Полиномиальная регрессия соответствует нелинейной зависимости между значением Икс и соответствующие условное среднее из у, обозначим E (у |Икс). Несмотря на то что полиномиальная регрессия соответствует нелинейной модели к данным, как статистическая оценка Задача является линейной в том смысле, что функция регрессии E (у | Икс) линейно относительно неизвестного параметры которые оцениваются из данные. По этой причине полиномиальная регрессия считается частным случаем множественная линейная регрессия.

Объясняющие (независимые) переменные, полученные в результате полиномиального разложения «базовых» переменных, известны как члены более высокой степени. Такие переменные также используются в классификация настройки.[1]

История

Модели полиномиальной регрессии обычно подбираются с использованием метода наименьших квадратов. Метод наименьших квадратов минимизирует отклонение из беспристрастный оценщики коэффициентов, в условиях Теорема Гаусса – Маркова. Метод наименьших квадратов был опубликован в 1805 г. Legendre а в 1809 г. Гаусс. Первый дизайн из эксперимент для полиномиальной регрессии появилась в статье 1815 г. Gergonne.[2][3] В двадцатом веке полиномиальная регрессия сыграла важную роль в развитии регрессивный анализ, с большим упором на вопросы дизайн и вывод.[4] В последнее время использование полиномиальных моделей было дополнено другими методами, причем неполиномиальные модели имели преимущества для некоторых классов задач.[нужна цитата ]

Определение и пример

Кубическая полиномиальная регрессия соответствует моделированному набору данных. В группа уверенности - это 95% одновременный доверительный интервал, построенный с использованием Шеффе подход.

Цель регрессионного анализа - моделировать ожидаемое значение зависимой переменной. у в терминах значения независимой переменной (или вектора независимых переменных) Икс. В простой линейной регрессии модель

, где ε - ненаблюдаемая случайная ошибка со средним нулем, обусловленная скаляр Переменная Икс. В этой модели для каждой единицы увеличивается значение Икс, условное ожидание у увеличивается на β1 единицы.

Во многих случаях такая линейная зависимость может не соблюдаться. Например, если мы моделируем выход химического синтеза с точки зрения температуры, при которой происходит синтез, мы можем обнаружить, что выход улучшается за счет увеличения количества на каждую единицу увеличения температуры. В этом случае мы могли бы предложить квадратичную модель вида

В этой модели при повышении температуры от Икс к Икс +1 ед., Ожидаемая доходность изменится на (Это можно увидеть, заменив Икс в этом уравнении с Икс+1 и вычитая уравнение в Икс из уравнения в Икс+1.) Для бесконечно малый изменения в Икс, влияние на у дается полная производная относительно Икс: Тот факт, что изменение урожайности зависит от Икс это то, что делает отношения между Икс и у нелинейная, даже если модель линейна по параметрам, которые необходимо оценить.

В общем, мы можем смоделировать ожидаемое значение у как пполином степени, дающий общую модель полиномиальной регрессии

Удобно, что все эти модели линейны с точки зрения оценка, поскольку функция регрессии линейна по неизвестным параметрам β0, β1, .... Следовательно, для наименьших квадратов анализа, вычислительные и логические задачи полиномиальной регрессии могут быть полностью решены с использованием методов множественная регрессия. Это делается путем лечения ИксИкс2, ... как отдельные независимые переменные в модели множественной регрессии.

Форма матрицы и расчет сметы

Модель полиномиальной регрессии

может быть выражено в матричной форме через матрицу дизайна , вектор ответа , вектор параметров , а вектор случайных ошибок. В я-й ряд и будет содержать Икс и у ценность для я-й образец данных. Тогда модель можно записать в виде системы линейных уравнений:

который при использовании чисто матричных обозначений записывается как

Вектор оценочных коэффициентов полиномиальной регрессии (с использованием обыкновенный метод наименьших квадратов оценка ) является

предполагая м < п что требуется для того, чтобы матрица была обратимой; тогда с это Матрица Вандермонда, условие обратимости гарантированно выполняется, если все значения различны. Это единственное решение методом наименьших квадратов.

Интерпретация

Хотя полиномиальная регрессия технически является частным случаем множественной линейной регрессии, интерпретация подобранной модели полиномиальной регрессии требует несколько иной точки зрения. Часто бывает трудно интерпретировать отдельные коэффициенты при подборе полиномиальной регрессии, поскольку лежащие в основе мономы могут быть сильно коррелированы. Например, Икс и Икс2 имеют корреляцию около 0,97, когда x равно равномерно распределены на интервале (0, 1). Хотя корреляцию можно уменьшить, используя ортогональные многочлены, как правило, более информативно рассматривать подобранную функцию регрессии в целом. Точечно или одновременно полосы уверенности затем можно использовать, чтобы дать представление о неопределенности в оценке функции регрессии.

Альтернативные подходы

Полиномиальная регрессия - один из примеров регрессионного анализа с использованием базисные функции для моделирования функциональной связи между двумя величинами. В частности, он заменяет в линейной регрессии с полиномиальным базисом , например . Недостатком полиномиальных базисов является то, что базисные функции «нелокальны», что означает, что подобранное значение у по заданной стоимости Икс = Икс0 сильно зависит от значений данных с Икс далеко от Икс0.[5] В современной статистике полиномиальные базисные функции используются наряду с новыми базисные функции, Такие как шлицы, радиальные базисные функции, и вейвлеты. Эти семейства базисных функций подходят для многих типов данных более экономно.

Целью полиномиальной регрессии является моделирование нелинейной взаимосвязи между независимыми и зависимыми переменными (технически, между независимой переменной и условным средним зависимой переменной). Это похоже на цель непараметрическая регрессия, цель которого - захватить отношения нелинейной регрессии. Следовательно, подходы непараметрической регрессии, такие как сглаживание могут быть полезными альтернативами полиномиальной регрессии. Некоторые из этих методов используют локализованную форму классической полиномиальной регрессии.[6] Преимущество традиционной полиномиальной регрессии состоит в том, что можно использовать логическую схему множественной регрессии (это также справедливо при использовании других семейств базисных функций, таких как сплайны).

Последняя альтернатива - использовать ядровый такие модели как опорная векторная регрессия с полиномиальное ядро.

Если остатки имеют неравная дисперсия, а взвешенный метод наименьших квадратов Для этого можно использовать оценщик.[7]

Смотрите также

Примечания

  • Microsoft Excel использует полиномиальную регрессию при подгонке линии тренда к точкам данных на диаграмме разброса X Y.[8]

Рекомендации

  1. ^ Инь-Вэнь Чанг; Чо-Джуй Се; Кай-Вей Чанг; Майкл Ринггаард; Чи-Джен Линь (2010). «Обучение и тестирование полиномиальных отображений данных низкой степени с помощью линейной SVM». Журнал исследований в области машинного обучения. 11: 1471–1490.
  2. ^ Жергонн, Дж. Д. (Ноябрь 1974 г.) [1815 г.]. «Применение метода наименьших квадратов к интерполяции последовательностей». Historia Mathematica (Перевод Ральфа Сент-Джона и С. М. Стиглер из французского изд. 1815 г.). 1 (4): 439–447. Дои:10.1016/0315-0860(74)90034-2.
  3. ^ Стиглер, Стивен М. (Ноябрь 1974 г.). «Статья Жергонна 1815 года о дизайне и анализе экспериментов по полиномиальной регрессии». Historia Mathematica. 1 (4): 431–439. Дои:10.1016/0315-0860(74)90033-0.
  4. ^ Смит, Кирстин (1918). «О стандартных отклонениях скорректированных и интерполированных значений наблюдаемой полиномиальной функции и ее констант и их указаниях по правильному выбору распределения наблюдений». Биометрика. 12 (1/2): 1–85. Дои:10.2307/2331929. JSTOR  2331929.
  5. ^ Такое «нелокальное» поведение - свойство аналитические функции которые не постоянны (везде). Такое «нелокальное» поведение широко обсуждается в статистике:
    • Маги, Лонни (1998). «Нелокальное поведение в полиномиальных регрессиях». Американский статистик. 52 (1): 20–22. Дои:10.2307/2685560. JSTOR  2685560.
  6. ^ Фань, Цзяньцин (1996). Локальное полиномиальное моделирование и его приложения: от линейной регрессии к нелинейной регрессии. Монографии по статистике и прикладной теории вероятностей. Чепмен и Холл / CRC. ISBN  978-0-412-98321-4.
  7. ^ Conte, S.D .; Де Бур, К. (2018). Элементарный численный анализ: алгоритмический подход. Классика прикладной математики. Общество промышленной и прикладной математики (SIAM, 3600 Market Street, Floor 6, Philadelphia, PA 19104). п. 259. ISBN  978-1-61197-520-8. Получено 2020-08-28.
  8. ^ Стивенсон, Кристофер. «Учебное пособие: полиномиальная регрессия в Excel». facultystaff.richmond.edu. Получено 22 января 2017.

внешняя ссылка