Линейный метод наименьших квадратов - Linear least squares

Линейный метод наименьших квадратов (LLS) это приближение наименьших квадратов из линейные функции к данным.Это набор формулировок для решения статистических задач, связанных с линейная регрессия, включая варианты для обычный (невзвешенный), взвешенный, и обобщенный (коррелировано) остатки.Численные методы линейных наименьших квадратов включают в себя обращение матрицы нормальных уравнений и методы ортогональной декомпозиции.

Основные составы

Три основных линейных формулы наименьших квадратов:

  • Обычный метод наименьших квадратов (OLS) является наиболее распространенным оценщиком. Оценки OLS обычно используются для анализа как экспериментальный и наблюдательный данные.

    Метод OLS минимизирует сумму квадратов остатки, и приводит к выражению в замкнутой форме для оценочного значения неизвестного вектора параметров β:

    куда вектор, яй элемент - это я-е наблюдение зависимая переменная, и матрица, у которой ij элемент - это я-е наблюдение jth независимая переменная. (Примечание: это Обратное Мура – ​​Пенроуза.) Оценка беспристрастный и последовательный если ошибки имеют конечную дисперсию и не коррелируют с регрессорами:[1]

    куда это транспонирование строки я матрицы Это также эффективный в предположении, что ошибки имеют конечную дисперсию и равны гомоскедастический, что означает, что E [εя2|Икся] не зависит от я. Условие, что ошибки не коррелированы с регрессорами, обычно выполняется в эксперименте, но в случае данных наблюдений трудно исключить возможность пропущенной ковариаты. z это связано как с наблюдаемыми ковариатами, так и с переменной ответа. Существование такой ковариаты обычно приводит к корреляции между регрессорами и переменной отклика и, следовательно, к непоследовательной оценке β. Условие гомоскедастичности может быть нарушено экспериментальными или наблюдательными данными. Если целью является либо логический вывод, либо прогнозное моделирование, эффективность оценок МНК может быть низкой, если мультиколлинеарность присутствует, если размер выборки не велик.
  • Взвешенный метод наименьших квадратов (WLS) используются, когда гетероскедастичность присутствует в условиях ошибки модели.
  • Обобщенный метод наименьших квадратов (GLS) - это расширение метода OLS, позволяющее эффективно оценивать β когда либо гетероскедастичность, или корреляции, или и то, и другое присутствует среди членов ошибки модели, если форма гетероскедастичности и корреляции известна независимо от данных. Чтобы справиться с гетероскедастичностью, когда члены ошибки не коррелируют друг с другом, GLS минимизирует взвешенный аналог суммы квадратов остатков из регрессии OLS, где вес для яth case обратно пропорционален var (εя). Этот частный случай GLS называется «взвешенными наименьшими квадратами». Решение GLS для задачи оценки:
    куда Ω - ковариационная матрица ошибок. GLS можно рассматривать как применение линейного преобразования к данным, так что допущения OLS выполняются для преобразованных данных. Для применения GLS ковариационная структура ошибок должна быть известна с точностью до мультипликативной константы.

Альтернативные составы

Другие составы включают:

  • Метод наименьших квадратов с итеративным перевесом (IRLS) используется, когда гетероскедастичность, или корреляции, или и то, и другое присутствуют среди членов ошибки модели, но мало что известно о ковариационной структуре ошибок независимо от данных.[2] В первой итерации выполняется OLS или GLS с предварительной ковариационной структурой, а остатки получаются из подгонки. На основе остатков обычно можно получить улучшенную оценку ковариационной структуры ошибок. Затем выполняется последующая итерация GLS с использованием этой оценки структуры ошибок для определения весов. Процесс может быть повторен до сходимости, но во многих случаях достаточно только одной итерации, чтобы получить эффективную оценку β.[3][4]
  • Инструментальные переменные регрессия (IV) может быть выполнена, когда регрессоры коррелируют с ошибками. В этом случае нам потребуется наличие некоторого вспомогательного инструментальные переменные zя такое, что E [zяεя] = 0. Если Z - матрица инструментов, то в замкнутом виде оценку можно представить в виде
    Оптимальные инструменты регрессия - это расширение классической регрессии IV до ситуации, когда E [εя | zя] = 0.
  • Всего наименьших квадратов (TLS)[5] - это подход к оценке методом наименьших квадратов модели линейной регрессии, который обрабатывает ковариаты и переменную отклика более геометрически симметрично, чем OLS. Это один из подходов к решению проблемы «ошибок в переменных», который также иногда используется, даже когда предполагается, что ковариаты не содержат ошибок.

Кроме того, процент наименьших квадратов фокусируется на уменьшении процентных ошибок, что полезно в области прогнозирования или анализа временных рядов. Это также полезно в ситуациях, когда зависимая переменная имеет широкий диапазон без постоянной дисперсии, поскольку здесь будут преобладать большие остатки на верхнем конце диапазона, если бы использовалась OLS. Когда процентная или относительная ошибка распределена нормально, регрессия процента наименьших квадратов обеспечивает оценки максимального правдоподобия. Процентная регрессия связана с моделью мультипликативной ошибки, тогда как OLS связана с моделями, содержащими дополнительный член ошибки.[6]

В метод наименьших квадратов с ограничениями, нас интересует решение линейной задачи наименьших квадратов с дополнительным ограничением на решение.

Целевая функция

В OLS (т.е. при невзвешенных наблюдениях) оптимальное значение из целевая функция находится путем подстановки оптимального выражения для вектора коэффициентов:

куда , последнее равенство выполняется, поскольку симметричен и идемпотентен. Это видно из этого[7] что при соответствующем назначении весов ожидаемое значение из S является м − п. Если вместо этого предполагается использовать удельные веса, ожидаемое значение S является , куда - дисперсия каждого наблюдения.

Если предположить, что остатки принадлежат нормальному распределению, целевая функция, представляющая собой сумму взвешенных квадратов остатков, будет принадлежать хи-квадрат () распределение с м − п степени свободы. Некоторые иллюстративные процентильные значения приведены в следующей таблице.[8]

Эти значения можно использовать в качестве статистического критерия для степень соответствия. Когда используются единицы веса, числа следует разделить на дисперсию наблюдения.

Для WLS обычная целевая функция, приведенная выше, заменяется на средневзвешенное значение остатков.

Обсуждение

В статистика и математика, линейный метод наименьших квадратов это подход к установке математический или же статистическая модель к данные в случаях, когда идеализированное значение, предоставляемое моделью для любой точки данных, выражается линейно через неизвестные параметры модели. Полученную подобранную модель можно использовать для подвести итог данные, чтобы предсказывать ненаблюдаемые значения из той же системы, а также для понимания механизмов, которые могут лежать в основе системы.

Математически линейный метод наименьших квадратов - это проблема приближенного решения сверхдетерминированная система линейных уравнений А Икс = б, куда б не является элементом пространство столбца матрицы А. Приближенное решение реализуется как точное решение задачи А Икс = б ', куда б ' это проекция б на пространство столбцов А. Тогда наилучшим приближением является то, которое минимизирует сумму квадратов разностей между значениями данных и их соответствующими смоделированными значениями. Подход называется линейный методом наименьших квадратов, поскольку предполагаемая функция линейна по параметрам, подлежащим оценке. Задачи линейных наименьших квадратов выпуклый и иметь закрытое решение это является уникальным при условии, что количество точек данных, используемых для подгонки, равно или превышает количество неизвестных параметров, за исключением особых вырожденных ситуаций. В отличие, нелинейный метод наименьших квадратов проблемы обычно должны решаться итерационная процедура, и задачи могут быть невыпуклыми с множественными оптимумами для целевой функции. Если доступны предыдущие распределения, то даже недоопределенная система может быть решена с помощью Байесовская оценка MMSE.

В статистике линейные задачи наименьших квадратов соответствуют особенно важному типу статистическая модель называется линейная регрессия который возникает как особая форма регрессивный анализ. Одна из основных форм такой модели - это обыкновенный метод наименьших квадратов модель. Настоящая статья концентрируется на математических аспектах линейных задач наименьших квадратов с обсуждением формулировки и интерпретации моделей статистической регрессии и статистические выводы связанных с ними, которые рассматриваются в только что упомянутых статьях. Видеть схема регрессионного анализа для наброска темы.

Характеристики

Если экспериментальные ошибки, , некоррелированы, имеют нулевое среднее значение и постоянную дисперсию, , то Теорема Гаусса – Маркова утверждает, что оценка методом наименьших квадратов, , имеет минимальную дисперсию всех оценок, которые представляют собой линейные комбинации наблюдений. В этом смысле это лучшая или оптимальная оценка параметров. Обратите особое внимание на то, что это свойство не зависит от статистической функция распределения ошибок. Другими словами, функция распределения ошибок не обязательно должна быть нормальное распределение. Однако для некоторых распределений вероятностей нет никакой гарантии, что решение методом наименьших квадратов возможно даже с учетом наблюдений; тем не менее, в таких случаях это лучшая оценка, которая является одновременно линейной и несмещенной.

Например, легко показать, что среднее арифметическое набора измерений величины - это оценка значения этой величины методом наименьших квадратов. Если выполняются условия теоремы Гаусса – Маркова, среднее арифметическое является оптимальным, каким бы ни было распределение ошибок измерений.

Однако в случае, когда экспериментальные ошибки принадлежат нормальному распределению, оценка методом наименьших квадратов также является максимальная вероятность оценщик.[9]

Эти свойства лежат в основе использования метода наименьших квадратов для всех типов подгонки данных, даже если предположения не являются строго верными.

Ограничения

Предположение, лежащее в основе приведенного выше лечения, заключается в том, что независимая переменная, Икс, не содержит ошибок. На практике ошибки измерений независимой переменной обычно намного меньше, чем ошибки зависимой переменной, и поэтому ими можно пренебречь. Когда это не так, Всего наименьших квадратов или в более общем смысле модели ошибок в переменных, или же строгий метод наименьших квадратов, должен быть использован. Это можно сделать, настроив схему взвешивания с учетом ошибок как зависимых, так и независимых переменных, а затем следуя стандартной процедуре.[10][11]

В некоторых случаях (взвешенная) матрица нормальных уравнений ИксТИкс является плохо воспитанный. При подгонке полиномов матрица нормальных уравнений представляет собой Матрица Вандермонда. Матрицы Вандермонда становятся все более плохо обусловленными по мере увеличения порядка матрицы.[нужна цитата ] В этих случаях оценка методом наименьших квадратов усиливает шум измерения и может быть очень неточным.[нужна цитата ] Разные регуляризация в таких случаях могут применяться техники, наиболее распространенный из которых называется регресс гребня. Если известна дополнительная информация о параметрах, например, диапазон возможных значений , то для повышения стабильности решения можно использовать различные методы. Например, см. метод наименьших квадратов с ограничениями.

Еще один недостаток оценки методом наименьших квадратов заключается в том, что норма остатков, сводится к минимуму, тогда как в некоторых случаях действительно интересует получение небольшой ошибки в параметре , например, небольшое значение .[нужна цитата ] Однако, поскольку истинный параметр обязательно неизвестно, эту величину нельзя напрямую минимизировать. Если априорная вероятность на известно, то Байесовская оценка может использоваться для минимизации среднеквадратичная ошибка, . Метод наименьших квадратов часто применяется, когда априорное значение неизвестно. Удивительно, но когда несколько параметров оцениваются совместно, могут быть построены более точные оценки, эффект, известный как Феномен Штейна. Например, если ошибка измерения Гауссовский, известно несколько оценок, которые доминировать или превзойти метод наименьших квадратов; самым известным из них является Оценка Джеймса – Стейна. Это пример более общего оценщики усадки которые были применены к задачам регрессии.

Приложения

Использование при подборе данных

Основное применение линейных наименьших квадратов находится в подбор данных. Учитывая набор м точки данных состоящий из экспериментально измеренных значений, полученных при м значения независимой переменной ( могут быть скалярными или векторными величинами) и заданной модельной функцией с желательно найти параметры таким образом, чтобы функция модели "наилучшим образом" соответствовала данным. В линейных методах наименьших квадратов линейность должна соответствовать параметрам так

Здесь функции может быть нелинейный по переменной Икс.

В идеале модельная функция точно соответствует данным, поэтому

для всех На практике это обычно невозможно, так как точек данных больше, чем параметров, которые необходимо определить. Выбранный подход состоит в том, чтобы найти минимально возможное значение суммы квадратов остатки

чтобы минимизировать функцию

После замены на а затем для , эта задача минимизации превращается в приведенную выше задачу квадратичной минимизации с

и наилучшее соответствие можно найти, решив нормальные уравнения.

Пример

График точек данных (красный), линия наименьших квадратов наилучшего соответствия (синий) и остатков (зеленый).

В результате эксперимента четыре точки данных были получены, и (показан красным на схеме справа). Мы надеемся найти линию что лучше всего соответствует этим четырем пунктам. Другими словами, мы хотим найти числа и которые приблизительно решают переопределенную линейную систему

четырех уравнений с двумя неизвестными в каком-то «лучшем» смысле.

Невязка в каждой точке между аппроксимацией кривой и данными - это разница между правой и левой частями приведенных выше уравнений. В наименьших квадратов подход к решению этой проблемы состоит в том, чтобы попытаться сделать сумму квадратов этих остатков как можно меньшей; то есть найти минимум функции

Минимум определяется путем расчета частные производные из относительно и и установив их на ноль

Это приводит к системе двух уравнений с двумя неизвестными, называемой нормальными уравнениями, которые при решении дают

и уравнение это линия наилучшего соответствия. В остатки, то есть различия между значения из наблюдений и предсказанные переменные, используя линию наилучшего соответствия, затем оказываются равными и (см. диаграмму справа). Минимальное значение суммы квадратов остатков составляет

В более общем плане можно иметь регрессоры , и линейная модель

Использование квадратичной модели

Результат подбора квадратичной функции (синим цветом) через набор точек данных (в красном). В линейных методах наименьших квадратов функция не обязательно должна быть линейной по аргументу но только в параметрах которые полны решимости обеспечить наилучшее соответствие.

Важно отметить, что в методе «линейных наименьших квадратов» мы не ограничены использованием линии в качестве модели, как в приведенном выше примере. Например, мы могли выбрать ограниченную квадратичную модель . Эта модель по-прежнему линейна в параметр, поэтому мы все еще можем выполнить тот же анализ, построив систему уравнений из точек данных:

Частные производные по параметрам (на этот раз только одна) снова вычисляются и устанавливаются на 0:

и решил

приводя к итоговой модели наилучшего соответствия

Смотрите также

Рекомендации

  1. ^ Lai, T.L .; Роббинс, H .; Вэй, Ч. (1978). «Сильная согласованность оценок наименьших квадратов в множественной регрессии». PNAS. 75 (7): 3034–3036. Bibcode:1978PNAS ... 75.3034L. Дои:10.1073 / pnas.75.7.3034. JSTOR  68164. ЧВК  392707. PMID  16592540.
  2. ^ дель Пино, Гвидо (1989). «Объединяющая роль итерационных обобщенных наименьших квадратов в статистических алгоритмах». Статистическая наука. 4 (4): 394–403. Дои:10.1214 / сс / 1177012408. JSTOR  2245853.
  3. ^ Кэрролл, Раймонд Дж. (1982). «Адаптация к гетероскедастичности в линейных моделях». Анналы статистики. 10 (4): 1224–1233. Дои:10.1214 / aos / 1176345987. JSTOR  2240725.
  4. ^ Коэн, Майкл; Dalal, Siddhartha R .; Тьюки, Джон В. (1993). «Робастная, гладко неоднородная регрессия дисперсии». Журнал Королевского статистического общества, серия C. 42 (2): 339–353. JSTOR  2986237.
  5. ^ Нивергельт, Ив (1994). «Всего наименьших квадратов: современная регрессия в численном анализе». SIAM Обзор. 36 (2): 258–264. Дои:10.1137/1036055. JSTOR  2132463.
  6. ^ Тофаллис, C (2009). «Процентная регрессия наименьших квадратов». Журнал современных прикладных статистических методов. 7: 526–534. Дои:10.2139 / ssrn.1406472. SSRN  1406472.
  7. ^ Гамильтон, У. К. (1964). Статистика в физической науке. Нью-Йорк: Рональд Пресс.
  8. ^ Шпигель, Мюррей Р. (1975). Очерк теории и проблем вероятности и статистики Шаума. Нью-Йорк: Макгроу-Хилл. ISBN  978-0-585-26739-5.
  9. ^ Маргенау, Генри; Мерфи, Джордж Мозли (1956). Математика физики и химии. Принстон: Ван Ностранд.
  10. ^ а б Ганс, Питер (1992). Подбор данных в химических науках. Нью-Йорк: Вили. ISBN  978-0-471-93412-7.
  11. ^ Деминг, У. Э. (1943). Статистическая корректировка данных. Нью-Йорк: Вили.
  12. ^ Актон, Ф. С. (1959). Анализ прямолинейных данных. Нью-Йорк: Вили.
  13. ^ Гость, П. Г. (1961). Численные методы аппроксимации кривой. Кембридж: Издательство Кембриджского университета.[страница нужна ]

дальнейшее чтение

  • Бевингтон, Филип Р .; Робинсон, Кейт Д. (2003). Обработка данных и анализ ошибок для физических наук. Макгроу-Хилл. ISBN  978-0-07-247227-1.

внешняя ссылка