Пошаговая регрессия - Stepwise regression

В статистика, пошаговая регрессия это метод установки регрессионные модели в котором выбор прогнозных переменных выполняется автоматически.[1][2][3][4] На каждом шаге переменная рассматривается для добавления или вычитания из набора объясняющие переменные основанный на некотором заранее заданном критерии. Обычно это принимает форму последовательности F-тесты или же т-тесты, но возможны и другие методы, например скорректированный р2, Информационный критерий Акаике, Байесовский информационный критерий, Mallows's Cп, НАЖМИТЕ, или же коэффициент ложного обнаружения.

Частая практика подгонки окончательной выбранной модели с последующим составлением отчетов об оценках и доверительных интервалах без их корректировки для учета процесса построения модели привела к призывам вообще отказаться от пошагового построения модели.[5][6] или, по крайней мере, убедиться, что неопределенность модели правильно отражена.[7][8]

В этом примере из инженерии необходимость и достаточность обычно определяются F-тесты. Для дополнительного рассмотрения при планировании эксперимент, компьютерное моделирование, или научный опрос собирать данные за это модель, необходимо иметь в виду количество параметры, п, к оценивать и отрегулируйте размер образца соответственно. Вилка переменные, п = 1(Начинать) + K(I этап) + (K2 − K)/2(2 этап) + 3K(Стадия III) = 0.5K2 + 3.5K + 1. Для K <17, an эффективный дизайн экспериментов существует для этого типа модели, Бокс – дизайн Бенкена,[9] дополнен положительными и отрицательными осевыми точками длины min (2, (int (1.5 +K/4))1/2), плюс точка (точки) в начале координат. Есть еще эффективный конструкции, требующие меньшего количества пробегов, даже для K > 16.

Основные подходы

Основные подходы:

  • Прямой выбор, который включает в себя начало без переменных в модели, тестирование добавления каждой переменной с использованием выбранного критерия соответствия модели, добавление переменной (если таковая имеется), включение которой дает наиболее статистически значимое улучшение соответствия, и повторение этого процесса до тех пор, пока ни одна из них не улучшится. модель в статистически значимой степени.
  • Обратное устранение, который включает в себя начало со всеми переменными-кандидатами, тестирование удаления каждой переменной с использованием выбранного критерия соответствия модели, удаление переменной (если таковая имеется), потеря которой приводит к наиболее статистически незначимому ухудшению соответствия модели, и повторение этого процесса до тех пор, пока не исчезнут другие переменные. могут быть удалены без статистически незначимой потери соответствия.
  • Двунаправленное исключение, комбинация вышеперечисленного, проверка на каждом этапе на предмет включения или исключения переменных.

Критерий выбора

Широко используемый алгоритм был впервые предложен Эфроймсоном (1960).[10] Это автоматическая процедура статистического выбор модели в случаях, когда существует большое количество потенциальных объясняющих переменных и нет базовой теории, на которой можно было бы основывать выбор модели. Процедура используется в основном в регрессивный анализ, хотя основной подход применим во многих формах выбора модели. Это вариант прямого выбора. На каждом этапе процесса, после добавления новой переменной, выполняется тест, чтобы проверить, можно ли удалить некоторые переменные без значительного увеличения остаточная сумма квадратов (RSS). Процедура завершается, когда показатель (локально) максимален или когда доступное улучшение падает ниже некоторого критического значения.

Одна из основных проблем пошаговой регрессии заключается в том, что она ищет большое количество возможных моделей. Следовательно, он склонен к переоснащение данные. Другими словами, пошаговая регрессия часто намного лучше подходит для выборки, чем для новых данных вне выборки. Были отмечены крайние случаи, когда модели достигли статистической значимости при работе со случайными числами.[11] Эта проблема может быть смягчена, если критерий добавления (или удаления) переменной достаточно жесткий. Ключевая линия на песке - это то, что можно назвать Бонферрони вопрос: а именно, насколько значимой должна быть лучшая ложная переменная, основанная только на случайности. На т-статистическая шкала, это происходит примерно на , куда п - количество предикторов. К сожалению, это означает, что многие переменные, которые фактически несут сигнал, не будут включены. Этот забор оказывается правильным компромиссом между переоснащением и отсутствием сигнала. Если мы посмотрим на риск различных отсечений, то использование этой границы будет в пределах 2logп фактор максимально возможного риска. Любой другой отрезок будет иметь больший такой риск инфляции.[12][13]

Точность модели

Один из способов проверки ошибок в моделях, созданных с помощью пошаговой регрессии, - не полагаться на F-статистика, значимость или несколько R, но вместо этого оцените модель по набору данных, которые не использовались для создания модели.[14] Это часто делается путем построения модели на основе выборки из доступного набора данных (например, 70%) - «Обучающий набор ”- и используйте оставшуюся часть набора данных (например, 30%) в качестве набор для проверки оценить точность модели. Затем точность часто измеряется как фактическая стандартная ошибка (SE), MAPE (Средняя абсолютная ошибка в процентах ), или средняя ошибка между прогнозируемым значением и фактическим значением в удерживаемой выборке.[15] Этот метод особенно ценен, когда данные собираются в разных условиях (например, в разное время, в социальных или уединенных ситуациях) или когда предполагается, что модели можно обобщить.

Критика

Процедуры пошаговой регрессии используются в сбор данных, но спорны. Было высказано несколько критических замечаний.

  • Сами тесты необъективны, поскольку основаны на одних и тех же данных.[16][17] Уилкинсон и Даллал (1981)[18] вычислили процентные точки коэффициента множественной корреляции с помощью моделирования и показали, что окончательная регрессия, полученная прямым отбором, которая, согласно F-процедуре, значима при 0,1%, на самом деле была значимой только при 5%.
  • При оценке степени свободы, количество независимых переменных-кандидатов из отобранного наилучшего соответствия может быть меньше, чем общее количество переменных окончательной модели, из-за чего соответствие будет выглядеть лучше, чем при настройке р2 значение числа степеней свободы. Важно учитывать, сколько степеней свободы было использовано во всей модели, а не просто подсчитывать количество независимых переменных в результирующей подгонке.[19]
  • Создаваемые модели могут быть чрезмерно упрощенными реальными моделями данных.[20]

Такая критика, основанная на ограничениях взаимосвязи между моделью и процедурой и набором данных, используемых для ее соответствия, обычно рассматривается: проверка модель на независимом наборе данных, как в ПРЕСС-процедура.

Критики рассматривают эту процедуру как парадигматический пример дноуглубительные работы, интенсивные вычисления часто являются неадекватной заменой знания предметной области. Кроме того, результаты пошаговой регрессии часто используются некорректно, не корректируя их на случай выбора модели. Особенно скандалом была названа практика подбора окончательной выбранной модели, как если бы выбор модели не производился, и составление отчетов об оценках и доверительных интервалах, как если бы для них была применима теория наименьших квадратов.[7] Широко распространенное неправильное использование и наличие альтернатив, таких как ансамблевое обучение, оставление всех переменных в модели или использование экспертной оценки для определения релевантных переменных привело к призывам полностью избежать пошагового выбора модели.[5]

Смотрите также

Рекомендации

  1. ^ Эфроймсон, М. А. (1960) "Множественный регрессионный анализ", Математические методы для цифровых компьютеров, Ральстон А. и Уилф, Х. С. (ред.), Wiley, New York.
  2. ^ Хокинг, Р. Р. (1976) "Анализ и выбор переменных в линейной регрессии", Биометрия, 32.
  3. ^ Дрейпер, Н. и Смит, Х. (1981) Прикладной регрессионный анализ, 2-е издание, Нью-Йорк: John Wiley & Sons, Inc.
  4. ^ Институт САС Inc. (1989) Руководство пользователя SAS / STAT, версия 6, четвертое издание, том 2, Кэри, Северная Каролина: Институт САС Inc.
  5. ^ а б Флом, П. Л. и Касселл, Д. Л. (2007) «Пошаговая остановка: почему пошаговые и подобные методы отбора плохи и что вы должны использовать», NESUG 2007.
  6. ^ Харрелл, Ф. Э. (2001) "Стратегии регрессионного моделирования: с приложениями к линейным моделям, логистической регрессии и анализу выживаемости", Springer-Verlag, Нью-Йорк.
  7. ^ а б Чатфилд, К. (1995) "Неопределенность модели, интеллектуальный анализ данных и статистический вывод", J. R. Statist. Soc. А 158, Часть 3, стр. 419–466.
  8. ^ Эфрон, Б. и Тибширани, Р. Дж. (1998) "Введение в бутстрап", Chapman & Hall / CRC
  9. ^ Бокс – Бенкен дизайн из справочник по инженерной статистике в NIST
  10. ^ Efroymson, MA (1960) "Множественный регрессионный анализ". Ральстон, А. и Уилф, HS, редакторы, Математические методы для цифровых компьютеров. Вайли.
  11. ^ Knecht, WR. (2005). Готовность пилота к взлету в неблагоприятную погоду, часть II: предшествующее переоснащение с поступательной пошаговой логистической регрессией. (Технический отчет DOT / FAA / AM-O5 / 15 ). Федеральная авиационная администрация
  12. ^ Фостер, Дин П. и Джордж, Эдвард I. (1994). Критерий инфляции риска для множественной регрессии. Анналы статистики, 22(4). 1947–1975. Дои:10.1214 / aos / 1176325766
  13. ^ Донохо, Дэвид Л. и Джонстон, Джейн М. (1994). Идеальная пространственная адаптация за счет вейвлет-усадки. Биометрика, 81(3):425–455. Дои:10.1093 / biomet / 81.3.425
  14. ^ Марк, Джонатан и Голдберг, Майкл А. (2001). Множественный регрессионный анализ и массовая оценка: обзор проблем. Журнал оценки, Январь, 89–109.
  15. ^ Майерс, Дж. Х., и Форги, Э. У. (1963). Разработка систем цифровой кредитной оценки. Журнал Американской статистической ассоциации, 58(303; сентябрь), 799–806.
  16. ^ Ренчер, А.С., & Пун, Ф.С. (1980). Инфляция р² в регрессии лучшего подмножества. Технометрика, 22, 49–54.
  17. ^ Копас, Дж. Б. (1983). Регрессия, прогнозирование и усадка. Дж. Рой. Статист. Soc. Серия Б, 45, 311–354.
  18. ^ Уилкинсон, Л., Даллал, Г. (1981). Тесты значимости в регрессии прямого выбора с правилом остановки F-to enter. Технометрика, 23, 377–380.
  19. ^ Гурвич, Ч. М. и Ч. Л. Цай. 1990. Влияние выбора модели на вывод в линейной регрессии. Американский статистик 44: 214–217.
  20. ^ Рокер, Эллен Б. (1991). Ошибка прогноза и ее оценка для подмножества - отобранных моделей. Технометрика, 33, 459–468.