Що таке ортогональна регресія?
І пам’ятайте, що в ортогональній регресії мають бути виконані такі припущення: і предиктор, і відповідь містять фіксовану невідому величину, позначену як X і Y відповідно, і компонент помилки. Помилкові терміни є незалежними. Члени помилки мають середнє значення нульової та постійної дисперсії.
Ортогональна регресія досліджує лінійну залежність між двома безперервними змінними: однією відповіддю (Y) і одним предиктором (X). На відміну від простої лінійної регресії (регресії найменших квадратів), як відповідь, так і предиктор в ортогональній регресії містять помилку вимірювання.
Звичайний метод найменших квадратів (OLS) є одним із найбільш часто використовуваних критеріїв для підгонки даних до моделей і для оцінки параметрів. Ортогональна дистанційна регресія (ODR) поширює метод найменших квадратів на проблеми з незалежними змінними, які точно не відомі.
Грубо кажучи, принцип ортогональності говорить про це вектор помилки оптимальної оцінки (у середньоквадратичному сенсі помилки) ортогональний до будь-якої можливої оцінки. Принцип ортогональності найчастіше використовується для лінійних оцінок, але можливі більш загальні формулювання.
МНК підходить, коли лише одна з двох змінних є випадковою. Замість мінімізації вертикальної (або горизонтальної) відстані, як у OLS, ортогональна регресія займає золоту середину шляхом мінімізації ортогональної відстані від спостережуваних точок даних до лінії регресії як показано на малюнку 1c.