Чому ласо краще регресії?

Він використовується замість методів регресії для більш точного прогнозування. У цій моделі використовується усадка. Скорочення – це коли значення даних зменшуються до центральної точки як середнього значення. Процедура ласо заохочує прості, розріджені моделі (тобто моделі з меншою кількістю параметрів).

Ласо було введено в порядок покращити точність прогнозування та інтерпретабельність регресійних моделей. Він вибирає скорочений набір відомих коваріантів для використання в моделі.

Однією з головних переваг ласо-регресії є його здатність виконувати вибір функцій. Встановлюючи деякі коефіцієнти на нуль, він може автоматично ідентифікувати та усувати нерелевантні функції, що може допомогти зменшити складність моделі та покращити її інтерпретацію.

Ласо — це метод регулярізації, який зменшує коефіцієнти до нуля, ефективно виконуючи форму вибору ознак. На відміну від цього, Ridge Regression використовує покарання L1 для контролю сили регулярізації, що також може призвести до вибору функції, але не може встановити жодні коефіцієнти на нуль.

Дивлячись на ці відмінності між ласо та хребетною регресією, ми можемо зробити такий висновок Lasso Regression краще підходить для вибору функцій. Навпаки, Ridge Regression краще зменшує складність моделі та уникає переобладнання.

У цьому дослідженні LASSO, не може подолати серйозну мультиколінеарність серед усіх пояснювальних змінних оскільки це може трохи зменшити VIF у наборі даних. У той час як у кожному дослідженому випадку змодельованого набору даних RR знижує значення VIF менше ніж 10, а PCR зменшує VIF до 1.