Частина1. Огляд методів структурно-парметріческого синтезу Як вибирати структуру моделі? Задані, як зазвичай, матриця спостережень Х (n * m), вектор відгуку Y (n * 1) А) лінійний випадок: передбачається завдання переліку аргументів х1 ... .хM з надлишком для синтезу моделі. Необхідно визначити найкращу модель , де хk вибрані із зазначеного набору , а складність (кількість m) і склад оптимального набору - не відомі або Б) нелінійний по х випадок: з переліку аргументів х1 ... .хM формується нескінченний перелік Необхідно знайти модель , де складність (кількість m) і склад оптимального набору - невідомі Очевидний варіант, - давайте ускладнювати структуру моделі до тих пір, поки не отримаємо «нульову помилку» (тобто наздоганяємо складність структури до m = n) - не проходить !!!!, так як будь-яка структура задовольнить при m = n «0-ву помилку», в тому числі для моделі, що зв'язує швидкість ракети(у) з поголів'ям вовків в Тамбовській області (х). В ідеальних умовах, без шуму і кореляції вхідних аргументів, можливо застосувати (не завжди - тільки при досить великих n, щоб розглядалися моделі при m ) підхід в лоб: Моделювання за повним списком аргументів Підхід застосуємо виключно при відсутності шумів і незалежності випадкових вхідних ознак. Виконуємо розрахунок повної моделі і за рівнем значущості коефіцієнтів залишаємо тільки значущі аргументи. Потім для контролю розраховуємо стандартизовану модель (це модель з нормованими змінними , такими, що та
У такій моделі коефіцієнти при аргументах мають сенс коефіцієнтів кореляції аргументів х із виходом моделі у. Ми відкидаємо аргументи з повною моделі, які увійшли в стандартизовану модель з незначними коефіцієнтами. Факт відбір або вибраковування аргументів на модель виробляється за рівнем значущості відповідних коефіцієнтів моделі. З точністю до переобозначеніе отримуємо модель де присутня оптимальна лінійна структура
Очевидно що при виконанні умов незалежності змінних і відсутності шумів помилкові аргументи увійдуть в модель тільки на незначущому рівні.
Але зазначені ідеальні умови – ілюзія:
- шум обчислень завжди присутній,
- практично завжди наявна корельованість аргументів, навіть породжених ГенВипЧисел (кореляція до 0.05-0.07), не кажучи вжепро постановку Б), де коррелированность закладена в постановці завдання (деякий рівень кореляції - лінійної залежності є і в нелінійних базисах ....)
Проблеми порушення умов застосування МНК призводять до різних відхилень в
1.Оценках параметрів (порушення спроможності, незсуненості, ефективності) і
2. Включенню фіктивних аргументов в модель замість істинних
Як ми вже знаємо, нарощувати точність до 0-й помилки - погана стратегія. Моделі повинні бути більш прості, ніж ніж ті, що досягають 0-ї помилки при m = n. У цій ситуації будь-яка структура дасть 0-у помилку. А який механізм вибрати для отримання більш простих (з ненульовою помилкою) структур, які найболш відповідають нашим очікуванням? – мають мінімальну помилку на свіжих, нових точках?
Саме це надзавдання зазвичай стоїть за будь-яким завданням моделювання.
Рішення цієї проблеми проводиться по 2-х напрямках
1. Відбір найкращих структур здійснюється за рахунок застосування штрафів за складність моделі в явному вигляді і
2. Відбір найкращих структур здійснюється за рахунок застосування штрафу за складність в неявному вигляді.
Даний механізм забезпечує рішення надзавдання - мінімізацію помилки моделі на нових вибірках:
1.Перший шлях (явний штраф засложность) частково реалізується в класичних алгоритмах КАБР та принципу відбору моделей за критеріями Акаіке, Шварца, Меллоуза …
2. Другий шлях (неявний штраф за складність) заснований на різних принципах знаходження нових, свіжих вибірок і відбір здійснюється тих структур моделей, які забезпечують мінімум помилки моделей на цих свіжих даних.
Методи, які пропонують свою відповідь на питання як сформувати нові вибірки даних - це А) Будстреп,
Б) Метод складного ножа (джек Найф), і
В) МГУА (метод групового урахування аргументів)
У МГУА запропоновані й інші варіанти зовнішнього критерію які забезпечують моделі оптимальної складності для різних по змісту завдань (апроксимація, прогноз, дискримінація) і різних умов синтезу моделей. Детально ці напрямки будуть нами розглянуті в курсі "Біомедична кібернентіка" в розділі "Індуктивне моделювання". А далі ми розглянемо один із згаданих вище методів з явним штрафом за складність моделі - сімейство класичних алгоритмів структурно-параметричного синтезу - крокові алгоритми багатовимірної лінійної регресії (КАБР)
Достарыңызбен бөлісу: |