Метод на максималното подобие (Maximum Likelihood, ml) ml е вид (Бейсов) метод за оценка



Дата08.07.2016
өлшемі62.5 Kb.
#185249
Метод на максималното подобие (Maximum Likelihood, ML)

ML е вид (Бейсов) метод за оценка (estimator). Нека имаме извадка от данни {x1..xN} върху която да приложим метод за оценка . Надяваме се, оценката да е максимално близо до истинската стойност на параметъра а (но разбира се, ще се различава в зависимост от извадката). Ако извадката има функция на разпределение P(x, a), то вероятността да получим извадката във вида {x1..xN} е произведение от индивидуалните вероятности:



Където е т.нар. likelihood функция. ML се базира на намирането на такава стойност за а, че да има максимум. Идеята е, че така намираме тази стойност на а, че да е било най-вероятно да „изтеглим” именно извадката {x1..xN}. Така намерената стойност за а, всъщност е оценка на истинската а, т.е. . Удобно е да се логаритмува likelihood фуннкцията, понеже така дясната страна от произведение се превръща в сума.



Пример: Състояние има период на полуразпад (), който е неизвестен и който се опитваме да оценим. Наблюдавани са N такива състояния, като времето на живот на всяко е било ti. Знаем, че (плътността на) вероятността за разпад за време t е:

. Тогава

Оттук:



Пример: Измервания на една и съща величина с различна точност, да се намери средната стойност, като се отчитат теглата. В този случай, всяко измерване е взето от гаусово разпределение, със средно  и стандартно отклонение i.


Можем да приложим ML метода за намиране на средното и стандартното отклонение на извадка, за която се знае, че е гаусово разпределена (т.е. всички стойности имат еднакви, но неизвестни  и . В такъв случай се диференцира 2 пъти (по  и ) и се получават 2 уравнения. Интересното, обаче е, че за стандартното отклонение се получава: , което означава, че в случая ML е оценка с баяс (би трябвало да е коректния множител).




Пример: ML и най-малките квадрати.
Нека имаме двойки (хii), като всяко хi е известно точно, докато всяко уi е известно с гаусова грешка i. Вярваме, че съществува зависимост y=f(x, a), която е известна, но параметъра а е неизвестен и трябва да се определи. Тогава, вероятността да получим определено уi при дадено хi е:

ML функцията тогава е:

Така, да се максимизира L, означава да се минимизира величината:, което по същество е аналогично на прилагане на метода на най-малките квадрати.


Грешки на параметрите, определяни от ML метода.
Стандарният подход е да се построи цялата likelihood функция – L(a) и да се определят доверителните интервали, т.е. интервалите по a, които включват 95% (99%) от вероятността.

Достарыңызбен бөлісу:




©dereksiz.org 2024
әкімшілігінің қараңыз

    Басты бет