EM-algoritmi

Wikipediasta
Siirry navigaatioon Siirry hakuun

EM-algoritmi (EM on lyhenne sanoista Expectation-Maximization eli odotusarvon maksimointi) on tilastotieteessä käytetty iteratiivinen menetelmä suurimman uskottavuuden estimaattien löytämiseksi tilastollisten mallien parametreille tilanteessa, jossa osa tiedosta puuttuu. Puuttuva tieto voi olla esimerkiksi piilevä luokkamuuttuja, josta ei saatu lainkaan havaintoja.

Vanhan uskollisen purkautumisiin liittyvän aineiston EM-klusterointi. Jokin aloitusmalli sovitetaan havaittuun aineistoon. (Akseleiden erilaisten mitta-asteikoiden vuoksi jakauma näyttää kahdelta hyvin litteältä ja leveältä soikiolta.) Ensimmäiset iteraatiot muuttavat mallia huomattavasti, minkä jälkeen malli konvergoi kohti geysirin purkausten tyypillisimpiä arvoyhdistelmiä. Visualisointi tehty ELKI:llä.

Olkoon aineiston jakaumaan liittyvien tuntemattomien parametrien muodostama vektori. Täydelliselle aineistolle uskottavuusfunktio voidaan kirjoittaa muodossa

.

Hyvin usein osa oleellisista tiedosta jää kuitenkin havaitsematta. Täydellinen data voidaan jakaa kahteen osaan: havaittuun aineistoon ja puuttuvaan aineistoon . Tällöin täydellisen aineiston uskottavuus saadaan kirjoitettua muotoon

.

Ottamalla logaritmi puolittain lauseke saadaan muotoon

.

Oletetaan mallin parametreille tunnettu arvo iteraatiolla . Tällöin edellä esitetyn lausekkeen odotusarvo puuttuvien havaintojen suhteen on

.

Merkitään nyt täydellisen aineiston logaritmista uskottavuutta seuraavasti:

Algoritmissa toistetaan vuorotellen kahta askelta:

E-askel: Johda termin lauseke.
M-askel: Etsi parametrille sellainen arvo , että uskottavuus maksimoituu.

Aluksi tuntemattomille parametreille asetetaan alkuarvot . Ensimmäinen iteraatio aloitetaan siis laskemalla .

Varsinainen iteratiivinen algoritmi joudutaan johtamaan erikseen kullekin tilanteelle. [1][2]

Ominaisuuksia

[muokkaa | muokkaa wikitekstiä]

Käytettäessä EM-algoritmia uskottavuusfunktion arvo kasvaa jokaisella iteraatiolla ja parametrin estimaatti lähestyy monotonisesti suurimman uskottavuuden estimaattia.[3][2]

EM-algoritmi on hyödyllinen uskottavuuden tullessa eksponenttisesta perheestä: E-askel sievenee tyhjentävien tunnuslukujen odotusarvojen summaksi ja M-askeleessa maksimoidaan lineaarista funktiota. Tällaisessa tapauksessa voidaan usein johtaa suljettu muoto askelten päivittämiseksi Sundbergin kaavalla (Rolf Sundberg julkaisi kaavan, mutta hän hyödynsi Per Martin-Löfin ja Anders Martin-Löfin julkaisemattomia tuloksia). [4][5][6][7][8][9][10]

Gaussinen sekoitus

[muokkaa | muokkaa wikitekstiä]
Animaatio, joka havainnollistaa kaksikomponenttisen sekoitusjakauman sovittamista EM-algoritmilla Old Faithful aineistoon. Algoritmin askeleet satunnaisesta aloituksesta konvergenssiin.

Olkoon -kokoinen otos riippumattomia havaintoja kahdesta moniulotteisesta normaalijakaumasta, ulottuvuuksien määrä . Olkoot latentteja muuttujia, jotka kertovat kummasta ryhmästä kyseinen havainto on peräisin.[2]

\, ja \, ,

missä

ja .


Tavoite on estimoida jakaumien tuntemattomat keskiarvot ja kovarianssit, sekä jakaumien sekoittumista kuvaava arvo :

,

missä uskottavuusfunktio on:

,

missä on indikaattorifunktio ja on moniulotteisen normaalijakauman tiheysfunktio. Tämä voidaan kirjoittaa uudelleen eksponenttisen perheen muotoon:

Voidaan huomata, että kullekin i indikaattori saa arvon yksi vain yhdellä j, ja toisella j indikaattorin arvo on nolla. Sisempi summa siis supistuu yhdeksi lausekkeeksi eikä summausta tarvita.

Oletetaan, että meillä on parametrien estimaatit θ(t). Tällöin Zi:n ehdollinen jakauma voidaan kirjoittaa todennäköisyytenä Bayesin kaavan mukaisesti:

.

Siten E-askel johtaa seuraavaan funktioon:

Huomataan, että ja voidaan kukin maksimoida toisistaan riippumatta, sillä ne ovat edellä esitetyssä lausekkeessa eri termeissä.

Tarkastellaan aluksi parametria τ, jolla on rajoite τ1 + τ2=1:

Tämä on samaa muotoa kuin binomijakauman suurimman uskottavuuden estimaatti. Siten

.

Tarkastellaan seuraavaksi parametrien estimaatteja:

Tämä on samaa muotoa normaalijakauman painotetun SU-estimaatin kanssa, joten

ja .

Vastaavasti

ja .

Lopeta iterointi, jos ja ovat riittävän lähellä toisiaan (erotus alle jonkin ennalta asetetun kynnysarvon).

Yleistäminen

[muokkaa | muokkaa wikitekstiä]

Yllä esitetty algoritmi voidaan yleistää useampien kuin kahden monimuuttujaisen normaalijakauman sekoituksille.

EM-algoritmin historia jaetaan usein kirjoittajien Dempster, Laird ja Rubin vuonna 1977 ilmestynyttä artikkelia[11] edeltävään ja sitä seuraavaan aikaan. Kyseisessä artikkelissa annettiin runsaasti esimerkkejä algoritmin sovelluksista, ja kuvailtiin sen konvergenssiä ja muita perusominaisuuksia. Tätä artikkelia kutsutaan usein DLR-artikkeliksi. [1]

Ennen DLR-artikkelia

[muokkaa | muokkaa wikitekstiä]

Kirjallisuudessa ensimmäinen maininta liittyen EM-tyyppiseen algoritmiin esiintyy Newcombin vuoden 1886 artikkelissa [12] kahden yksiulotteisen normaalijakauman sekoituksesta.

Vuonna 1960 Buck [13] esitteli p-ulotteisen populaation keskiarvovektorin ja kovarianssimatriisin estimointia tilanteessa, jossa osa aineistosta puuttui. Hän käytti regressiota ja puuttuvien havaintojen selittämistä havaitulla aineistolla. Hänen menetelmässään tarvitut regressiokertoimet ja kovarianssimatriisin kerrointen korjaukset saadaan yhdellä täydellisten havaintojen informaatiomatriisin kääntämisellä ja sopivilla matriisilaskuilla. EM-algoritmin peruselementit esiintyvät Buckin menetelmässä.

EM-algoritmin soveltamista Markov-malleille käsiteltiin sarjassa artikkeleita: Baum ja Petrie (1966), Baum ja Eagon (1967) ja Baum, Petrie, Soules ja Weiss (1970). Nämä artikkelit sisältävät helposti yleistettävissä olevia konvergenssituloksia. Näissä artikkeleissa kehitetty algoritmi toimii myös perustana nykyään käytetyille piilo-Markov-mallien EM-algoritmeille.[14][15][16]

Vuonna 1972 Orchard ja Woodbury esittelivät täydellisen ja ei-täydellisen aineiston logaritmisten uskottavuusfunktioiden välisen suhteen.[17]

DLR-artikkelin jälkeen

[muokkaa | muokkaa wikitekstiä]

Rajapyykkinä toimivan artikkelin jälkeen EM-algoritmia on sovellettu muun muassa neuroverkkoihin, koneoppimisessa, psykometriikassa ja lääketieteellisessä kuvantamisessa (esimerkiksi PET-kuvauksissa).[1]

  1. a b c McLachlan, Geoffrey J.; Krishnan, Thriyambakam: The EM algorithm and extensions. New York: Wiley, 1997. ISBN 0-471-12358-7
  2. a b c Hastie, Trevor; Tibshirani, Robert; Friedman, Jerome: ”8.5 The EM algorithm”, The Elements of Statistical Learning, s. 236–243. New York: Springer, 2001. ISBN 0-387-95284-5
  3. Navidi, William: A Graphical Illustration of the EM Algorithm. The American Statistician, 1997, 51. vsk, nro 1, s. 29-31.
  4. Sundberg, Rolf: Maximum likelihood theory and applications for distributions generated when observing a function of an exponential family variable. dissertation, 1971. Institute for Mathematical Statistics, Stockholm University.
  5. Sundberg, Rolf: An iterative method for solution of the likelihood equations for incomplete data from exponential families. Communications in Statistics – Simulation and Computation, 1976, 5. vsk, nro 1, s. 55–64. doi:10.1080/03610917608812007 MR:443190
  6. Martin-Löf, Anders: Utvärdering av livslängder i subnanosekundsområdet (Evaluation of sub-nanosecond lifetimes) ("Sundbergin kaava"). Määritä julkaisu!1963.
  7. Martin-Löf, Per. 1966. Statistics from the point of view of statistical mechanics. Lecture notes, Mathematical Institute, Aarhus University. ("Sundberg formula" credited to Anders Martin-Löf).
  8. Martin-Löf, Per. 1970. Statistika Modeller (Statistical Models): Anteckningar från seminarier läsåret 1969–1970 (Notes from seminars in the academic year 1969-1970), with the assistance of Rolf Sundberg. Stockholm University. ("Sundberg formula")
  9. Martin-Löf, P. The notion of redundancy and its use as a quantitative measure of the deviation between a statistical hypothesis and a set of observational data. With a discussion by F. Abildgård, A. P. Dempster, D. Basu, D. R. Cox, A. W. F. Edwards, D. A. Sprott, G. A. Barnard, O. Barndorff-Nielsen, J. D. Kalbfleisch and G. Rasch and a reply by the author. Proceedings of Conference on Foundational Questions in Statistical Inference (Aarhus, 1973), pp. 1–42. Memoirs, No. 1, Dept. Theoret. Statist., Inst. Math., Univ. Aarhus, Aarhus, 1974.
  10. Martin-Löf, Per: The notion of redundancy and its use as a quantitative measure of the discrepancy between a statistical hypothesis and a set of observational data. Scandinavian Journal of Statistics, 1974, 1. vsk, nro 1, s. 3–18.
  11. Dempster, A.P.; Laird, N.M.; Rubin, D.B.: Maximum Likelihood from Incomplete Data via the EM Algorithm. Journal of the Royal Statistical Society, Series B, 1977, 39. vsk, nro 1, s. 1–38. JSTOR:2984875 MR:0501537
  12. Newcomb, S.: A generalized theory of the combination of observations so as to obtain the best results. American Journal of Mathematics, 1886, 8. vsk, s. 343-366.
  13. Buck, S.F: A method of estimation of missing values in multivariate data suitable for use with an electronic computer. Journal of the Royal Statistical Society B, 1960, 22. vsk, s. 302-306.
  14. Baum, L.E.; Petrie, T.: Statistical inference for probabilistic functions of finite Markov chains. Annals of Mathematical Statistics, 1966, 37. vsk, s. 1554-1563.
  15. Baum, L.E.; Eagon, J.A.: An inequality with applications to statistical estimation for probabilistic functions of Markov processes and to a model for ecology. Bulletin of the American Mathematical Society, 1967, 73. vsk, s. 360-363.
  16. Baum, L.E; Petrie, T.; Soules, G.; Weiss, N.: A Maximization technique occuring in the statistical analysis of probabilistic functions of Markov chains. Annals of Mathematical Statistics, 1970, 41. vsk, s. 164-171.
  17. Orchard, T.; Woodbury, M.A.: A missing information principle: theory and applications. Proceedings of the Sixth Berkeley Symposium on Mathematical Statistics and Probability, 1972, 1. vsk, s. 697-715. Berkeley, California: University of California Press.