Siirry sisältöön

Malliromahdus

Wikipediasta
(Ohjattu sivulta Habsburg-tekoäly)
Ouroboros-lohikäärmeen tapaan kielimallit ruokitaan niiden itsensä tuottamalla aineistolla.

Malliromahdus (engl. model collapse)[huom 1], jota kutsutaan myös tekoälyn romahdukseksi (engl. AI collapse), tarkoittaa synteettisellä datalla koulutetun generatiivisen tekoälymallin tuotoksen asteittaista rappeutumista.[9][10][11][12] Käytännössä tämä tarkoittaa sitä, että uudet kielimallit koulutetaan internetistä löytyvillä aineistoilla, joihin sisältyvät myös aikaisempien kielimalliversioiden tuottamat synteettiset tiedot.[13][14]

Ilmiön käsitteen kehittivät Shumailov ym. vuonna 2024[9][huom 1].

Shumailov et al. (2024) ovat kuvanneet malliromahduksen etenevän usein kahdessa vaiheessa[9]:

  • Varhainen malliromahdus (engl. early model collapse): malliromahduksen alkuvaiheessa malli alkaa menettää tietoa jakauman ”hännistä”, eli harvinaisista tai poikkeavista tiedoista[9]. Tässä vaiheessa malli ikään kuin ”unohtaa” tiedot, jotka ovat harvinaisia tai poikkeavat yleisestä jakaumasta, ja keskittyy yhä enemmän yleisimpiin piirteisiin. Ilmiö voi jäädä huomaamatta, koska mallin yleinen suorituskyky saattaa jopa parantua, vaikka sen tarkkuus harvinaisten tai marginaalisten esimerkkien kohdalla heikkenee.[15]
  • Myöhäinen malliromahdus (engl. late model collapse): malliromahduksen myöhemmässä vaiheessa mallin suorituskyky heikkenee nopeasti. Siinä malli menettää merkittävän osan suorituskyvystään, sekoittaa käsitteitä ja menettää suurimman osan varianssistaan.[9]

Toimintamekanismi

[muokkaa | muokkaa wikitekstiä]

Malliromahdus voi johtua kolmesta pääasiallisesta virhetyypistä, jotka heikentävät tekoälymallin kykyä toimia tarkoitetulla tavalla[9]:

Funktionaaliset approksimaatiovirheet[9]:

  • Nämä virheet syntyvät, kun tekoälymalli ei pysty riittävän tarkasti kuvaamaan syötteiden ja tulosteiden välistä todellista suhdetta.
  • Esimerkki: lineaarinen malli ei pysty mallintamaan monimutkaisia, epälineaarisia ilmiöitä.
  • Selitys: mallin ”approksimaatio” tarkoittaa sen kykyä arvioida tai lähentyä todellista, usein monimutkaista ilmiötä. Jos malli on liian yksinkertainen, se ei pysty tekemään tarkkaa arviota ja kadottaa olennaista tietoa.

Otantavirheet[9]:

  • Nämä virheet johtuvat siitä, että koulutuksessa käytetty data ei edusta kattavasti tai oikein sitä todellista kokonaisuutta (perusjoukkoa), jota mallin tulisi pystyä kuvaamaan.
  • Otantavirheet ovat erityisen tärkeitä oikeudenmukaisuuden näkökulmasta, sillä vinoutunut otos voi johtaa siihen, että malli toimii epäoikeudenmukaisesti eri käyttäjäryhmiä kohtaan[16].
  • Esimerkiksi Yhdysvalloissa käytetty terveysalgoritmi aliarvioi mustien potilaiden hoidon tarpeen, koska se käytti hoitokustannuksia terveyden mittarina. Tämä johti siihen, että mustat potilaat saivat vähemmän hoitoa kuin muut saman terveydentilan potilaat[17].
  • Selitys: perusjoukko tarkoittaa kaikkia mahdollisia tilanteita tai henkilöitä, joita malli yrittää ymmärtää. Otos on osa tästä perusjoukosta. Jos otos on vinoutunut tai suppea, malli oppii vääristyneen näkemyksen todellisuudesta.

Oppimisvirheet[9]:

  • Nämä virheet liittyvät mallin kykyyn oppia ja yleistää tietoa koulutusaineistosta[9]:
  • Ylisovittaminen (overfitting): malli oppii liikaa koulutusaineiston yksityiskohtia ja toimii huonosti uusilla tiedoilla.
  • Alisovittaminen (underfitting): malli on liian yksinkertainen eikä kykene tunnistamaan datan olennaisia piirteitä tai trendejä.
  • Selitys: hyvä oppiminen tarkoittaa, että malli ei vain ”muista” dataa, vaan oppii yleistettäviä sääntöjä. Oppimisvirheet syntyvät, kun tämä tasapaino ei onnistu.

Nämä virhetyypit voivat esiintyä yksittäin tai yhdessä, ja monimutkaisissa malleissa ne voivat kasautua ja vahvistaa toisiaan, mikä voi johtaa nopeaan suorituskyvyn heikkenemiseen eli mallin romahdukseen[9].

Malliromahduksen riskiä voidaan pienentää huolellisella mallin suunnittelulla, edustavan ja laadukkaan koulutusdatan valinnalla sekä tarkalla oppimisprosessin seurannalla, jotta virheet voidaan havaita ajoissa ja korjata.[18]

Erimielisyys todellisista vaikutuksista

[muokkaa | muokkaa wikitekstiä]

Teoreettiset ja empiiriset analyysit ovat osoittaneet, että tulevaisuuden generatiiviset mallit tarvitsevat riittävän määrän todellista tuoretta dataa jokaisessa autofaagisen silmukan sukupolvessa[6]. Ilman sitä tulevaisuuden generatiiviset mallit ovat tuomittuja menettämään asteittain laatua (tarkkuutta) tai monimuotoisuutta (kykyä tunnistaa ja tuottaa harvinaisempia tapauksia koulutusdatasta)[6].

Kuvassa verrataan kahta tekoälymallien koulutusstrategiaa: datan korvaamista (vasen) ja datan kertymistä (oikea). Datan korvaamisessa uusi data syrjäyttää vanhan, mikä nostaa testivirhettä (test loss) ja heikentää mallin suorituskykyä. Datan kertymisessä vanhaa dataa täydennetään uudella, mikä pitää testivirheen vakiona ja ylläpitää suorituskykyä. Kuva perustuu Gerstgrasser et al. (2024) tutkimukseen.[19]

Jotkut tutkijat ja kommentoijat varoittavat, että malliromahdus voisi perustavanlaatuisesti uhata tulevaa generatiivisen tekoälyn kehitystä: kun tekoälyn tuottamaa dataa jaetaan internetissä, se väistämättä päätyy tuleviin koulutusaineistoihin, jotka usein kerätään indeksoimalla internettiä. Jos tekoälyn tuottamaa, mutta merkitsemätöntä sisältöä (niin sanottua tekoälyroskaa) kertyy liikaa koulutusaineistoihin, tekoäly alkaa oppia yhä enemmän omista tuotoksistaan. Tämä voi johtaa malliromahdukseen – ja vaikeasti korjattavaan laadun heikkenemiseen.[20]

Vuonna 2024 julkaistu Gerstgrasserin ym. tutkimus kuitenkin haastoi käsityksen, että tekoälymallit väistämättä menettäisivät tehokkuutensa, kun niitä koulutetaan jatkuvasti niiden omilla tuotoksilla[19]. Tutkimuksen mukaan mallien suorituskyky voi säilyä, kunhan koulutusdataa kertyy ajan myötä eikä vanhaa dataa korvata kokonaan uudella[19]. Tutkijat huomauttavat, että dataa tyypillisesti kertyy ajan myötä ja että vanhaa dataa ei poisteta jatkuvasti[21]. Koska tämä kertymismalli on realistisempi, heidän mukaansa malliromahduksen todellinen vaikutus ei välttämättä ole niin katastrofaalinen kuin on pelätty[21]. Tämä osoittaa, että mallit voivat säilyttää ja jopa parantaa suorituskykyään, kun niille tarjotaan jatkuvasti uutta ja monipuolista dataa[19].

Vaihtoehtoiset tutkimussuunnat selvittävät koneoppimiseen perustuvien tunnistimien ja vesileimojen käyttöä mallin tuottaman datan tunnistamiseksi ja suodattamiseksi pois tulevista koulutusaineistoista.[22][23]

Vaikutus kielimalleihin

[muokkaa | muokkaa wikitekstiä]

Guon ym. vuoden 2024 tutkimuksessa osoitettiin, että kielimallien kouluttaminen aiempien mallien tuottamalla synteettisellä datalla heikentää niiden kykyä tuottaa monimuotoista tekstiä[24]. Koulutusdata, joka koostuu pääosin vanhasta, mallien itse tuottamasta aineistosta, johtaa kielen leksikaalisen, syntaktisen ja semanttisen monimuotoisuuden vähenemiseen[24].

Erityisesti luovuutta vaativissa tehtävissä, kuten tarinankerronnassa tai runouden luomisessa, tämä monimuotoisuuden puute voi merkittävästi rajoittaa mallien tuotosten laatua ja omaperäisyyttä[24]. Tämä ilmiö muistuttaa niin sanottua ”rikkinäinen puhelin” -vaikutusta, jossa tieto vääristyy asteittain, kun kielimallit käsittelevät omaa tuotostaan useiden sukupolvien ajan[25]. Mohamedin ym. vuoden 2025 tutkimuksen mukaan kielimalleilla tapahtuva iteratiivinen generointi johtaa väistämättömään merkityssisällön rappeutumiseen, jota voidaan kuitenkin osittain hillitä tarkasti suunnitelluilla kehotteilla ja lämpötila-asetuksilla[25].

Datan suojaaminen ja myrkytys

[muokkaa | muokkaa wikitekstiä]

Yksi keino ehkäistä mallien hallitsematonta yleistymistä tai käyttöä luvattomasti on datan tahallinen vääristäminen[26]. Datamyrkytys on koneoppimisen torjuntamuoto, jossa koulutusdataa (kuten kuvia tai tekstiä) muokataan siten, että koneoppimismallit eivät kykene oppimaan siitä luotettavasti[26].

Taiteilijat ovat käyttäneet datamyrkytystä keinona suojella teostensa eheyttä ja estää generatiivisten mallien kykyä jäljitellä heidän tyyliään[26]. Myrkytyksiä on tyypillisesti kahta tyyppiä[26]:

  • puolustuksellinen, jossa kuvan tietoja muutetaan teoksen eheyden suojelemiseksi estämällä luvaton kopiointi ja jäljitelmät
  • hyökkäävä, jossa kuvan tietoja muutetaan generatiivisen tekoälyn luotettavuuden tai toimivuuden heikentämiseksi.
  1. a b Käsitteelle on myös ehdotettu muita nimityksiä, kuten tekoälyn sisäsiittoisuus, (engl. AI inbreeding)[1][2] tekoälyn kannibalismi (engl. AI cannibalism)[3][4], habsburgilainen tekoäly (engl. Habsburg AI)[5] ja mallin autofagia-häiriö (engl. Model Autophagy Disorder, MAD)[6][7][8].
  1. 'Generative inbreeding' and its risk to human culture VentureBeat. 26.8.2023. Arkistoitu 16.4.2025. Viitattu 16.4.2025. (englanniksi)
  2. AI could choke on its own exhaust as it fills the web Axios. 28.8.2023. Arkistoitu 16.4.2025. Viitattu 16.4.2025. (englanniksi)
  3. AI Cannibalism and the Law Colorado Technology Law Journal. Arkistoitu 16.4.2025. Viitattu 16.4.2025. (englanniksi)
  4. The Curious Case of AI Cannibalism & Possible Solutions Cogito. 26.7.2023. Arkistoitu 16.4.2025. Viitattu 16.4.2025. (englanniksi)
  5. Inbred, gibberish or just MAD? Warnings rise about AI models France 24. 5.8.2024. Arkistoitu 16.4.2025. Viitattu 16.4.2025. (englanniksi)
  6. a b c Alemohammad, Sina; Casco-Rodriguez, Josue; Luzi, Lorenzo; Humayun, Ahmed Imtiaz; Babaei, Hossein; LeJeune, Daniel; Siahkoohi, Ali; Baraniuk, Richard G.: Self-Consuming Generative Models Go MAD. (arkistoitu 19.4.2024) The Twelfth International Conference on Learning Representations, 2024. arXiv:2307.01850 Artikkelin verkkoversio. (PDF) Viitattu 16.4.2025. (englanniksi)
  7. Model Autophagy Disorder the Livescu Initiative on Neuro, Narrative and AI. Arkistoitu 16.4.2025. Viitattu 16.4.2025. (englanniksi)
  8. Generative AI Goes 'MAD' when Trained on AI-Created Data over Five Times Tom's Hardware. 12.7.2023. Arkistoitu 12.7.2023. Viitattu 16.4.2025. (englanniksi)
  9. a b c d e f g h i j k Shumailov, Ilia; Shumaylov, Zakhar; Zhao, Yiren; Papernot, Nicolas; Anderson, Ross; Gal, Yarin: AI models collapse when trained on recursively generated data. Nature, heinäkuu 2024, nro 8022, s. 755–759. doi:10.1038/s41586-024-07566-y (englanniksi)
  10. Shumailov, Ilia; Shumaylov, Zakhar; Zhao, Yiren; Gal, Yarin; Papernot, Nicolas; Anderson, Ross: The Curse of Recursion: Training on Generated Data Makes Models Forget. arXiv, 31.5.2023. arXiv:2305.17493 doi:10.48550/arXiv.2305.17493 (englanniksi)
  11. Ozsevim, Ilkhan: Research finds ChatGPT & Bard headed for 'Model Collapse' AI Magazine. 20.6.2023. BizClik Media. Arkistoitu 10.3.2024. Viitattu 10.3.2024. (englanniksi)
  12. Mok, Aaron: A disturbing AI phenomenon could completely upend the internet as we know it Business Insider. 29.8.2023. Arkistoitu 29.8.2023. Viitattu 10.3.2024. (englanniksi)
  13. Hallamaa, Teemu: Tekoälyn tuottaman sisällön pelätään saastuttavan internetin – tutkijat ennustavat synteettisen sisällön horjuttavan tulevia kielimalleja Yle Uutiset. 4.7.2023. Arkistoitu 10.3.2024. Viitattu 10.3.2024.
  14. Dohmatob, Elvis & Feng, Yunzhen & Kempe, Julia: Model Collapse Demystified: The Case of Regression. arXiv, 12.2.2024. arXiv:2402.07712 doi:10.48550/arXiv.2402.07712 (englanniksi)
  15. Wyllie, Timothy; Shumailov, Ilia; Papernot, Nicolas; Anderson, Ross; Gal, Yarin: Early Model Collapse: A Study on the Initial Phases of Model Degradation. arXiv, 15.3.2024. arXiv:2403.07567 doi:10.48550/arXiv.2403.07567 (englanniksi)
  16. Barocas, Solon & Hardt, Moritz & Narayanan, Arvind: Fairness and Machine Learning: Limitations and Opportunities. The MIT Press, 2023. ISBN 978-0-262-04861-3 (englanniksi)
  17. Obermeyer, Ziad; Powers, Brian; Vogeli, Christine; Mullainathan, Sendhil: Dissecting racial bias in an algorithm used to manage the health of populations. Science, 25.10.2019, 366. vsk, nro 6464, s. 447–453. PubMed:31649194 doi:10.1126/science.aax2342 (englanniksi)
  18. Dohmatob, Elvis & Feng, Yunzhen & Kempe, Julia: Model Collapse Demystified: The Case of Regression. arXiv, 12.2.2024. arXiv:2402.07712 doi:10.48550/arXiv.2402.07712 (englanniksi)
  19. a b c d Gerstgrasser, Matthias; Schaeffer, Rylan; Dey, Apratim; Rafailov, Rafael; Sleight, Henry; Hughes, John; Korbak, Tomasz; Agrawal, Rajashree; Pai, Dhruv; Gromov, Andrey; Roberts, Daniel A.; Yang, Diyi; Donoho, David L.; Koyejo, Sanmi: Is Model Collapse Inevitable? Breaking the Curse of Recursion by Accumulating Real and Synthetic Data. arXiv, 1.4.2024. arXiv:2404.01413 Artikkelin verkkoversio. Viitattu 16.4.2025. (englanniksi)
  20. Claburn, Thomas: What is Model Collapse and how to avoid it The Register. 26.1.2024. Arkistoitu 26.3.2024. Viitattu 11.7.2024. (englanniksi)
  21. a b Claburn, Thomas: Big brains divided over training AI with more AI: Is model collapse inevitable? The Register. 9.5.2024. Arkistoitu 22.1.2025. Viitattu 11.7.2024. (englanniksi)
  22. Kirchenbauer, John; Geiping, Jonas; Wen, Yuxin; Katz, Jonathan; Miers, Ian; Goldstein, Tom: A Watermark for Large Language Models. (Proceedings of Machine Learning Research) Proceedings of the 40th International Conference on Machine Learning, 3.7.2023, 202. vsk, nro 17061–17084, s. 17061–17084. PMLR. Artikkelin verkkoversio. Viitattu 22.6.2024. Arkistoitu 1.1.2025. (englanniksi)
  23. Aaronson, Scott: My AI Safety Lecture for UT Effective Altruism Shtetl-Optimized. 29.11.2022. Arkistoitu 17.2.2025. Viitattu 16.4.2025. (englanniksi)
  24. a b c Guo, Yanzhu; Shang, Guokan; Vazirgiannis, Michalis; Clavel, Chloé: The Curious Decline of Linguistic Diversity: Training Language Models on Synthetic Text. arXiv, 16.4.2024. arXiv:2311.09807 doi:10.48550/arXiv.2311.09807 (englanniksi)
  25. a b Mohamed, Amr; Geng, Mingmeng; Vazirgiannis, Michalis; Shang, Guokan: LLM as a Broken Telephone: Iterative Generation Distorts Information. arXiv, 27.2.2025. arXiv:2502.20258 doi:10.48550/arXiv.2502.20258 Artikkelin verkkoversio. Viitattu 26.3.2025. (englanniksi)
  26. a b c d The Nightshade Team: What is Nightshade Nightshade. 2024. Chicago: Chicagon yliopisto. Arkistoitu 11.6.2024. Viitattu 18.6.2024. (englanniksi)