13.-15. novembril 2009 oli meil majandusteaduskonnas lihtsuse ja tõepära konverents (Workshop on simplicity and likelihood), organiseerijateks Itzhak Gilboa ja Larry Samuelson. Külalisi oli umbes kakskümmend.
Konverents oli huvitav segu ökonomeetria teooriast ja otsustusteooriast. Esinejate hulgas oli lisaks majandusteadlastele arvutiteadlasi, füüsikuid ja statistikuid. Teemad olid väga abstraktsed ja matemaatilised, seetõttu minu jaoks väga huvitavad. Reedel oli mul päev loengutega täidetud, nii et konverentsile jõudsin alles laupäeva hommikul.
Laupäeva esimene esineja oli Joe Halpern Cornellist. Ta rääkis põhjuslikkusest ja esitas selle matemaatilise kirjelduse, illustreerides seda näidetega filosoofiast ja õigusteadusest. Põhjuslikkus, süü ja vastutus on matemaatiliselt erinevad mõisted (vähemalt Halperni mudelis) ja üks kriteeriume põhjuste järjestamisel on, kui palju ebanormaalsemaks see maailma muudab. Halperni näited on järgnevad:
Billy ja Sue viskavad kividega pudelit. Mõlemad on täpse käega, aga Sue kivi jõuab esimesena kohale ja purustab pudeli. Billy kivi oleks selle ka purustanud, kui Sue oma selle terveks jätnud oleks. Nii et kui Sue poleks visanud, siis oleks pudel ikka purunenud. Kas võib öelda, et Sue kivivise on pudeli purunemise põhjus? (Jah)
Võrdluseks eelmisele näitele: kaks süütajat viskavad põleva tiku metsa. Ühe süütaja tulekahju suudavad päästjad kustutada, aga kui mets kahest otsast põleb, siis ei suuda. Nii et metsa mahapõlemiseks on vaja mõlema süütaja tikku. Kas võib öelda, et süütaja A on metsa mahapõlemise põhjustaja? (Ei) Kas abstraktne põhjuslikkuse struktuur selles ja eelmises näites on sama? (Ei) Kui metsa mahapõlemiseks piisab ainult ühe süütaja tikust ja mõlemad viskavad tiku, siis kas süütaja A on metsa mahapõlemise põhjustaja?
Billy haigestub mittesurmavasse haigusesse pühapäeval. Kui esmaspäeval tööl olev arst talle ravimit annab, on Billy teisipäeval terve. Kui esmaspäeva arst teda ei ravi, aga teisipäeva arst ravib, on Billy kolmapäeval terve. Üks ravimidoos ravib, aga kaks on surmav. Kas teisipäevase arsti mitteravimine on Billy kolmapäevase elusoleku põhjus? Aga esmaspäevase arsti mitteravimine?
Kas see, et ma sind ei tulista, on põhjus, miks sa elus oled?
Keskaegne kuningriik. Mõrtsukas plaanib kuningat mürgitada. Kuninga nõunik kahtlustab seda ja annab kuningale vastumürki. Mitmesugustel asjaoludel ei õnnestu mõrtsukal kuningale mürki anda. Kas vastumürgi andmine on kuninga elusolemise põhjus?
David Schmeidler rääkis aksiomaatilisest lähenemisest lihtsusele ja põhjuslikkusele. Sarnaselt paljude otsustusteooria artiklitega postuleeris Schmeidler aksioomid, mida reaalsuse kohta käivate mudelite paremusjärjestus peaks rahuldama ja tuletas neist selle järjestuse funktsionaalse kuju. Seda funktsiooni võib vaadelda ka kui mudeli valiku kriteeriumi.
David Wolpert NASAst rääkis oma tõestusest, et ka deterministlikus ja lõplikus universumis on Laplace’i hüpotees vale. Laplace väitis, et kui talle anda piisavalt infot praeguse kõigi osakeste asukoha ja liikumise kohta universumis, siis võib ta arvutada kogu universumi tuleviku ja mineviku. Meie reaalses universumis on Laplace’i hüpotees vale juba Heisenbergi määramatuse printsiibi kohaselt – pole võimalik samaaegselt ennustada osakese asukohta ja liikumist. Aga hüpoteetilises deterministlikus ja lõplikus universumis, nii nagu seda nähti Laplace’i ajal?
Wolpert alustas vaatluse ja ennustuse defineerimisega. Nende mõningaid ühiseid jooni koondava tegevuse nimetas ta järeldamiseks ja defineeris järeldusmasina – objekti, millele me võime esitada maailma kohta jah/ei küsimusi ja saada vastuseks ühe biti 0 või 1, vastavalt siis ei või jah. Järeldamine on nii vaatluse kui ennustuse jaoks tarvilik, aga mitte piisav. Wolperti põhiline teoreem oli, et iga sündmuse kohta eksisteerib järeldusmasin, mis suudab seda sündmust järeldada, aga iga järeldusmasina jaoks on olemas sündmus, mida see masin järeldada ei suuda.
Wolperti näited olid sarnase struktuuriga, mida matemaatikas nimetatakse Cantori diagonalisatsiooniargumendiks. Arvutiteaduses on sarnane olukord Turingi masina puhul – on olemas sündmus, et see masin peatub. Aga masin ei suuda vastata küsimusele, kas ta peatub.
Järeldusmasina puhul nimetagem V-ks nende maailma arenguteede hulka, kus masin homme vastab täna küsitud küsimusele jah. Homseks on need arenguteed natuke läbitud, nimetagem samade arenguteede hulka homme V’-ks. Masin ei suuda õigesti vastata küsimusele, kas me oleme homme väljaspool hulka V’. Kui masin ütleks jah, siis ta eksiks, sest kui ta ütleb jah, oleme me hulgas V’, aga küsimus oli, kas me oleme väljaspool seda hulka. Kui masin ütleks ei, siis ta eksiks, sest me oleme nüüd väljaspool hulka V’ ja küsimus oli, kas me oleme väljaspool seda hulka.
Kuna ükski järeldusmasin ei suuda kõigile maailma kohta käivatele küsimustele õigesti vastata, siis ei ole olemas masinat, mis suudaks ennustada kogu universumi tulevikku. Kaval inimene võib küsida, et kui iga sündmuse kohta on masin, mis suudab seda ennustada, siis kas me ei võiks võtta piisavalt palju erinevaid masinaid ja lasta igal neist ennustada jupikest universumit, saades kokku kogu tuleviku ennustuse. Veel kavalam vastaks sellele, et igasuguse masinate kogumi võime me ümber nimetada üheks masinaks, seega eelnev võimatusteoreem kehtib.
Pühapäeva esimese esineja Andrew Barroni teema oli informatsiooniteooria, lihtsus ja tõepära. Ta rääkis, et andmehulga keerukust võib vaadelda kui bittide arvu, mida selle üksüheseks edasiandmiseks vaja läheb. See on arvutiteaduses kaua teada olnud. Barroni uudne väide oli, et tõenäosust võib samuti vaadelda kui bittide arvu koodis ja kodeerimisviise kui tõenäosusjaotusi. Ta rakendas seda vaatepunkti masinõppimise näitele.
Masinõppimisel antakse arvutile kõigepealt mingi treeningandmehulk, mis on võetud mingist tõenäosusjaotusest. Selle põhjal peab masin ennustama andmeid mingist teisest tõenäosusjaotusest ehk üldistama oma varasemat teadmist. Inimestele on see tavaline tegevus, aga arvutite puhul on sellise üldistusvõime tekitamine keeruline.
Aris Spanos rääkis mudelite valikust andmete seletamiseks. Statistikud ja ökonomeetrikud kasutavad enamjaolt lähendamisteooriat ja püüavad leida mudelit, mis kõige paremini andmetele vastab. Spanose kohaselt on see vale lähenemine ja tal oli palju näiteid, kus sellega valesid tulemusi saadakse. Oluline pole Spanose sõnul mitte lähenduse täpsus ehk väike vahe mudeli ja andmete vahel, vaid selle vahe (mudeli jäägi, model residual) mittesüstemaatilisus. Näiteks n andmepunkti võime me lähendada (n-1) järku polünoomiga ja saada täpse vastavuse, aga see mudel on ennustuste või järelduste seisukohast väärtusetu.
Statistilisi mudelivalikukriteeriume rakendatakse eelnevalt valitud mudelite klassis. Kui see klass on aga valesti valitud, siis valikukriteeriumi rakendamine selle sees annab vale tulemuse. Iga mudeli puhul peaks kontrollima selle statistiliste eelduste täidetust ja kui need pole täidetud, siis valima mõne muu mudeli hoolimata sellest, kui lähedane antud mudel andmetele on.
Larry Samuelson rääkis inimeste lihtsuse-eelistustest. Näiteks rida 010101 jätkaks enamik inimesi paariga 01 ja rida 1,2,4,8 arvuga 16. Aga on palju teisi mudeleid, mis sobiksid nende ridade algusega ja annaksid järgnevaks tulemuseks hoopis midagi muud. Nii et miks siis on inimeste hulgas kujunenud selline komme või norm, et rida 010101 tuleks jätkata paariga 01?
Samuelsoni vastuseks oli lihtsus. Kuna konverentsi jooksul oli esitatud palju erinevaid lihtsuse ja keerukuse definitsioone, ei hoidnud ka Samuelson end tagasi ja kasutas enda oma. Tema põhiline tulemus oli lihtsuse-eelistuste matemaatilise vormi esitamine. Kõigepealt valib otsustaja erinevate andmeid kirjeldavate mudelite vahel nende tõepära järgi ja seejärel viiki jäänud parimate mudelite vahel nende lihtsuse järgi. Tuleb välja, et niimoodi objektiivsele valikule subjektiivsust lisades saadakse parem tulemus, kui ainult objektiivset tõepärakriteeriumi kasutades.