William Occam a 14. század első felében élt, és a neki tulajdonított szabály szerint „a dolgokat nem kell a szükségesen felül megsokszorozni”. Martha és William Kneale logikatörténészek szerint pontosan ezt ugyan sosem mondta, viszont egy tanulmányában az olvasható, hogy „szükségtelenül nem szabad pluralitást feltételezni”. De akárhogy is fogalmazzunk, a lényeg mindenképpen az, hogy az Occam borotvája néven ismertté vált heurisztikát az idők folyamán a legkülönbözőbb területeken alkalmazták.
A pszichológus Conway Lloyd Morgan például az állati viselkedéssel kapcsolatos kutatásokkal kapcsolatban még a 19. század végén azt javasolta, hogy a különböző lehetséges magyarázatok közül mindig „a pszichológiai evolúció és fejlődés alacsonyabb fokán” álló megoldást válasszuk. Értsd: például felesleges feltételeznünk, hogy egy ló valóban tud számolni, amennyiben a megfigyelések magyarázatához elég, ha érzékenyen reagál a gazdája akaratlan jelzéseire (miként „Hans, az okos ló” esetében is történt). És ez, valljuk be, ez meggyőző érvelésnek is tűnik. . Vagy ott van a LGM-ek esete. Amikor a rádiócsillagászok 1967-ben különösen viselkedő, távoli, szabályosan sugárzó jelforrásokat fedeztek fel, akkor ezeket (legfeljebb félig tréfából) LGM1-nek, LGM2-nek stb. nevezték el, ahol is a betűszó a kis zöld emberke (Little Green Mae) rövidítése. Ugyanis kezdetben elképzelhetőnek tartották, hogy egy másik civilizáció „kozmikus világítótornyai”. Később viszont arra a következtetésre jutottak, hogy ez túlságosan bonyolult lenne így, mert túlságosan sok mindent kellene megmagyarázni (kezdve azon, hogy miként alakulhatott ki egy ilyen idegen értelem, és befejezve azon, hogy miért pazarolnak időt és energiát ilyen jeladókra). Tehát megvizsgálták, hogy az ismert fizikai törvények elegendőek-e egy ilyen kozmikus objektum létrejöttéhez, és azt találták, hogy igen: erős elektromágneses térben gyorsan forgó neutroncsillagokkal (=pulzár) van dolgunk. Azóta már tudjuk, hogy valóban így van – csak éppen nem azért, mert ezt egyszerűbb feltételezni, hanem azért, mert az LGM-ek olyan jelenségeket is produkálnak, amely holmi mesterséges jelzőfényektől nem lenne elvárható. Viszont: egyfelől vegyük észre, hogy ha bármilyen kétes eredetű jelet fogunk (eltekintve az olyanoktól, mint amilyen az első néhány ezer prímszám lenne), úgy mindig egyszerűbb lesz egy más magyarázatot találni. Másfelől: két különböző kérdést kell feltennünk az Occam borotvája elvvel kapcsolatban.
Az egyik az, hogy mi számít egyszerűbb feltételezésnek? Bizonyos esetekben ez valóban könnyen eldönthetőnek látszik, valójában azonban mindig függ az alapfeltételezéseinktől. Hogy egy szélsőséges példát hozzak (természetesen némiképpen leegyszerűsítve): a realisták arra hivatkoznak, hogy egyszerűbb és kevesebb feltételezést igényel az, hogy igenis léteznek rajtam kívül is dolgok: az asztal, amelynél ülve ezeket a sorokat írom; a többi ember vagy éppen a Világmindenség, és így tovább, és ezért tudom őket megfigyelni. Az idealisták viszont azzal érvelnek, hogy egyszerűbb az a modell, ahol nem kell ilyen komplikált tárgyak, jelenségek stb. létezését feltételezni: elég, ha a saját létezésem tényét fogadom el (míg a realistáknak a saját létezésem mellett a világ létezésére is magyarázatot kell adniuk). Ráadásul, amikor arra hivatkozunk, hogy valaminek a feltételezése bonyolultabb (vagy éppen kevésbé bonyolult), mint az ellentéte, akkor valójában nem arról beszélünk, hogy milyen a világ, hanem arról, hogy mi mit gondolunk, hogy milyen. És ismét csak ráadásul: miért is tételeznénk fel, hogy az elegánsabb leírás (még ha könnyebben kezelhető is), jobb?
Nem hinném, hogy a modern fizikát és Descartes fizikáját párhuzamba állítva az utóbbira szavaznánk, amelyben az anyag és a mozgás elég kellett volna, hogy legyen minden magyarázathoz bármiféle kölcsönhatás kizárásával. A modern fizika viszont a komplikált leírásért cserébe átfogó a valósághoz jól illeszkedő magyarázatokat ígér. De: ez nem jelenti azt, hogy a világot is komplikáltnak tartja.
A filozófián belül meg szokás különböztetni a szintaktikai (=elegancia: hány alapelvre van szükségünk és ezek mennyire konzisztensek), illetve az ontológiai egyszerűséget (=parszimónia: hány dolog létezését tételezi fel az elmélet – lényegében erre vonatkozik az Occam-elv is). Ennek analógiájára megkülönböztethetjük, hogy mennyire egyszerű egy elmélet (mekkora és mennyire összetett matematika apparátust használ; mennyire egyszerűen jutunk el az eredményig stb.); és, hogy egyszerű az eredmény (egy olyan univerzum-modell például, amelyben semmi más sincs, csak hidrogén, értelemszerűen egyszerűnek számít függetlenül attól, hogy mennyire bonyolult egyenletek vezettek el hozzá).
Ami leginkább azért érdekes a számunkra, mert innentől kezdve a tudomány és valóság viszonyát leíró modelleket négy kategóriába sorolhatjuk:
- egyszerű szabályok ---> komplikált eredmény: a Stephen Wolfram-féle „újfajta tudomány” azzal foglalkozik, hogy bizonyos sejtautomaták esetében nagyon egyszerű szabályok is nagyon komplex jelenségekhez vezethetnek, és az erre a megfigyelésre épülő „digitális filozófia” szerint maga az univerzum is felfogható 3D-s sejtautomataként (sőt, nem csak felfogható, hanem az is), ahol alig néhány egyszerű szabály elég a minket körülvevő, igencsak komplikált valóság legenerálásához
- a leírás bonyolult, a végeredmény egyszerű, ahogyan azok a fizikusok is remélik, akik meg vannak győződve róla, hogy létezik a TOE (Theory of Everything). Meg szokás különböztetni a fundamentális (alapvető) törvényeket és a másodlagosakat, melyeket csak kényelmi megfontolásokból kezelünk úgy, mintha "igazi" törvények lennének, a TOE léte pedig azt jelentené, hogy csupán egyetlen fundamentális törvény van
- a leírás és a végeredmény egyaránt bonyolult: talán ez a helyzet, amennyiben mégsem lehetséges valamiféle Mindenség Elmélete. Az eddigiekhez: a „mainstream” meg a digitális felfogáshoz képest teljesen másmilyen lenne egy ilyen fizika
- a leírás és a végeredmény egyaránt egyszerű – ez azonban nem fordulhat elő egy olyan Világmindenségben, mint a miénk, amely elég összetett ahhoz, hogy az értelem megjelenjen benne. A gyenge antrópikus elv kizárja, hogy igaz legyen
A válasz pedig minden bizonnyal az, hogy ennek történeti okai vannak. Az ókori görög poliszok politikai életében részt vevő polgárok első lépésben egyfajta kritikus szemléletet alakítottak ki a társadalmi rendet lehetővé tevő törvényeket tanulmányozva; majd pedig a második lépésben ugyanezzel a szemlélettel kezdtek a „természeti törvények” felé fordulni. Jellemző, hogy Hérakleitosz i.e. 500 körül arról beszélt, hogy a Nap azért nem lépi túl a neki szabott korlátokat, mert máskülönben „a törvény szolgálói megtalálják”. Természetesen nem volt szükségszerű, hogy a társadalmi törvények létének feltételezése elvezessen a természeti törvényekéhez, de végső soron nem is meglepő.
Ugyanekkor a korai görög filozófusok olyan egyetlen és kizárólagos tényezőt vagy elemet is kerestek, amely mindenre magyarázatul szolgált volna. Tálész mindent a „vízre”; míg Anaximenész mindent a „levegőre”vezetett vissza stb. A talán legközismertebb megoldás pedig a püthagoreánusoké volt, akik Arisztotelész szerint „meg voltak róla győződve, hogy a [matematika] princípiumai minden dolog princípiumai”, és a jelek szerint ez meggyőződés a modern természettudományokban is tovább él. És bár volt egy ezzel ellentétes felfogás is (Hérakleitosz úgy gondolta, hogy a változás a kulcsfogalom, mivel „minden változik”), hosszú távon a meghatározó az egyetlen egyszerű ok feltételezése lett. És ezzel ott is vagyunk Occam borotvájánál, amely – amennyiben a többi feltétel azonos – az ontológiai egyszerűségre szavaz, vagyis arra, hogy a kevesebb létező dolog feltételezésével élő elméletet válasszuk. Merthogy ugye az egyszerűbb a szebb…
De elképzelhetőek lennének az ógörög típusú egyszerűségre való törekvés helyett más megközelítések is a természettudományokon belül.
Azzal, hogy a megismerés, mint olyan, nem lehetséges, már csak azért sem érdemes foglalkozni, mert ebből kiindulva nem lehetne tudományt csinálni. Viszont még mindig marad két további lehetőségünk: nevezzük talán úgy őket, hogy
réteges-, illetve szigetmodell.
Az előbbi szerint nincs egyetlen, átfogó törvényekkel leírható fizikai valóság. Ehelyett a különböző szinteken különböző jellegű (és ennek megfelelően különböző szabályok által leírható) törvényszerűségek érvényesek. A biológiának még akkor is mások a törvényei, mint a fizikának, ha a fizika határozza meg azt a keretrendszert, amelyen belül az élet „működőképes” marad. Innentől kezdve persze az válik a tudományos kutatás egyik alapkérdésévé, hogy hogyan különböztethetjük meg egymástól az egyes szinteket, és hol húzzuk meg a határokat. És ez egyáltalán nem egyszerű. Miként Ilya Prigogine és Isabelle Stengers írják Az új szövetség című könyvükben, tekintettel a Planck-állandóra, a 20. század elejéhez képest „többé nem képzelhetjük úgy el az atomot, mint holmi kicsiny bolygórendszert.” Elvégre más mérettartomány = más fizikai törvények.
Illetve Einstein óta viszont abból indulunk ki, hogy „a fizikai tárgyak viselkedése… világosan különbözik aszerint, hogy sebességük közelíti-e a fényét”. Márpedig a 19. században még ugyan kinek jutott volna eszébe, hogy a fizika így, a sebesség alapján is „skálázható”? És miért is ne számítanánk arra, hogy a jövőben is hasonló meglepetések érhetnek minket.
A szigetmodellnél pedig az egységesség és egyszerűség helyett abból indulunk ki, hogy mivel nincs egyetlen, átfogó magyarázat, ezért bár egyes területekről szerezhetünk viszonylag megbízható tudást, abból, hogy mondjuk képesek vagyunk leírást adni a kvantumfizika egy részéről, nem következik, hogy ezt az egész kvantumfizikával is meg tudjuk csinálni, és mindig maradhatnak még felfedezetlen szigetek. Egy bizonyos részterület ismeretéből nem következik (és miért is következne), hogy az egészet is értjük?
És hogy melyik modell a helyes? A gyenge antrópikus elv arra ad magyarázatot, hogy miért éppen úgy van finomra hangolva az Univerzum, ahogy, de ezt éppen, hogy nem az átfogó elvek, hanem a részletek szintjén teszi. Tehát kimutatható például, hogy ha csak nagyon kicsit eltérőek lettek volna a kiindulási feltételek, akkor ma a Világmindenség kizárólag hidrogénatomokból állna – és így nem jöhetett volna létre benne a környezete megfigyelésére képes értelem.
Az viszont nem mutatható ki, hogy a mi létrejöttünket lehetővé tevő Világmindenség kialakulásához valamiféle egyszerűséget kellene feltételeznünk. Tehát: egyfelől miért is tennénk. Másfelől viszont azt is vegyük észre, hogy még ha egy adott pillanatban úgy tűnne is, hogy az Univerzumot az egyszerűség (vagy éppen bonyolultság) jellemzi, utána jöhet egy elmélet, amely megváltoztatja ezt. Az arisztotelészi fizikában az égi és a földi testekre különböző szabályok vonatkoztak – aztán jött Galilei, és megmutatta, hogy ezek a különbségek nem léteznek. A newtoni fizika a látszat szerint (miként már említettük) mindent le tudott írni – de aztán kiderült, hogy korántsem minden körülmények között érvényes – és így tovább.
Vagyis valójában eldönthetetlen, hogy melyik írja le jól a valóságot, és legfeljebb arról van értelme beszélni, hogy aktuálisan éppen melyik tűnik a leghasználhatóbbnak – Occam-elv ide vagy oda.
Nincsenek megjegyzések:
Megjegyzés küldése