A következő címkéjű bejegyzések mutatása: fizika. Összes bejegyzés megjelenítése
A következő címkéjű bejegyzések mutatása: fizika. Összes bejegyzés megjelenítése

2013. augusztus 29., csütörtök

Miért nem semmi van az Univerzum helyett?

Három amerikai fizikus: Victor Stenger, Frank Wilczek és Lawrence Krauss szerint azért, mert a nemlét ”tökéletesen szimmetrikus”, és a szimmetrikus rendszereknek olyan a természete, hogy kevésbé szimmetrikus, viszont jóval komplexebb formációkká bomlanak le, miközben spontán szimmetriasértés történik. A valóságban persze – talán mondani sem kell – ennél jóval bonyolultabb (vagy jóval egyszerűbb, ha úgy jobban tetszik) a válasz. Ugyanekkor Peter van Inwagen amerikai filozófus abban véli felfedezni a megoldást, hogy – Leibniz valahai elképzeléseivel ellentétben – nem az szorul magyarázatra, hogy miért létezik egyáltalán valami a semmi helyett, hanem az lenne a meglepő, ha nem így lenne. Az ugyanis, hogy semmi sem létezik, csupán egyféleképpen lehetséges, az viszont, hogy van valami, nagyon is sokféleképpen  - tehát szerinte ez a valószínűbb.
Ami persze nem védhető álláspont, hiszen összekeveri a lehetőségek számát a valószínűséggel. Ezzel az erővel az unikornissal kapcsolatban is mondhatnánk azt, hogy csupán egyféleképpen nem létezhet, míg számos más módon igen, és ezért inkább számítanánk arra, hogy találkozni fogunk vele, mint arra, hogy nem.
De a fentebb említett, a fizika sajátosságaira építő magyarázattal is gondok vannak. Erről Peter Lynds azt mondja, hogy bár a szuperszimmetria azt jelenti, hogy „tökéletesen invariáns a transzformációkra”, azt azért legalábbis nehéz megérteni, hogy miként rendelhetünk tulajdonságokat (mint amilyen a szuperszimmetria is) a semmihez, hiszen az – lévén semmi – nem rendelkezik ilyesmivel. És ami még ennél is nagyobb probléma (teszem hozzá én), hogy még ha elfogadnánk is a fizikusok magyarázatát, rögtön jöhetne is a következő kérdés, vagyis az, hogy de hát miért instabil a szuperszimmetria a kevésbé szabályos elrendezésekhez képest? És ha ezt megmagyaráznánk, akkor az, hogy és az miért van úgy, ahogy?
És így tovább ad infinitum.
Amivel kapcsolatban érdemes kiemelni, hogy a „miért létezik a világ” típusú kérdések valójában két különböző kategóriába tartoznak.  A dolog elvi vetületével, a „miért”-tel tipikusan a filozófia foglalkozott, és a válasz keresésekor a logikára koncentrált, vagyis arra, hogy a kijelentések/leírások koherensek és ellentmondásmentesek kell, hogy legyenek. És mivel ez dönti el, hogy elfogadhatónak ítélik-e, ezért a valósághoz nincs sok köze.
A konkrét Univerzumra vonatkozó kérdés viszont a fizika illetékességi körébe tartozik, és itt a „hogyan”-on van a hangsúly. Azon, hogy milyen fizikai folyamatok, törvények, mechanizmusok vezetnek oda, hogy létrejön a Világmindenség, és ennek megfelelően egyáltalán nem biztos, hogy eközben alkalmas annak a kiderítésére is, hogy miért jön létre a „semmiből valami."
Tehát a továbbiakban én is szétválasztom a két problémát, és nem azzal fogok foglalkozni, hogy milyen folyamatok vezettek a minket körülvevő valóság létrejöttéhez
 (elvégre ez a fizikusok dolga), hanem azzal, hogy miért van egyáltalán nem semmi. Vagy, hogy pontosabban fogalmazzak, és ez persze fontos különbség: azzal, hogy mit és hogyan gondolunk, amikor ezt a problémát járjuk körül.
Meg kezdjük azzal, hogy a filozófiai gondolkodás alapjait lerakó ókori görögök Jim Holt, a Miért létezik a Világ? című könyv szerzőjének megfogalmazásával élve a „racionális kozmológia” úttörői voltak ugyan, ám „soha nem kérdezték meg, hogy miért létezik a világ inkább a helyett, hogy ne létezne semmi.”
Második lépésben a középkori filozófusok arra a következtetésre jutottak, hogy „Isten a ’semmiből’ teremtette a világot… ami azt jelentette a számukra, hogy nem valamiből” kiindulva. És csak ezt követően tűnik fel a színen Leibniz, aki a 18. század elején az „elegendő ok elvét” bevezetve (mely szerint minden dolognak/ténynek megvan az oka) tűnődni kezdett azon, hogy „miért van valami ahelyett, hogy semmi lenne?”
Majd pedig arra a következtetésre jutott, hogy Isten szükségképpen létező (és, lévén szükségképpen létező, ezért nem is kell további magyarázatot keresnünk arra, hogy miért van Isten a helyett, hogy nem lenne). Tehát ismét Holt megfogalmazását átvéve, Leibniz szerint „az Univerzum azért létezik, mert van Isten, az Isten pedig Isten miatt létezik.”
Ez a felfogás már csak azért is érdekes a számunkra, mert Leibniz lényegében azzal érvel, hogy nem valamiféle végtelen regresszus a megoldás, hanem van egy végpont az érvelésben. Amikor ma egy vallásos ember úgy érzi, hogy számára nem kérdés, hogy honnét származik minden, akkor ugyanezt az „önhivatkozást” alkalmazza: azt, hogy valami (esetünkben a Teremtő) önmaga oka. Amire egy szkeptikus persze visszakérdezhet, hogy de mi az oka annak, hogy a Teremtő önmaga oka, majd pedig rámutat, hogy ismét van valami, amit nem tudunk, tehát nem állhatunk meg a kérdések feltételével (miközben a hívő egyszerűen úgy véli, hogy de igen).
Hasonló logikai problémák vannak annak a Peter Lyndsnek a megoldási kísérletével is, aki szerint „csak egy örökkön létező Univerzum léte kínálhat választ a PEO-ra” (PEO=„primordial existential question”). Csak éppen, egyfelől ha tényleg örökkévaló, akkor miért is az? Másfelől: miért is vélnénk úgy, hogy hihetőbb (valószerűbb, elfogadhatóbb stb.) az, hogy a Világmindenség mindig is létezett és mindig is létezni fog, tehát nem is keletkezett soha, mint az, hogy önmaga okaként jött létre? Érdekes módon már Arisztotelész is azt állította az Égboltról, illetve annak objektumairól és mozgásairól, hogy örökkévalóak és romolhatatlanok, de ezt persze ma nem szokás elfogadni.
Viszont amennyiben a „végső választ” mint lehetőséget (alapuljon az akár önhivatkozáson, akár az örökkévalóságon) elutasítjuk, akkor marad a fentebb már említett végtelen regresszus. Vagyis annak a tudomásul vétele, hogy sosem érünk a végére, és ha megválaszolunk egy kérdést, akkor jön a következő; és ha azt is megoldjuk, akkor ismét újabb fog következni. De a „végső válaszhoz” sosem jutunk el.
Mindent egybevetve tehát úgy tűnik, hogy az a logikai/értelmezési rendszer, amely a rendelkezésünkre áll, a PEO-val kapcsolatban mindössze ezt a kétféle válaszlehetőséget kínálja. Ezek természetesen nem arról szólnak, hogy „miért van valami ahelyett, hogy semmi lenne”, hanem arról, hogy mi milyen típusú válaszokat tudunk adni, és hogy ennek megfelelően nem tehetünk mást, mint hogy ezek közül választunk.
És nekem meggyőződésem, hogy érdemes a végtelen regresszusra szavaznunk. Egyfelől ugyanis a modern tudományosság nem a „miért”, hanem a „hogyan” típusú kérdéseken alapul: nem az a kérdés, hogy miért van gravitáció, hanem az, hogy hogyan működik. Newton annak idején büszkén jelentette ki, hogy „nem gyártok hipotéziseket”, és egyik nagy előrelépése éppen az volt, hogy magáról a gravitáció „okáról” semmit sem mondott: kizárólag a működéséről beszélt (és ennek hogyanjáról).  A természettudományokra azóta is ez a jellemző, és a „mért” meg a „hogyan” szétválasztását a matematikai modellek– miként korábban már érintettem – csak még könnyebbé teszik. És bár a kozmológia számára csábítónak tűnhet a „miért van egyáltalán valami” típusú „végső kérdésekkel” való bíbelődés (melyekben a „miért” hangsúlyosan szerepel), ez a részéről ugyanolyan szereptévesztés lenne, mint egy teológiától azt várni, hogy megmagyarázza a gravitációs állandó számszerű értékét.
Másfelől a modern értelemben vett tudomány az egymást követő kérdések megválaszolásának láncolatán keresztül halad. Mondhatni, a végtelen regresszus jellemzi. Amikor majd (talán) meg tudjuk magyarázni, hogy hogyan jött létre az Univerzum (és miért éppen ez) ahelyett, hogy semmi lenne, akkor az ezt magyarázó szabályokat fogjuk górcső alá venni – és így tovább. A matematikában ott vannak legalul a „senki által kétségbe nem vont” axiómák, amelyeket persze bizonyos korlátok között bármikor kétségbe vonhatunk, elhagyhatunk, lecserélhetünk stb. A természettudományban viszont nincs ilyen „végső alap”, és semmi okunk sincs feltételezni, hogy valamikor majd lesz egy olyan pont, amikor azt mondjuk, hogy állj, arra, ami ezután jön, már nem kérdezünk rá.
És éppen ez a szép a természettudományokban. Meg a kozmológiában is.

2013. augusztus 13., kedd

Occam borotvája és a Világmindenség

Az Occam borotvája elv látszólag nagyon egyszerű: azt mondja ki, hogy két elmélet közül mindig azt válasszuk, amelyik egyszerűbb. Az egyszerűség alatt persze legalább kétféle dolgot érthetünk.
William Occam a 14. század első felében élt, és a neki tulajdonított szabály szerint „a dolgokat nem kell a szükségesen felül megsokszorozni”. Martha és William Kneale logikatörténészek szerint pontosan ezt ugyan sosem mondta, viszont egy tanulmányában az olvasható, hogy „szükségtelenül nem szabad pluralitást feltételezni”. De akárhogy is fogalmazzunk, a lényeg mindenképpen az, hogy az Occam borotvája néven ismertté vált heurisztikát az idők folyamán a legkülönbözőbb területeken alkalmazták.
A pszichológus Conway Lloyd Morgan például az állati viselkedéssel kapcsolatos kutatásokkal kapcsolatban még a 19. század végén azt javasolta, hogy a különböző lehetséges magyarázatok közül mindig „a pszichológiai evolúció és fejlődés alacsonyabb fokán” álló megoldást válasszuk. Értsd: például felesleges feltételeznünk, hogy egy ló valóban tud számolni, amennyiben a megfigyelések magyarázatához elég, ha érzékenyen reagál a gazdája akaratlan jelzéseire (miként „Hans, az okos ló” esetében is történt). És ez, valljuk be, ez meggyőző érvelésnek is tűnik. . Vagy ott van a LGM-ek esete. Amikor a rádiócsillagászok 1967-ben különösen viselkedő, távoli, szabályosan sugárzó jelforrásokat fedeztek fel, akkor ezeket (legfeljebb félig tréfából) LGM1-nek, LGM2-nek stb. nevezték el, ahol is a betűszó a kis zöld emberke (Little Green Mae) rövidítése. Ugyanis kezdetben elképzelhetőnek tartották, hogy egy másik civilizáció „kozmikus világítótornyai”. Később viszont arra a következtetésre jutottak, hogy ez túlságosan bonyolult lenne így, mert túlságosan sok mindent kellene megmagyarázni (kezdve azon, hogy miként alakulhatott ki egy ilyen idegen értelem, és befejezve azon, hogy miért pazarolnak időt és energiát ilyen jeladókra). Tehát megvizsgálták, hogy az ismert fizikai törvények elegendőek-e egy ilyen kozmikus objektum létrejöttéhez, és azt találták, hogy igen: erős elektromágneses térben gyorsan forgó neutroncsillagokkal (=pulzár) van dolgunk. Azóta már tudjuk, hogy valóban így van – csak éppen nem azért, mert ezt egyszerűbb feltételezni, hanem azért, mert az LGM-ek olyan jelenségeket is produkálnak, amely holmi mesterséges jelzőfényektől nem lenne elvárható. Viszont: egyfelől vegyük észre, hogy ha bármilyen kétes eredetű jelet fogunk (eltekintve az olyanoktól, mint amilyen az első néhány ezer prímszám lenne), úgy mindig egyszerűbb lesz egy más magyarázatot találni. Másfelől: két különböző kérdést kell feltennünk az Occam borotvája elvvel kapcsolatban.
Az egyik az, hogy mi számít egyszerűbb feltételezésnek? Bizonyos esetekben ez valóban könnyen eldönthetőnek látszik, valójában azonban mindig függ az alapfeltételezéseinktől. Hogy egy szélsőséges példát hozzak (természetesen némiképpen leegyszerűsítve): a realisták arra hivatkoznak, hogy egyszerűbb és kevesebb feltételezést igényel az, hogy igenis léteznek rajtam kívül is dolgok: az asztal, amelynél ülve ezeket a sorokat írom; a többi ember vagy éppen a Világmindenség, és így tovább, és ezért tudom őket megfigyelni. Az idealisták viszont azzal érvelnek, hogy egyszerűbb az a modell, ahol nem kell ilyen komplikált tárgyak, jelenségek stb. létezését feltételezni: elég, ha a saját létezésem tényét fogadom el (míg a realistáknak a saját létezésem mellett a világ létezésére is magyarázatot kell adniuk). Ráadásul, amikor arra hivatkozunk, hogy valaminek a feltételezése bonyolultabb (vagy éppen kevésbé bonyolult), mint az ellentéte, akkor valójában nem arról beszélünk, hogy milyen a világ, hanem arról, hogy mi mit gondolunk, hogy milyen. És ismét csak ráadásul: miért is tételeznénk fel, hogy az elegánsabb leírás (még ha könnyebben kezelhető is), jobb?
 Nem hinném, hogy a modern fizikát és Descartes fizikáját párhuzamba állítva az utóbbira szavaznánk, amelyben az anyag és a mozgás elég kellett volna, hogy legyen minden magyarázathoz bármiféle kölcsönhatás kizárásával. A modern fizika viszont a komplikált leírásért cserébe átfogó a valósághoz jól illeszkedő magyarázatokat ígér. De: ez nem jelenti azt, hogy a világot is komplikáltnak tartja.
A filozófián belül meg szokás különböztetni a szintaktikai (=elegancia: hány alapelvre van szükségünk és ezek mennyire konzisztensek), illetve az ontológiai egyszerűséget (=parszimónia: hány dolog létezését tételezi fel az elmélet – lényegében erre vonatkozik az Occam-elv is). Ennek analógiájára megkülönböztethetjük, hogy mennyire egyszerű egy elmélet (mekkora és mennyire összetett matematika apparátust használ; mennyire egyszerűen jutunk el az eredményig stb.); és, hogy egyszerű az eredmény (egy olyan univerzum-modell például, amelyben semmi más sincs, csak hidrogén, értelemszerűen egyszerűnek számít függetlenül attól, hogy mennyire bonyolult egyenletek vezettek el hozzá).
Ami leginkább azért érdekes a számunkra, mert innentől kezdve a tudomány és valóság viszonyát leíró modelleket négy kategóriába sorolhatjuk:
  • egyszerű szabályok ---> komplikált eredmény: a Stephen Wolfram-féle „újfajta tudomány” azzal foglalkozik, hogy bizonyos sejtautomaták esetében nagyon egyszerű szabályok is nagyon komplex jelenségekhez vezethetnek, és az erre a megfigyelésre épülő „digitális filozófia” szerint maga az univerzum is felfogható 3D-s sejtautomataként (sőt, nem csak felfogható, hanem az is), ahol alig néhány egyszerű szabály elég a minket körülvevő, igencsak komplikált valóság legenerálásához
  • a leírás bonyolult, a végeredmény egyszerű, ahogyan azok a fizikusok is remélik, akik meg vannak győződve róla, hogy létezik a TOE (Theory of Everything). Meg szokás különböztetni a fundamentális (alapvető) törvényeket és a másodlagosakat, melyeket csak kényelmi megfontolásokból kezelünk úgy, mintha "igazi" törvények lennének, a TOE léte pedig azt jelentené, hogy csupán egyetlen fundamentális törvény van
  • a leírás és a végeredmény egyaránt bonyolult: talán ez a helyzet, amennyiben mégsem lehetséges valamiféle Mindenség Elmélete. Az eddigiekhez: a „mainstream” meg a digitális felfogáshoz képest teljesen másmilyen lenne egy ilyen fizika
  • a leírás és a végeredmény egyaránt egyszerű – ez azonban nem fordulhat elő egy olyan Világmindenségben, mint a miénk, amely elég összetett ahhoz, hogy az értelem megjelenjen benne. A gyenge antrópikus elv kizárja, hogy igaz legyen
Ideáig eljutva, ha már egyszer ennyit foglalkoztunk vele, érdemes eltűnődnünk azon, hogy miért hajlunk valamiféle egyszerűség feltételezésére egyáltalán?  Vagyis: honnét származik az egyszerűségbe vetett hit?
A válasz pedig minden bizonnyal az, hogy ennek történeti okai vannak. Az ókori görög poliszok politikai életében részt vevő polgárok első lépésben egyfajta kritikus szemléletet alakítottak ki a társadalmi rendet lehetővé tevő törvényeket tanulmányozva; majd pedig a második lépésben ugyanezzel a szemlélettel kezdtek a „természeti törvények” felé fordulni. Jellemző, hogy Hérakleitosz i.e. 500 körül arról beszélt, hogy a Nap azért nem lépi túl a neki szabott korlátokat, mert máskülönben „a törvény szolgálói megtalálják”. Természetesen nem volt szükségszerű, hogy a társadalmi törvények létének feltételezése elvezessen a természeti törvényekéhez, de végső soron nem is meglepő.
Ugyanekkor a korai görög filozófusok olyan egyetlen és kizárólagos tényezőt vagy elemet is kerestek, amely mindenre magyarázatul szolgált volna. Tálész mindent a „vízre”; míg Anaximenész mindent a „levegőre”vezetett vissza stb.  A talán legközismertebb megoldás pedig a püthagoreánusoké volt, akik Arisztotelész szerint „meg voltak róla győződve, hogy a [matematika] princípiumai minden dolog princípiumai”, és a jelek szerint ez meggyőződés a modern természettudományokban is tovább él. És bár volt egy ezzel ellentétes felfogás is (Hérakleitosz úgy gondolta, hogy  a változás a kulcsfogalom, mivel „minden változik”), hosszú távon a meghatározó az egyetlen egyszerű ok feltételezése lett. És ezzel ott is vagyunk Occam borotvájánál, amely – amennyiben a többi feltétel azonos – az ontológiai egyszerűségre szavaz, vagyis arra, hogy a kevesebb létező dolog feltételezésével élő elméletet válasszuk. Merthogy ugye az egyszerűbb a szebb…
De elképzelhetőek lennének az ógörög típusú egyszerűségre való törekvés helyett más megközelítések is a természettudományokon belül.
Azzal, hogy a megismerés, mint olyan, nem lehetséges, már csak azért sem érdemes foglalkozni, mert ebből kiindulva nem lehetne tudományt csinálni. Viszont még mindig marad két további lehetőségünk: nevezzük talán úgy őket, hogy 
réteges-, illetve szigetmodell.
Az előbbi szerint nincs egyetlen, átfogó törvényekkel leírható fizikai valóság. Ehelyett a különböző szinteken különböző jellegű (és ennek megfelelően különböző szabályok által leírható) törvényszerűségek érvényesek. A biológiának még akkor is mások a törvényei, mint a fizikának, ha a fizika határozza meg azt a keretrendszert, amelyen belül az élet „működőképes” marad. Innentől kezdve persze az válik a tudományos kutatás egyik alapkérdésévé, hogy hogyan különböztethetjük meg egymástól az egyes szinteket, és hol húzzuk meg a határokat. És ez egyáltalán nem egyszerű. Miként Ilya Prigogine és Isabelle Stengers írják Az új szövetség című könyvükben, tekintettel a Planck-állandóra, a 20. század elejéhez képest „többé nem képzelhetjük úgy el az atomot, mint holmi kicsiny bolygórendszert.” Elvégre más mérettartomány = más fizikai törvények.
Illetve Einstein óta viszont abból indulunk ki, hogy „a fizikai tárgyak viselkedése… világosan különbözik aszerint, hogy sebességük közelíti-e a fényét”. Márpedig a 19. században még ugyan kinek jutott volna eszébe, hogy a fizika így, a sebesség alapján is „skálázható”? És miért is ne számítanánk arra, hogy a jövőben is hasonló meglepetések érhetnek minket.
A szigetmodellnél pedig az egységesség és egyszerűség helyett abból indulunk ki, hogy mivel nincs egyetlen, átfogó magyarázat, ezért bár egyes területekről szerezhetünk viszonylag megbízható tudást, abból, hogy mondjuk képesek vagyunk leírást adni a kvantumfizika egy részéről, nem következik, hogy ezt az egész kvantumfizikával is meg tudjuk csinálni, és mindig maradhatnak még felfedezetlen szigetek. Egy bizonyos részterület ismeretéből nem következik (és miért is következne), hogy az egészet is értjük?
És hogy melyik modell a helyes? A gyenge antrópikus elv arra ad magyarázatot, hogy miért éppen úgy van finomra hangolva az Univerzum, ahogy, de ezt éppen, hogy nem az átfogó elvek, hanem a részletek szintjén teszi. Tehát kimutatható például, hogy ha csak nagyon kicsit eltérőek lettek volna a kiindulási feltételek, akkor ma a Világmindenség kizárólag hidrogénatomokból állna – és így nem jöhetett volna létre benne a környezete megfigyelésére képes értelem.
Az viszont nem mutatható ki, hogy a mi létrejöttünket lehetővé tevő Világmindenség kialakulásához valamiféle egyszerűséget kellene feltételeznünk. Tehát: egyfelől miért is tennénk. Másfelől viszont azt is vegyük észre, hogy még ha egy adott pillanatban úgy tűnne is, hogy az Univerzumot az egyszerűség (vagy éppen bonyolultság) jellemzi, utána jöhet egy elmélet, amely megváltoztatja ezt. Az arisztotelészi fizikában az égi és a földi testekre különböző szabályok vonatkoztak – aztán jött Galilei, és megmutatta, hogy ezek a különbségek nem léteznek. A newtoni fizika a látszat szerint (miként már említettük) mindent le tudott írni – de aztán kiderült, hogy korántsem minden körülmények között érvényes – és így tovább.
Vagyis valójában eldönthetetlen, hogy melyik írja le jól a valóságot, és legfeljebb arról van értelme beszélni, hogy aktuálisan éppen melyik tűnik a leghasználhatóbbnak – Occam-elv ide vagy oda.

2012. október 14., vasárnap

A sekély magyarázatoktól a minden elméletéig


Philip Gosse 19. századi angol természetbúvár azt vetette fel, hogy a Föld látszólagos régisége meg a Bibliában olvashatóak közötti ellentétet azzal lehetne feloldani, ha feltételeznénk, hogy a kövületek valójában nem ősmaradványok, hanem  a Teremtő a világ többi részével együtt hozta őket létre az első hat napon. Ezt az óta a különböző kormeghatározási módszerek persze megcáfolták, viszont a Gosse által alkalmazott megközelítés jó példa arra, amit sekély elméletnek nevezhetnénk. És ez elvezet a „minden elméletéhez is”.
De ahhoz eljussunk odáig, érdemes azzal kezdenünk, hogy John D. Barrow amerikai fizikus nyomán megkülönböztethetjük a „széles” és a „mély” magyarázatokat. Az ókorban/középkorban inkább az előbbit használták, amellyel a jelenségek minél szélesebb körét fogjuk át. Az például, hogy minden jelenség mögött valamiféle isteni entitások állnak, eléggé széles, viszont ekkor még minden külön jelenségre egy külön magyarázatot (istent) is be kell vezetnünk: az eső azért esik, mert az esőisten csinálja, és a szél azért fúj, mert a szélisten… és így tovább.
Ma viszont inkább az olyan elméleteket preferáljuk, amelyek mélyek, és a következtetések kívülről jövő beavatkozás nélkül, pusztán az eredeti feltételezés segítségével is működtethetőek. A modern fizikában nem kell minden újonnan felfedezett égitesthez egy újabb magasabb rendű mozgató létét is bevezetnünk – elég a gravitáció is. A sekélynél a „felsőbbrendű entitás csinálja” típusú megoldás azért nem alakítható valamiféle törvénnyé, mert nem tudjuk, hogy mi lesz a kimenet, az ugyanis változik. Az egyik esetben egy meteorológiai, a másikban egy csillagászati jelenségre kell „magyarázatot” találni, és ebben leginkább az az érdekes, hogy vadászó-gyűjtögetőként ilyen „sekély megközelítéssel” is viszonylag jól elboldogultunk, és nem volt szükségünk mélyekre ahhoz, hogy életben maradjunk, eszközöket készítsünk és áttérjünk a földművelésre stb.
Vagyis: kérdés, hogy miért olyan egyszerű a világ azon a szinten, ahol az őseink is éltek; illetve általánosítva: miért olyan egyszerű, hogy a lokális maximumkereséssel dolgozó evolúció is hatékonynak tud bizonyulni benne? Elvégre elképzelhető lenne az is, hogy annyira bonyolultak a szabályok, hogy az evolúció által alkalmazott próba-szerencse módszer egyszerűen nem működik.
Tehát feltételezhetjük, hogy egy olyan valóságban, amin nem tudnunk keresztül evickélni sekély elméletek segítségével, valószínűleg nemhogy az értelemig, de nem jutnánk el még az élet megjelenéséig sem – elvégre az élő szervezet bizonyos értelemben olyan rendszernek tekinthető, amely előrejelzéseket próbált tenni azzal kapcsolatban, hogy mi fog történni.
Schrödinger Mi az élet című, 1944-es tanulmányában arról beszél, hogy a rend a káoszból emelkedik ki, azaz: az atomi szinten jelen lévő kaotikus folyamatok nagyobb léptéknél jól követhető fizikai törvényekbe torkollnak, és ebből szerinte többek között az is következik, hogy szükségképpen nem atomi szinten élünk, mert „odalent” túlságosan nagy a zűrzavar ahhoz, hogy alkalmazkodni lehessen hozzá.
Innentől kezdve viszont többféle univerzum-modell vázolható fel aszerint, hogy a két különböző szinten miként viselkednek – a szinteket itt nem a fizikai mérettartományra vonatkoztatva, hanem elvont értelemben használva.
Elképzelhető, hogy a „magasabb szint” viszonylag egyszerű – miként a minket körülvevő valóság esetében is, ahol viszonylag egyszerű szabályok követésével is elboldogulunk.
De ez lehetne bonyolult és átláthatatlan (=az élet számára alkalmatlan) is.
A felszín alatt meghúzódó szabályszerűségek pedig elvileg lehetnének nem csak komplikáltak (miként a mi univerzumunkra jellemző), de akár roppant egyszerűek is. Valójában, mint ahogy elgondolkoztató, hogy a vadászó-gyűjtögetők által megtapasztalt valóságban viszonylag egyszerű eszközök is jól beválnak, legalább ugyanilyen furcsa az is, hogy amikor viszont elkezdjük közelebbről szemügyre venni a jelenségeket, akkor azok egyre bonyolultabbak lesznek. És erre persze válaszolhatnánk azt, hogy ahhoz, hogy ezen egyáltalán el tudjunk csodálkozni, nekünk is meglehetősen bonyolultnak kell lennünk – csak éppen nem szükségszerű, hogy bonyolult okozatoknak bonyolult okai legyenek. Értsd: innentől kezdve kérdés, hogy miért van ez így – illetve az is kérdés lehet, hogy tényleg így van-e, és a látszólagos bonyolultság legalul nem valamiféle alapvető szabályszerűséget takar-e.
Az az elképzelés, hogy létezhet valamiféle „mindenség elmélete” a fizikán belül, viszonylag új: Eddington és Einstein esetében még hóbortnak számított a keresése, és a main stream-be csak valamikor a ’80-as évektől került be – azóta viszont nagyon is. És ha sikerülne rábukkannunk, akkor a dolog úgy nézne ki, hogy az egyszerű „mindennapi valóság” mögött bonyolult szabályszerűségek lappanganak, ám ezek végső soron visszavezethetőek lennének egyetlen, a barrow-i értelemben vett „mély”, sőt, nagyon mély magyarázatra.
És ezzel egy újabb szintet adhatunk az eddigi építményhez, mert innentől kezdve a „minden elmélete” utáni kutatást úgy is megfogalmazhatjuk, mint ahol a legalapvetőbb szint egyszerűségét/összefüggéseit keressük a fizikában. Vagyis azt, amiből levezethető annak a középső szintnek az (innentől kezdve látszólagos) bonyolultsága, amelyre a számunkra érzékelhető „valóság” épül rá.
Természetesen elképzelhetőek olyan modellek is, ahol ez a bizonyos végső összefüggés egyszerűen nem létezik. Attól, hogy a vadászó-gyűjtögetők világának látszólagos egyszerűsége mögött ott van egy második réteg, ahová legfeljebb a modern tudomány segítségével tudunk leásni (márpedig az tény, hogy ott van), semmi sem teszi szükségszerűvé, hogy létezzen ez a harmadik is.
Úgyhogy egyfelől: tényleg ott van? Másfelől: amennyiben igen, úgy az is érdekes probléma, hogy az, hogy világ éppen úgy épül fel, ahogy, szükségszerűség-e; és nem lehetne-e másként; vagy csak a több (vagy akár végtelen számú) lehetséges megoldás egyike.
És ha szükségszerűség, akkor miért az; ha pedig nem az, akkor miért éppen ez valósul meg – és így tovább.
Idáig jutva nagyon jól el tudom képzelni, hogy miként teszünk majd fel ezen az úton haladva újabb és újabb kérdéseket – de legalább ugyanilyen hihető forgatókönyv az is, hogy mint ahogy a minden elmélete iránti érdeklődés is csak mostanában jelent meg, a jövőben a jelenlegi felfogás továbbvitele helyett inkább olyan problémákkal fogunk bíbelődni, amelyek ma még eszünkbe sem jutnak.

2012. október 1., hétfő

Univerzalitás, homogenitás, tudomány


Egy 2012 elején publikált elképzelés szerint létezhetnek olyan „időkristályok”, amelyek a nevüknek megfelelően és a hagyományos, térbeli kristályokkal ellentétben nem tér-, hanem időbeli periodicitást mutatnak, miközben a lehető legalacsonyabb energiaállapotban vannak. Vagyis bizonyos értelemben: ami elképzelhető térbeli, az számos esetben elképzelhető időbeli jelenségként is. És innét már csak egy lépés, hogy eljussunk addig, hogy a modern tudomány milyen alapelvekből indul ki a világ leírásakor.
Az újkorit megelőző arisztotelészi fizika szerint az égi és a földi testekre eltérő szabályok érvényesek: a Hold felettiek körpályán mozognak, örökkévalóak és romolhatatlanok; a Hold alattiak pedig egyenes vonalú mozgást végeznek, nem örökkévalóak és romlandóak. Lee Smolin amerikai fizikus szerint az igazán újat hozó fizikai elméletek addig egymástól távol eső területeket egyesítenek: Maxwell az elektromosságot és mágnességet; Einstein a teret és az időt; a Galilei nevével fémjelzett új fizika pedig Hold alatti és a Hold feletti világot. Ami egyfelől egyszerűbbé teszi a leírást (elvégre kétféle fizika helyett csak eggyel kell bajlódni); másfelől pedig elvezet a newtoni fizikához, ahol minden mozgó testre ugyanazok a törvények érvényesek – még akkor is, ha az nemhogy a Holdon túl, de tőlünk tíz milliárd fényévnyire található.

Vagyis teljesen egyetemes törvényekről van szó. Vagy legalábbis elsőre így tűnhet – de persze nem pontosan ez a helyzet. A newtoni törvények ugyanis csupán „a térre nézve” homogének, értsd: csupán annyi állítható róluk, hogy az Univerzumon belül elfoglalt helytől függetlenül mindenütt érvényesek (a Hold felett és alatt egyaránt). Viszont nagy sebességeknél az érvényüket veszítik, és az einsteini egyenletek veszik át a helyüket. Ha pedig valaki azzal akarna érvelni, hogy ezeknek az alacsony sebességekre vonatkozó megoldása viszont a newtoni eredményt adja ki, akkor gondoljunk arra, hogy bár ez is egy lehetséges értelmezés, a leírás egységességét ennek ellenére sem sikerül megóvnunk, mivel az einsteini fizika viszont a mikrovilág koppenhágai értelmezésén alapuló leírásával nem egyeztethető össze. Már csak azért sem, mert miközben a relativitáselmélet „olyan teóriának készült, amely független a megfigyelőtől”, mondja Michael Brooks A Fizika nagy kérdéseit tárgyalva (és ezért van az, hogy mindegy, hogy milyen sebességgel mozgunk, a fény hozzánk képest mindig ugyanolyan gyors lesz), aközben a mikrovilágban az a szabály, hogy a megfigyelő befolyásolja a megfigyelés eredményét.
Azaz innentől kezdve kérdés, hogy miként lehetne ezt a két, gyökeresen eltérő felfogást egy elméleten belül értelmezni.
John D. Barrow Theories of Everything című könyvében azt írja, hogy a tudomány megismerése vagy azért tarthat a végtelenségig, mert ilyen a valóság természete, és mindig van egy újabb, felfedezésre váró szint; vagy pedig azért, mert az általunk alkalmazott módszerek (például matematikák) csak egy ilyen leírást tesznek lehetővé. Ennek analógiájára: a fizika két végpontja: a makrokozmikus relativitáselmélet és a mikroszinten létező valóságot leíró kvantumfizika vagy azért tűnik összeegyeztethetetlennek, mert valójában az is, hiszen semmi sem teszi szükségszerűvé, hogy a valóság úgy legyen megkonstruálva, hogy ellentmondásmentesen bele tudjuk gyömöszölni egyetlen leírásba. Vagy pedig azért, mert az általunk alkalmazott jelenlegi megközelítés teszi a dolgot lehetetlenné, és erős a gyanúm, hogy amennyiben egy „nagy egyesített elmélet” megtalálását tekintjük a modern tudomány Szent Gráljának, úgy ez lenne az egyik rejtvény, amelyet meg kellene oldanunk, mielőtt tovább léphetünk.
Már csak azért is, mert bár Paul Permutter amerikai csillagász azt mondja, hogy „az a legérdekesebb, hogy a mély filozófiai kérdésekre mérésekkel válaszolunk”, a valóságban ennél bonyolultabb a helyzet. Sőt. Már David Hume felvetette, hogy a természet uniformitására vonatkozó feltételezés mintegy belénk van huzalozva, és (tehetnénk hozzá) akár még amellett is lehet érvelni, hogy ennek evolúciós okai vannak, hiszen vadászó-gyűjtögetőként érdemes volt abból kiindulnunk, hogy a környezet az egész Földön mindenütt egyformán működik.
Viszont ebből nem következik szükségképpen, hogy másutt is ez a helyzet. Samir Osaka angol tudományfilozófus megfogalmazása szerint „a természet mindeddig nagymértékben uniformnak tűnt. Ám ezt a tényt nem használhatjuk annak az állításnak az alátámasztására, hogy a természet a jövőben is uniform módon fog viselkedni.”
Ami témánk szempontjából két dolgot jelent. Egyfelől azt, hogy az uniformitás feltételezése valóban termékeny elképzelésnek bizonyult az utóbbi évszázadokban. A földönkívüli civilizációk keresésének a lehetősége mint tudományos kérdés például akkor merülhetett csak fel, amikor az arisztotelészi felfogást odahagyva abból indultunk ki, hogy a többi bolygó is hasonló a Földhöz. És ha hasonló, akkor ugye értelmes lények is élhetnek rajta.
Másfelől viszont amikor nem régiben elkészítettek egy olyan, átfogó térképet az Univerzumról, amely a több százmillió fényév nagyságú galaxis-szuperklasztereket ábrázolja, akkor ebből a fizikusi végzettséggel rendelkező Brian Dogson az a következtetést vonta le, hogy bár kis léptéknél a világmindenség nem homogén (elvégre az itt, a Földön miket körülvevő környezet más, mint a galaxisok szintjén), nagy léptéknél, 250 millió fényévnél viszont már az.
Eközben a „homogenitáselv” három válfaját sorolta fel:

  • az „univerzális fizika törvénye”: eszerint a fizika törvényei mindenütt ugyanazok
  • kopernikuszi elv: a Föld nincs kitüntetett helyen az Univerzumban
  • kozmológiai elv: „az Univerzum bármely [tetszőlegesen választott] pillanatban homogén és izotrop… nagy lépték esetén”.

Nézzük most ezeket egyenként. Ami az univerzális fizika törvényét illeti, ez két kérdést vet fel. Először is, hogy a „mindenütt” azt jelenti-e, hogy térben és időben is, és ennek megfelelően a természeti törvények nem voltak mások a múltban, illetve nem lesznek mások a jövőben, mint most. Ha viszont eljátszhatunk azzal a gondolattal (mint ahogy vannak ilyen elképzelések), hogy esetleg időben változnak egyes fizikai állandók, úgy miért ne tételezhetnénk fel legalább a gondolatkísérlet kedvéért azt is, hogy ez az állítólagos „mindenütt ugyanaz” mégsem mindenütt igaz, és egyszerűen a Hume-féle természet univerzalitására vonatkozó elképzelésünk/meggyőződésünk van a háttérben? Továbbá az is kérdés (sőt, akár azt is mondhatnám, hogy igazából ez ám csak a kérdés), hogy ha mégis igaz, akkor miért: honnét származik a természeti törvények azonossága? Hiszen olyan egyszerű lenne nem egyformáknak lenniük (továbbá: miért éppen ezek és nem mások a törvények? Miért nem elég például – vagy tényleg nem elég-e – egyetlen törvény minden leírására, és így tovább).
Ami a másodikat, a kopernikuszi elvet illeti, az lényegében annyit mond, hogy nem mi vagyunk középen. Ennek a szélsőséges (és nagyon sikeres) továbbvitele az az einsteini fizika is, mely szerint egyetlen megfigyelő sincs kitüntetett helyzetben, és amelyet (miként már érintettük) mindeddig nem sikerült összebékíteni a kvantumfizikával.
A harmadik: a kozmológiai elv pedig a csillagász William Keel megfogalmazását kölcsönvéve annyit állít, hogy „megfelelően nagy skálánál az Univerzum tulajdonságai minden megfigyelő számára azonosak”, illetve ennek továbbfejlesztett változata, a „tökéletes kozmológiai elv” szerint ennek időben is igaznak kell(ene) lennie (mint ahogy annak idején a Steady State Univerzum elmélete épült erre a feltételezésre, újabban pedig az inflációs elmélet egy speciális változata).
Azt gondolom azonban, hogy az eddigiekkel ellentétes irányba is elindulhatunk. Hans Joachim Störig említi A filozófia világtörténetében, hogy mivel az indiaiak „mindig is inkább az örökkévalóra, mintsem az időben múlandóra” koncentráltak (valahogy úgy, mint a mai fizikusok, mondhatnánk némi iróniával), ezért náluk „nem létezett a mi fogalmaink szerinti tulajdonképpeni történetírás”, és ezért elestek bizonyos lehetőségektől.
Ami talán valami olyasmit is jelent, hogy jelenleg a tudomány a Hume-i uniformitáselképzeléssel összhangban az általános (és időben meg térben is változatlan) szabályszerűségekre koncentrál, de az így született eredmények megtartása mellett érdemes lenne a másik oldalról is körüljárni a dolgot, és ahelyett, hogy a változatlanságot meg az azonosságot keresnénk mindenütt, érdemes lenne a különbségekre koncentrálni. Elvégre ugyanúgy, mint ahogy az arisztotelészi égi és földi fizika szembeállításának elvetését követően gyorsan eljutottunk a hipotetikus idegen civilizációk utáni kutatásig (amit a Galilei előtti keretrendszerben értelmezni sem igazán lehetett), hátha most is hasonlóan érdekes ötleteink támadnának.
De akár még ennél is továbbléphetünk. A tudomány története az utóbbi évszázadokban ugyan az uniform nem uniform leírás szembeállításaként értelmezhető, de semmi sem teszi szükségszerűvé, hogy a jövőben is ebben a két fogalomban gondolkodjunk. Még akkor sem, ha jelenleg ötletem sincs, hogy akkor viszont miben.

2012. július 10., kedd

Mindörökké filozófia?


Azok a kérdések, hogy „milyen a valóság természete, honnét származik minden, szüksége van-e az univerzumnak teremtőre... hagyományosan a filozófiához tartoztak, de a filozófia halott” - jelenti ki Hawking Az idő rövid történet folytatásának is tekinthető A nagy terv első oldalán. Ugyanis szerinte „a filozófia nem tartott lépést a tudomány és különösen a fizika modern fejlődésével”, és ezért a természettudósok vették át a filozófusok helyét. 
Ami azonban nem jelenti azt, hogy immár nem lenne szükség a filozófia (vagy általában véve: a világ értelmezésének) ilyen vagy olyan formájára.
Lawrence Sklar amerikai filozófus A fizika filozófiája című könyvében azt fejtegeti, hogy a filozófia és a természettudományok (illetve általánosabb értelemben: a filozófia és a világ megismerésének) jelenleg háromféle értelmezése ismert.
1. A hagyományos felfogás szerint a minket körülvevő valóság megérthető bármiféle, a természettudományokra jellemző megfigyelés vagy kísérlet nélkül is, és arra, hogy ez valóban lehetséges, és így is igaz eredményekre juthatunk, eszerint az álláspont szerint a logika és a matematika szolgáltatnának példát. Amivel én nem értek egyet, és legfeljebb az biztos, hogy ha egy skálán helyezzük el a filozófiával kapcsolatos elképzeléseket, akkor az egyik végponton a Hawking-féle „csak a természettudomány számít” található, a másikon pedig ez, amely szerint a természettudományok akár ne is léteznének. Ennek Platóntól Kanton át a 21. századig élő hagyományai vannak ugyan, de ma azért inkább szoktuk gondolni, hogy
2. a filozófiának az a feladata, hogy „ne a tudomány alapjául vagy kiterjesztéseként funkcionáljon, hanem inkább mint egyfajta kritikus megfigyelő” legyen, írja Sklar; hogy a segítségével végül majd eljuthassunk a megfelelő értelmezésekhez. Ami egyben azt is jelenti, hogy a hagyományos filozófia kérdései közül azok, amelyek nem dönthetőek el kísérletileg (az olyanok, mint amilyen az is például, hogy „mit jelent létezni”), ebből a szempontból érdektelenné, sőt, értelmetlenné is válnak.
3. Végezetül pedig ott van az a többek között W. V. Quine által képviselt felfogás, mely azt mondja, hogy „a természettudományok, a matematika, sőt, a tiszta logika is a világról alkotott elképzeléseink kontinuumának” részei, írja ismét csak Sklar, és ebben az esetben a filozófia is a „specializált tudományok” egyikének lenne tekinthető.
Ezen a ponton persze felmerülhet a kérdés, hogy a jövőben milyen újabb, a filozófiával kapcsolatos értelmezések jelenhetnek még meg? Elképzelhető-e például, hogy a természettudományok eredményeire támaszkodva majd az alapoktól újraépítik az egész filozófiát? Ami nem pontosan lenne azonos a 2. megoldással, ahol a filozófia szolgál a természettudományok keretrendszeréül, nem pedig fordítva.
John D. Barrow amerikai fizikus mindenesetre azt állítja, hogy ha valaha a sci-fi adhatott is tippeket a tudományos kutatások számára, akkor ennek már vége, mert a tudományok olyan mértékben elhúztak, hogy aki nem ért hozzá, annak esélyes sincs új ötlettel előállni, és minden bizonnyal érvelhetnénk amellett, hogy a tudomány meg a filozófia esetében is hasonló a helyzet. Hawking úgy véli, hogy a fizika mintegy bekebelezi a filozófiát: eszerint a megközelítés szerint azonban bár a filozófia akár önálló diszciplína is maradhat, ideje felhagynunk azzal, hogy az ókori görögök felfogását kövessük, akiknél a kiindulási pont a „láthatatlan valóságot” és a „végső igazságokat” leíró matematika volt – nem pedig a megfigyelés és a természettudományok.
Innentől kezdve azonban kérdés az is, hogy általában véve milyen szerepe lehet még a filozófia különböző formáinak. Schopenhauer annak idején azt mondta, hogy „mindenki azt hiszi, hogy a saját képzeletének határai azonosak a világ határaival”, és azért fontos a számunkra, mert az, hogy „kell-e filozófia”, lehet ugyan kérdéses, de az, hogy szükségünk van-e valamiféle értelmezési keretrendszerre, nem.
Viszont egyáltalán nem mindegy, hogy az milyen lesz, ugyanis evolúciós nagymértékben befolyásolja, hogy miként értelmezzük a világot. Az, hogy a hagyományos értelemben vett okságot (a HA – AKKOR logikát) természetesnek érezzük, leginkább arra vezethető vissza, hogy vadászó-gyűjtögetőként az volt a leginkább a túlélést segítő stratégia, ha ok-okozati összefüggéseket tételeztünk fel. Mondhatni, az ember okozatkereső állat. Közbevetőleg: ezt a kizárólagos HA – AKKOR logikát követi a klasszikus matematika, illetve ezen alapul a modern számítástechnika is, amikor abból indul ki, hogy egy adott egyenletnek adott kiindulási értékek mellett mindig ugyanaz lesz az eredménye.
Amiből több dolog is következik.
Egyfelől talán még az sem teljesen véletlen, hogy ez első sikeres újkori tudomány a klasszikus, illetve az ebből kinövő égi mechanika volt. Ugyanis ezekre a területekre – ellentétben mondjuk az élő szervezetek vagy éppen a társadalom működésének leírásával – nagyon is jól rá lehetett húzni a vadászó-gyűjtögető agyunk számára adottnak tűnő, szigorú szabályok által működtetett oksági megközelítést.
Másfelől: ismét csak vadászó-gyűjtögető agyunk számára a makrovilág alatti szint logikája nem tűnik természetesnek (ezért is játszottak olyan alapvető szerepet a kvantummechanika kialakulásában a filozófiai viták). Elvileg elképzelhető lenne egy olyan világmindenség, ahol a mikrovilágot is ugyanaz a logika határozza meg, mint a minket körülvevő tárgyakét, de nem ez a helyzet, és érdekes kérdés, hogy vajon miért. Mint ahogy az is érdekes kérdés, hogy vajon az egészen nagy léptékek esetében nem valami hasonló problémába ütközünk-e, és mondjuk a sötét anyag vagy sötét energia megértéséhez nem egy, az eddigiektől eltérő megközelítésre lenne-e szükség. Amire ugyan lehet, hogy az a válasz, hogy nem, de ugyanígy elképzelhetőnek tűnik az is, hogy ebből a szempontból a „valóságnak” nem csupán két szintje (mikro- és makro) van, hanem mondjuk három.
Ám még ha nem így lenne is – és ezzel vissza is értünk ennek a bejegyzésnek a kiindulási pontjához–, az azért vitathatatlannak látszik, hogy a vadászó-gyűjtögető körülményekhez alkalmazkodott mentális szerveink önmagukban, segédeszközök nélkül (mint amilyen a modern értelemben vett tudomány is) képtelenek elboldogulni a világ értelmezésével. Szinte közhelynek számít, hogy Newton óta a matematika teljesen beleépült a modern természettudományokba, és lehetővé teszi, hogy olyan problémákat is kezelni tudjunk, amelyekkel a segítsége nélkül nem boldogulnánk. Eközben azonban hasonlóan fontos szerepet játszik az értelmezés is: az, hogy mit értünk bizonyos fogalmak alatt – gondoljunk csak arra, ahogy Einstein átértelmezte a tér (pontosabban: téridő) fogalmát. Mondhatni, az időben előre haladva és a minket körülvevő, érzékelhető fizikai valóságtól mindinkább eltávolodva a filozófia (vagy ha úgy jobban tetszik: az értelmezés) a matematikához hasonlóan egyre inkább a tudomány „kötőszövetévé” válik.
Paul Davies Az új fizika című könyv bevezetőjében azt írta 1990 körül, hogy bár a kívülállók számára még mindig leginkább a kvantumfizika meg a relativitáselmélet számít az „új fizikának”, ám a témával foglalkozók között „egyre erősödik a meggyőződés”, hogy a newtoni és a 20. század eleji után most egy harmadik „tudományos forradalom zajlik”. Amire azonban, mondja Davies, az a jellemző, hogy az előzőekkel (a newtonival meg a 20. század elejivel ellentétben) nem egy szűk területen megy végbe – ami az én olvasatom szerint annyit jelent, hogy lényegében az eddigiek kiterjesztéséről van szó, nem pedig új értelmezésekről. Vagy nem új filozófiáról, ha így jobban tetszik.

2012. március 30., péntek

Kétféle természettudomány?

Lényegében kétféle természettudományt különböztethetünk meg, írja John D. Barrow amerikai fizikus a Lehetetlenről szóló könyvében. A fizikára az egyszerű és alapvető törvények a jellemzőek, míg a biológiára az, hogy az élőlényekkel kapcsolatban „a változásokat könnyű észrevenni, de nehéz megérteni, és… nincsenek egyszerű matematikai képletek, melyek előre jeleznék a jövőt”.
A probléma ugyanis az, hogy „a természettörvényekből fakadó eredmények sokkal komplikáltabbak, mint maguk a törvények, mivel ezek az eredmények nem rendelkeznek a természettörvények szimmetriáival”, és ennek megfelelően miközben a részecskefizikus az alapvető erőkkel foglalkozva „szimmetriákkal és egyszerűséggel” találkozik – mondja ismét csak Barrow –, aközben a biológusnak azzal kell szembenéznie, hogy az ő világa igencsak komplikált. Ami egyébként magyarázatot látszik adni arra, hogy a modern értelemben vett fizika kialakulása miért előzte meg annyival az evolúciós elméleten alapuló modern biológiáét. És eljátszhatunk ugyan azzal a kérdéssel, hogy mi lett volna, ha ezek fordított sorrendben bukkannak fel, és nem az erősen matematizált fizika válik hosszú időre a természettudományok mintaképévé, de ezek szerint egyáltalán nem véletlen, hogy nem így történt, és ezen még az sem változtat, hogy a kívülállók az evolúcióelméletet szokták egyszerűbbnek gondolni. Miként ez abból is kiderül, hogy ennek a leváltására szánt „alternatív” elképzelésekkel  jóval gyakrabban találkozhatunk, mint „alternatív fizikákkal”.
Az persze, hogy mi mennyire egyszerű vagy bonyolult, nem csak ezért érdekes a számunkra. Hanem azért is, mert Barrow arra keresve a választ, hogy az ember képes lesz-e megismerni a „fizikai valóságot”, négy forgatókönyvet vázol fel:

  • sem a természetnek, sem az emberi megismerésnek nincsenek korlátai;
  • a természetnek nincsenek, de az embernek vannak;
  • a természetnek vannak, az emberi megismerési képességnek nincsenek;
  • a természetnek és az emberi megismerésnek egyaránt vannak korlátai.

Azt, hogy az emberi megismerés korlátai alatt mit értünk, valószínűleg nem kell hosszasan magyarázni; az pedig, ha a természetnek vannak „korlátai”, valami olyasmit jelent, hogy egy idő múlva majd elfogynak/elfogynának a felfedezni való dolgok.
Ez a kategorizálás elsőre talán meggyőzően hangzik; ha azonban kissé jobban belegondolunk, akkor többek között az a probléma vele, hogy eldönthetetlen dolgokról próbál véleményt mondani. Vitatkozhatunk azon, hogy ha aktuálisan tévedett is, hosszabb távon igaza lesz-e Diderot-nak, aki 1785-ben azt hangoztatta, hogy „száz év múlva nem lesz három nagy matematikus sem Európában”, mivel elértük a tudomány „Herkules oszlopait, amelyeken túl nem lehet hajózni”. Ugyanis a dolgok lassanként olyan bonyolulttá válnak, hogy meghaladják majd  a képességeinket. Miként Barrow is megjegyzi, a szuperhúr-elmélet matematikáját alig maroknyi ember érti, és innét már csak egy lépés az ember számára felfoghatatlan problémákig… Amire persze azt válaszolhatnánk, hogy a történet mindeddig arról szólt, hogy amikor szükség volt rájuk, akkor mindig olyan, újabb és újabb eszközöket találtunk (mint ahogy a matematika is ilyen eszköz), amelyek lehetővé tették a „csupasz emberi agy” számára máskülönben elérhetetlen kérdések megoldását.
Ami a természet végességét illeti, Feyman szerint a tudomány a következő ezer évben egészen biztosan nem fog annyi újdonságot ránk zúdítani, mint ahogy eddig tette, mert a mostani helyzet „olyan..., mint Amerika felfedezése – csak egyszer történt meg”. De ebben az esetben is élhetnénk azzal az ellenvetéssel, hogy eddig ahányszor csak azt mondtuk, hogy már mindent (vagy legalábbis majdnem mindent) felfedeztünk, hamarosan újabb áttörésre került sor.
Amire persze a Feyman-i álláspont képviselői azzal vághatnának vissza, hogy viszont: az összes kontinens felfedezése után is ostobaság lenne abban reménykedni, hogy újabbakra bukkanunk – de ez csupán hasonlat, és nem visz minket előbbre.
A gond tehát az, hogy nem tudjuk eldönteni, hogy kinek van igaza – és bármennyi idő is teljen el, ez mindig így lesz. Ugyanis attól, hogy állandóan új dolgokat találunk, nem biztos, hogy egyszer majd nem érjük el a természet vagy az emberi agy lehetőségeinek korlátait – és attól, hogy hosszú ideje egy helyben topogunk (mint ahogy a fizika egyes területein bizonyos értelemben jelenleg is évtizedek óta történik) még nem biztos, hogy a következő pillanatban nem teszünk szenzációs felfedezést. Értsd: elvileg is eldönthetetlen, hogy a természetnek és az emberi agynak vannak-e korlátai, és David Hackett Fischer amerikai történész ezt nevezi metafizikai hibának. Mármint azt, amikor „nem empirikus kérdést empirikus módon próbálunk megoldani”.
Vagyis amennyiben a legalább elvileg eldönthető kérdésekkel foglalkozó tudományosság keretein belül kívánunk maradni, úgy nincs értelme a dolognak Másfelől viszont (és ezért is volt érdemes a számomra ezt az egészet megírni) a fentebbiekből kiderül, hogy bármikor valami újba botolhatunk - de persze nem bárhol.
Arra például nem számíthatunk, hogy egyszer majd találunk egyszerű szabályokat a biológiai/evolúciós szint leírására. Azzal az ötlettel viszont bátran eljátszhatunk, hogy mi lenne, ha az derülne ki, hogy a Nagy Egyesített Elméletet nem lehet megalkotni, mert a fizika alapjainak látszólagos egyszerűsége alatt nagyon is bonyolult dolgok húzódnak meg.

2011. május 10., kedd

Fizikai etika helyett valami más?

„Kant szerint egy tett csak akkor fogadható el erkölcsileg, ha univerzalizálható, vagyis ha a mögötte álló elv (maxima) széles körű elterjedése (általános törvénnyé válása) ellentmondás nélkül elgondolható és akarható lenne”, írja Kovács József A modern orvosi etika alapjai című könyvében. Valójában azonban a helyzet korántsem ilyen egyszerű, és még az a kérdés is felvethető, hogy mennyire korfüggő az etika, és mennyire lehetne máshogy gondolkozni az effajta kérdésekről.
A kanti elképzelésekkel kapcsolatban ugyanis nem csupán (sőt, talán alapvetően nem is az) a probléma, hogy ismét csak Kovács József megfogalmazásával élve „ami nem univerzalizálható, az biztosan immorális, de ami univerzalizálható, az még nem feltétlenül morális kötelesség”, hanem az, hogy ez egyáltalán nem az egyetlen lehetséges megközelítés. Kant a felvilágosodás (és egyben minden idők) egyik legnagyobb filozófusa volt ugyan, ám eközben nem tudta függetleníteni magát attól az elképzeléstől, mely szerint az emberi viselkedésnek is ugyanolyan univerzális szabályoknak kell engedelmeskedniük, mint a természeti törvényeknek. Értsd: a természettudományok (és ezen belül is a fizika) az a modell, amely alapján a világot elképzelnünk és értelmeznünk kell – ez azonban több kérdést is felvet.
Az egyik az, hogy miért léteznek egyáltalán természeti törvények – és erre nyilvánvalóan nem az a válasz, hogy ha nem léteznének, akkor a világ olyan kaotikus lenne, ahol egyszerűen nem jelenhetne meg az őt körülvevő (kaotikus) valóságot észlelni képes értelem. Ez ugyanis mindössze annyit mond, hogy egy kaotikus világban nem jöhetnének léte értelmes lények – de azt nem mondja meg, hogy a világ miért nem merő zűrzavar.
A másik pedig az, hogy még ha a természeti világot kikezdhetetlen törvények irányítják is, miért is gondolnánk úgy, hogy a társadalomban is így kellene lennie? Azaz érdemes eljátszani azzal a gondolattal, hogy miként fejlődött volna az etika (és általában véve az emberi gondolkodás), amennyiben nem az egzaktnak és matematizálhatónak tűnő fizika válik a 18. századra az alapmodellé, hanem valami más? Illetve: most, hogy már átláttuk, hogy legalábbis nem szükségszerű, hogy a társadalmi jelenségeket/folyamatokat/eseményeket is egzakt és „univerzalizálható” szabályok írják le, vajon hogyan máshogyan lehetne a jövőben elképzelni őket, és vajon működőképes maradna-e az az etika, amely nem kanti jellegű, „univerzális" törvényeket próbál megalkotni? Vagy pedig ez ugyanolyan képtelenség, mint egy nem egzakt szabályok alapján működő matematika - bár ahogy most jobban meggondolom, talán azt sem kellene azonnal elutasítani.

2011. március 11., péntek

Túl a kvantumkomputeren?

A hagyományos titkosításra három dolog jelenthet veszélyt: az, ahogyan a társadalom; ahogyan a matematika és végül ahogyan a fizika működik. De ez egyben lehetőségeket is jelenthet.
1. Ami az elsőt illeti, itt lényegében arra  érdemes gondolnunk, hogy egy emberek által fenntartott rendszer annyira megbízható, mint amennyire azok, akik fenntartják. A social engineering ezt használja ki, és teljesen mindegy, hogy mennyire jó egy kód, ha valaki nem elég gondosan kezeli az információkat, és pl. hozzá tudunk jutni a kettős kulcsú titkosításban használt privát kulcsához.
2. A matematika azért érdekes a számunkra, mert ismét csak a kettős kulcsú titkosítás azon a feltételezésen alapul, hogy vannak dolgok, amelyeket az egyik irányba nagyon könnyű elvégezni, míg a másik irányba a számok növekedésével exponenciálisan válik nehezebbé. Ilyen lenne például két prímszám összeszorzása (amit bárki meg tud csinálni), majd pedig annak kikeresése, hogy az adott szám melyik két prímszám szorzata - ez utóbbi kellőképpen nagy számok esetében hatalmas számítási kapacitást igényel. Vagy legalábbis azzal a feltételezéssel szoktunk élni, hogy így van, és ezért biztonságos a két prímszám összeszorzásán alapuló titkosítás. De akadnak olyanok is, akik úgy vélik, hogy kell valamilyen szabályosságnak lennie a prímszámok eloszlása mögött. Vagyis egyes matematikusok intuíciója az egyik, másoké a másik álláspontot támogatja, de eddig sem az egyiket, sem a másikat nem sikerült bebizonyítani, és így bátran kijelenthetjük, hogy  a modern kriptográfia egy alá nem támasztott matematikai meggyőződésen alapul (amely ennek megfelelően vagy igaz, vagy nem).
3. Majdnem végezetül ott vannak az egyelőre nem különösebben hatékony kvantumkomputerek. Ezek azt használnák ki, hogy a kvantumszinten mások a fizikai törvények, mint a makroszkopikus testek világában, és a Peter Shor amerikai matematikus által által 1994-ben közzétett algoritmus megfelelő (egyelőre leginkább nem létező) kvantumszámítógépeken alkalmazva lehetővé tenné, hogy pillanatok alatt megtaláljuk az adott titkosításban használt prímszámokat.
4. A Fred Adams – Greg Laughlin csillagász szerzőpáros a The Five Ages of the Universe című könyvben azt írja, hogy az Univerzumra „négy ablak” nyílik: a bolygók, a naprendszerek, a galaxisok és az egész világmindenség szintje. Sir Martin Rees, a Royal Society jelenlegi elnöke néhány évvel ezelőtt arról beszélt, hogy egy, a galaxisok közötti térben, minden nagy tömegtől távol lebegő laboratórium kutatója nem lenne képes kimutatni a gravitáció létezését, és ennek analógiájára élhetünk azzal a feltételezéssel, hogy léteznek olyan természeti törvények, amelyek olyan kis lépték mellett, mint amennyire az emberiség tapasztalatai jelenleg kiterjednek, hasonlóképpen nem mutatható ki. Illetve feltehetjük azt a kérdést is, hogy vajon nem lehetséges-e, hogy a bolygószintnél magasabb szinteken a természeti törvények ugyanúgy másfajta logika szerint működnek, mint a kvantumszinten is, és ezeket felhasználva esetleg ugyanúgy a hagyományostól eltérő elven működő számítógépeket lehetne építeni, mint ahogyan a kvantumfizika sajátosságainak kihasználásával is?

2010. november 10., szerda

Ugyan kinek kell a matematika?

G.V. Ramanathan amerikai matematikus azt kérdezi, hogy valójában mi szükség van az általános iskolait meghaladó matematikára, ha egyszer az emberek túlnyomó része úgysem használ soha az alapműveleteken kívül semmit.
Majd pedig valami olyasmit válaszol, hogy a matematika oktatásban játszott központi szerepe annak köszönhető, hogy ugyanolyan jól reklámozzák, mint a fogfehérítőt meg a hajnövesztő szereket. Vagyis első lépésben meggyőznek minket, hogy a dús haj, a fehér fog vagy éppen a két ismeretlenes egyenlet elengedhetetlen ahhoz, hogy boldog és teljes életet éljünk; aztán stigmatizálják azokat, akik nem ilyenek – mi pedig inkább megyünk, és megvesszük az adott terméket.
Ennek megfelelően meg kell tanulnunk, noha – mondja Ramanathan – „az irodalommal, történelemmel, politikával és zenével ellentétben a matematikának vajmi kevés köze van a mindennapi élethez”, és bár az alapfokú oktatásban ott a helye, a középfokúban már semmi szükség sincs rá. Az pedig, hogy jelenleg ilyen fontosnak tartjuk, valószínűleg arra vezethető vissza, hogy aki nem ismeri, az nem képes hozzáférni az utóbbi évszázadok „sikertörténetéhez”, a természettudományokhoz sem.
A fentebbiek alapján viszont az is kérdéses lehet, hogy akarjuk-e a továbbiakban a természettudományokat is oktatni az általános iskola után mindenkinek – vagy pedig meghagyjuk szakiskoláknak. Ugyanis mint ahogy nem kell képzett autószerelőnek lennünk ahhoz, hogy vezetni tudjuk az autót, nem kell a termodinamikát sem ismernünk hozzá. És hasonlóképpen: a legtöbben nem azért kezdenek környezettudatosan viselkedni (ha ugyan kezednek), mert megértették a felmelegedés mögött meghúzódó természeti folyamatok működését, hanem azért, mert elfogadták a témával foglalkozó szakértők állításait anélkül, hogy azokat ellenőrizni akarnák. Ad absurdum: még az a kérdés is felvethető, hogy nem idő- és energiapazarlás-e a diákok azon részének a középfokú matematika, fizika, kémia stb. oktatás, akiket hidegen hagyja az ilyesmi (kérdem én ezt annak ellenére, hogy nekem mind a matematika különböző ágai, mind pedig általában véve a természettudományok mindig is nagy – bár olykor viszonzatlan – szerelmeim voltak).
Illetve azon is érdemes elgondolkodni, hogy a jelenlegi oktatási rendszer leginkább olyan kategóriákból építkezik („matematika”, „fizika”, „irodalom”, és így tovább), melyek a 20. században, teljesen más körülmények között még minden bizonnyal jól beváltak, de könnyen elképzelhető, hogy ma már nem rájuk lenne szükségünk. Nem öröktől fogva léteznek, hanem egy adott korszak felfogását tükrözik arról, hogy az egyes területek között hol kell meghúzni a határokat, és leginkább az újkorban jelent meg a modern értelemben vett irodalomtól a modern értelemben vett történelmen keresztül az ismét csak modern értelemben vett fizikáig bezárólag mindegyikük. Tehát miért is hinnénk, hogy mostantól fogva az örökkévalóságig ezek fognak a leginkább megfelelni a céljainknak.

http://www.washingtonpost.com/wp-dyn/content/article/2010/10/22/AR2010102205451.html

2010. szeptember 5., vasárnap

Bioetika után fizikaetika?

A II. Világháború a tömegpusztító fegyvereket tekintve nem csak azért „emlékezetes”, mert ekkor készítették el az első atombombát. Hanem azért is, mert a japánok Mandzsúriában a Unit 731 katonai kutatás keretében a lépfene, a dizentéria, a hastífusz, a kolera és a bubópestis kórokozóiból az emberiség többszörös elpusztításához elegendő mennyiséget állítottak elő. Azaz: minden bizonnyal először fordult elő a történelem folyamán, hogy valaki képes legyen elvileg az egész emberiséget kiirtani.
A következő szint pedig az egész Föld, a harmadik pedig akár az egész ismert Univerzum megsemmisítése lenne, és ez lehet, hogy nem is annyira sci-fibe illő felvetés, mint amilyennek előszörre hangzik. Amikor Peter Michelson a Stanford Universityről a gravitációs hullámok mérésére alkalmas berendezést épített, akkor ehhez közel abszolút nulla fokra lehűtött, egy tonnás rudat használt. Erről később azt mondta, hogy „a leghidegebb tárgy nem csak a Földön, de az egész Világegyetemben” (mármint ha nem bíbelődnek hasonló dolgokkal a földönkívüliek is). Vagyis egy, a természetben különben nem létező dolgot állított elő, és ez azért fontos, mert Martin Rees brit királyi csillagász szerint „amikor az ultraalacsony hőmérsékletet először elérték... a fizikusok nem állíthatták megbízható módon, hogy a katasztrófa valószínűsége kisebb, mint egy a billióhoz”, ugyanis nem ismerték pontosan a lehetséges következményeket.
De említhetnénk mondjuk egyes, a Brrokhaven-i részecskegyorsítóval végzett kísérleteket is, mert ott is ugyanez volt a helyzet. Ráadásul az ilyen és ehhez hasonló esetekben nincs is értelme hagyományos értelemben vett valószínűségről beszélni. Ha az a kérdés, hogy egy pénzdarabbal mekkora valószínűséggel dobunk egymás után tízszer, akkor az ezzel kapcsolatos szabályszerűségeket ismerjük, és hasonlóképpen azt is meg tudjuk mondani, hogy egy adott járvány esetén mekkora valószínűséggel fogunk megbetegedni. De emellett ott van a szubjektív valószínűség is, amely viszont nem a valóságról, hanem arról szól, hogy mit gondolunk (anélkül, hogy a mögötte meghúzódó mechanizmusokat ismernénk) egy bizonyos esemény bekövetkeztéről – és ez a becslés persze vagy jónak fog bizonyulni, vagy nem. Próbálhatjuk például megbecsülni annak a valószínűségét, hogy rajtunk kívül léteznek más értelmes lények is a Világmindenségben, de mivel sejtelmünk sincs róla, hogy ez mitől függ, ezért csak találgatni tudunk, és Bucminster Fuller például arra panaszkodik, hogy „Néha azt gondolom, hogy egyedül vagyunk. Néha azt gondolom, hogy nem. Mind a két gondolat egyformán megrázó”. És eközben nem jut közelebb a megoldáshoz.
Vagyis vélhetjük ugyan úgy, hogy a természetben nem létező, ultraalacsony hőmérséklet előállítása kisebb, mint egy az egy billióhoz valószínűséggel vezet katasztrófához, ám elvileg az is elképzelhető lenne, hogy éppen ellenkezőleg: egészen biztosan tragédiát fog okozni. Sőt, elvileg az sem teljesen elképzelhetetlen, hogy egy ehhez hasonló fizikai kísérlet valamiféle „láncreakciót” kiváltva az egész Univerzumot megsemmisítené.
Tehát amikor valami olyat csinálunk, ami még nem fordult elő a természetben, és közben megbízható elmélettel sem rendelkezünk, akkor valójában nem lehet megmondani, hogy mi lesz a következménye. Ha pedig ez esetleg az egész emberiség létét is veszélyeztetheti, akkor kérdés, hogy ilyen feltétetlek mellett megkockáztatható-e a dolog. Martin Rees amellett érvel, hogy ha minden olyan kísérletet megtiltanánk, amely „újfajta mesterséges körülményeket teremt (kivéve, ha tudjuk, hogy ugyanezek a feltételek természetes úton máshol már létrejöttek”, akkor „ez... végleg megbénítaná a tudományt”.
Ezzel az érveléssel azonban két probléma is van. Egyfelől az orvosi etika tiltja a nem gyógyítási céllal emberen végzett kísérletet. Azaz tudományos célokra hivatkozva tilos az embernek kísérlettel kárt okozni. Márpedig esetünkben elvileg akár az összes embert is veszélyeztethetjük. Viszont mivel nem tudjuk, hogy ennek mekkora a valószínűsége, ezért azt sem tudjuk,hogy a kockázat elfogadhatatlanul magas-e. Vagyis a válasz minden bizonnyal az kellene,hogy legyen, hogy: nem.
Másfelől attól, hogy most nem építünk meg egy berendezést, később még kiderülhet, hogy nem jelent veszélyt. Attól pedig, hogy ez „megbénítaná” a tudományt, legfeljebb akkor kellene tartanunk, ha azt gondolnánk, hogy az olyan, mint a vasúti sín, és ha nem haladhatunk rajta az egyik irányba, akkor nem tehetünk mást, mint megállunk. De a tudomány persze nem ilyen, hanem nagyon is sok különböző irányba haladhatunk, és akkor arról még nem is beszéltünk, hogy egyes területeken most is tiltásokkal találkozunk: nem boncolunk például élő embereket; nem tanulmányozzuk rajtuk, hogy milyen hatásai vannak egy halálos fertőzésnek, és így tovább. De a biológia meg az orvostudomány ennek ellenére is prosperál.
Stephen Hawking szerint „azt, hogy milyen messzire jutottunk az elméleti fizika terén, az mutatja, hogy ma már hatalmas rendezésekre és rengeteg pénzre van szükség egy olyan [szubatomi részecskékkel] folytatott kísérlet elvégzéséhez, amelynek a kimenetelét nem is tudhatjuk előre”. Értsd: mivel csupán nagyon kevés helyen lehet a fizikai tudásunk határain túlmutató kísérleteket elvégezni, és ennek megfelelően könnyen ellenőrizhető a dolog.
Mindezzel természetesen természetesen nem általában véve a „tudományos kutatást” korlátozását akarom szorgalmazni. Hanem csupán úgy gondolom, hogy valamiféle, a bioetika analógiájára megalkotott „fizikaetikára” nagyon is szükségünk lenne. Amíg pedig ez létrejön (vagy nem), addig induljunk ki inkább abból, hogy amennyiben csak szubjektív valószínűségeink vannak arra nézve, hogy egy kísérletnek végzetes következményei lesznek-e, addig egyszerűen nem éri meg.