2013. június 28., péntek

A metamatematikán innen és túl

A metamatematika – olvasható a Wolfram-féle MathWorldben – tulajdonképpen „egy másik kifejezés a bizonyításelméletre”, és ide tartozik például a Gödel tétel is. Kissé általánosabban fogalmazva pedig valami olyasmit mondhatunk, hogy a metamatematika magát a matematikát tanulmányozza matematikai módszerekkel.  Vagyis „azt …, hogy mit képes és mit nem képes elérni a matematika”, mondja Gregory J. Chaitin.
Az az „ötlet” pedig, hogy szükség lenne valami ilyesmire, a német matematikus, David Hilbert 20. század eleji programjára vezethető vissza, ahol az lett volna a végső cél, hogy a bizonyítás gép által is elvégezhető, formalizált módszerét dolgozzák ki. Amit az ún. „alapok válsága” tett indokolttá, vagyis az, hogy az 1800-as évek második felében kiderült, hogy korántsem olyan egyszerűek (ld. a nem-eukleidészi geometriákat) vagy ellentmondásmentesek (ld. a Russell-paradoxont) a dolgok a matematikán belül, mint szeretnénk, és az egyik lehetséges megoldásnak az tűnt, ha matematikai (logikai) módszereket alkalmazva megvizsgáljuk, hogy miként lehet egy ellentmondásmentes és jól működő matematikát felépíteni.
A kérdésnek természetesen volt egy matematikafilozófiai vetülete is, Hilbert ugyanis a platóni matematikafelfogással ellentétben (mely szerint a számok valamiképpen léteznek, még ha nem is ugyanúgy, mint egy hétköznapi tárgy) úgy gondolta, hogy a matematika önmagukban üres és jelentés nélküli szimbólumokkal foglalkozik, és így nem is vonatkozik a valóságra, hanem önmagában üres és értelem nélküli „játék”.
Ami már csak azért is érdekes a számunkra, mert innentől kezdve a kérdés több rétegre bontható.
Az egyik szint a matematikafilozófiáé: a formalista és a platonista matematikusok nem értenek egyet „a létezés és realitás” kérdésében (hogy a Davis – Hersh szerzőpáros megfogalmazását vegyem kölcsön).  Egy másik szint magának a matematikának a gyakorlatban való műveléséé: itt viszont a platonisták és formalisták „nem vitatkoznak egymással azon, hogy… az érvelésnek milyen elemei engedhetőek meg” (mondja ismét csak Davis és Hersh).  Tehát úgy tűnhet, mintha a gyakorlat szempontjából teljesen mindegy lenne, hogy melyik állásponttal értünk egyet, és hogy platonistának vagy formalistának tekintjük-e magunkat, mert a tétel, az axióma, a bizonyítás stb. alatt mindkét esetben ugyanazt értjük.
Valójában azonban egy platonista matematikusnak valószínűleg nem jutott volna eszébe a Hilbert-program, és a következő lépésben annak hangoztatásával, hogy a számításokat (és bizonyításokat) mechanizálni kell, valószínűleg nem jutott volna el a modern számítógéphez sem. Mechanikus számológépeket persze már Leibniz és Pascal óta építgettek, de ezek még a 19. század végén – 20. század elején is leginkább nem digitálisak, hanem analógok voltak, még ha utólag hajlamosak vagyunk is a számítástechnika történetének megírásakor a digitálisokra fókuszálni.
Viszont a Hilbert-féle megközelítés nélkül legalábbis valószínűtlen, hogy eljutottunk volna a modern számítástudományhoz.  És persze Hilbert programja vezetett el „egy teljesen új matematikai területhez, a metamatematikához” is, állapítja meg Chaitin.
Amivel azonban még nincs vége a történetnek, ugyanis amikor akár Gödel, akár Chaitin, akár pedig bárki más metamatematikával foglalkozik, akkor adottnak vesz bizonyos dolgokat. Például: az axiomatikus módszert, a szimbolikus logikán alapuló megközelítést és hasonlókat, ám azok a matematikai alapok, melyek alapján jelenleg magát a matematikát tanulmányozzuk, nem valamiféle örökkévaló és megingathatatlan igazságok, hanem a 19. század második – a 20. század első felére jellemző felfogások és megközelítési módok eredményei. Ha pedig ez így van (márpedig ez a helyzet), akkor bátran rákérdezhetünk ezekre is, és megvizsgálhatjuk, hogy a jelenlegi megoldások mellett milyen alternatívák képzelhetőek el.

2013. június 22., szombat

Origami, tertaktys és pontnélküli geometria

Eukleidész abból indult ki, hogy a tér legkisebb egysége a pont, és erre alapozva kell felépíteni a geometriát (pont-->egyenes-->sík). Ez azonban korántsem szükségszerű.
Eukleidésznél minden bizonnyal ma a matematikán kívülinek tekintett megfontolások is szerepet játszottak. Miként John L. Bell megjegyzi (a The Art of the Intelligible lapjain), a háromszögszámok közül a 10: a tertaktys Püthagorasz követőinél kitüntetett szerepet játszott, mivel ez az első négy természetes szám (1,2,3,4) összege. Emellett pedig „a lehetséges geometriai dimenziók összege: 1 pont: a generátor; 2 pont: a vonal; 3 pont: a sík; 4 pont: a (tetrahedrikus) térfogat”. És innentől kezdve persze, hogy a pontból indulunk ki (és jó lenne tudni, hogy hol máshol befolyásolták még a döntését hasonló megfontolások).
Egy „csak hajtogatáson” alapuló origami-geometriánál viszont, ahol a „hagyományos” origami-geometriával ellentétben nem engedjük meg, hogy – mintegy az eukleidészi felfogás örökségeként – minden további nélkül pontokat használjunk, első lépésben maga a sík adott; és ennek hajtogatása eredményezi az egyeneseket, amelyek segítségével előállíthatunk egy pontot. És ezzel el is jutottunk az ún. „pont nélküli” geometriákhoz, ahol nem a pont a kiindulási pont :-).
Ezeknél a matematikus Giangicomo Gerla megfogalmazása szerint „a régiókat tekintjük individuumoknak”, vagyis ezek „a logika nyelvén szólva elsőrendű objektumok, míg a pontokat olyan osztályok reprezentálják, melyek… másodrendűek”. Már Lobacsevszkij is kísérletezett ilyesmivel, de a téma csak a 20. század végére vált kidolgozottá.
Elbíbebelődhetnénk persze azzal, hogy a „csak hajtogatáson” alapuló megoldásoknál a pont leghamarabb a harmadik lépésben jelenhet meg, és ekkor a léte mintegy bele van ágyazva az egyenesekébe (melyeké viszont a síkéba); illetve elkezdhetnénk az építkezést nem a síkból, hanem az egyenesből kiindulva (miként egyfajta „fizikai geometria” kidolgozásakor Tim Maudlin tette).
Számomra azonban még ennél is izgalmasabbnak tűnik, hogy amennyiben nem az egyetlen lehetséges megoldás az eukleidészi pont – egyenes – sík felfogás, akkor a sík – egyenes - pont hármas mellett milyen más elemekből építhetnénk még fel a geometriát?
Kiindulhatnánk például az origami-geometria síkja helyett a térből? Sőt, esetleg nem is a három, hanem egy n-dimenziós térből? És attól, hogy a csak hajtogatást megengedő origami-geometriában is három alapelemmel dolgozunk (noha a „származtatás” sorrendje más, mint Eukleidésznél), más megoldásoknál is éppen három elemre lenne szükség?

2013. június 17., hétfő

Nem ellentmondásmentes axiómarendszerek?

Az úgynevezett „reverz matematikáról kissé leegyszerűsítve” azt mondhatjuk, hogy az mintegy visszafelé haladva nem az axiómáktól jut el a tételekig, hanem fordítva: azt vizsgálja meg, hogy milyen axiómákat kell választanunk ahhoz, hogy egy tétel igaz legyen.
Ezt a megközelítést az teszi lehetővé, hogy ma már nem várjuk el az axiómarendszerektől, hogy igazak legyenek, hanem csupán azt, hogy ne tartalmazzanak ellentmondást. Márpedig nagyon sok, sőt, minden bizonnyal végtelen számú ilyet lehet felépíteni, és amennyiben egy meglévő rendszer elég erős ugyan a „szükségesnek látszó” állítás megfogalmazásához, de nem elég erős a bizonyításához, akkor miért is ne próbálnánk módosítani az alapokat a céljaink eléréséhez.
Eközben eltűnődhetünk azon is, hogy
  1. a matematika nulladik fázisában (pl. sumérok) nem volt axiómarendszer (és ez persze másutt is előfordult: a matematika nem európai gyökereit tárgyalva említi George Gheverghese Joseph, hogy Ramanudzsan nem használta „a bizonyítás deduktív és axiomatikus” módszerét. És persze az sem érdekelte, hogy „igaz-e” valami, „csak maguk az eredmények számítottak. 
  2. Eukleidész után az európaiak számára elvárássá vált, hogy az axiómarendszer igaz legyen (és ebbe persze beleértették azt is, hogy ellentmondásmentes is legyen)
  3. a 20. századra pedig kialakult az a meggyőződés, hogy az „igaz mivolt” nem, csak az ellentmondás-mentesség várható el – az viszont mindenképpen meg kell, hogy legyen.
  4. Viszont Hofstadter azt írja a Gödel, Escher, Bach-ban, hogy „a paradoxonok mindenáron való kiküszöbölése túlhangsúlyozza a következetességet, különösen akkor, amikor ehhez nagyon elvont formalizmusra van szükség”. Vagyis: mikor és mennyire érdemes elvárni az ellentmondás-mentességet?
A skála egyik végén a hagyományosan ellentmondás-mentességre törekvő matematikai megközelítés található, ahol a Russel-paradoxon hatására az egészet az alapoktól újraépítik – a másik végén pedig egy, a használhatatlanságig ellentmondásos matematikai rendszer helyezkedne el.
Viszont a kettő között vannak átmenetek is – vagyis miért is ne képzelhetnénk el olyan matematikákat, amelyekben előfordulnak ugyan anomáliák, de attól még általában jól működnek? Ismét csak Hofstadter szerint, ha a nyelvre akarnánk alkalmazni a halmazelmélettel kapcsolatos elvárásainkat, akkor az eredmény egy olyan rendszer lenne, ahol „magának az elméletnek a tárgyalása jelentené az elmélet legdurvább megsértését”.
Értsd: egyszerűen nem működne a dolog, és innentől kezdve számomra kérdés, hogy a matematikával szemben viszont miért várjuk el, hogy „tökéletes” legyen még akkor is, ha ehhez mindenféle nyakatekert logikai tornamutatványokat kell végrehajtanunk?
Mint ahogy az "inkonzisztens matematika" éppen az ellentmondásmentesség bizonyos feltételek mellett való elhagyására épít - ami viszont azt jelenti, hogy az eddigi ellentmondásmentes axiómarendszerek mellé most oda kerülhetnek az inkonzisztensek is. Méghozzá nem is kevés, cserébe pedig (talán) olyan területek és kérdések is elérhetőek lesznek, melyek korábban nem voltak azok.

2013. június 7., péntek

Prímek és sejtautomaták

Gregory Chaitin amerikai matematikus egyenesen azt mondja, hogy „nem nagyon érdekelnek a prímszámok”, és hivatkozik Ramanudzsanra is, aki szerint lehet, hogy helyettük inkább a „maximálisan osztható”, vagyis a lehető legtöbb osztóval rendelkező számokkal kellene foglalkoznunk. Ehhez Chaitin azt is hozzáteszi, hogy az egész kérdésnek leginkább filozófiai jelentősége van, vagyis az, hogy „még egy ilyen egyszerű matematikai területen is azonnal olyan kérdésekbe ütközünk, amelyek megválaszolásának hogyanját senki sem tudja”, és innentől kezdve két megoldás képzelhető el ezekkel a bizonyos csak eggyel és önmagukkal osztható számokkal kapcsolatban.

Vagy az, hogy vannak még számunkra ismeretlen mintázatok/szabályszerűségek, és előbb-utóbb ha nem bukkanunk is rájuk szükségképpen, legalább elvileg rájuk bukkanhatunk majd a jövőben;
vagy pedig a prímszámok (és más matematikai jelenségek) esetében nem léteznek ilyen szabályszerűségek – bármennyire meglepően is hangozzék ez elsőre.
    Mely utóbbi feltételezéssel összhangban Stephen Wolfram az Újfajta tudományban a sejtautomatákból kiindulva két megállapítást tesz: hogy
    • egyszerű rendszereket létrehozva hamar átlépünk egy küszöböt, és ezt követően a rendszer előre jelezhetetlenül kezd viselkedni; illetve, hogy
    • a további, komplexebb szabályok általában nem vezetnek növekvő komplexitású jelenségekhez.
    Majd pedig a példák között a prímeket is megemlíti, ahol egyszerű szabályok (oszthatóság) előre jelezhetetlen viselkedést (előre jelezhetetlen módon megjelenő prímek) eredményeznek. Amiből nem mellékesen az is következik, hogy bármiféle szabálykeresés, ideértve pl. az Ulam-spirált is, eleve kudarcra van ítélve.
    Ugyanis az ilyen rendszerekben csak úgy lehet kideríteni, hogy a sejtautoma egy adott helyén van-e valami vagy nincs (illetve, hogy egy adott szám prím-e), hogy megvizsgáljuk a szóban forgó esetet – de nincs valamiféle szabályból következő válasz. Az pedig, hogy az Ulam-spirál szabályszerűséget látszik mutatni, egyáltalán nem meglepő: Wolfram számos példát mutat ilyesmire a sejtautomatáknál.
    Amennyiben elfogadjuk az érvelését (márpedig én elfogadom), akkor legalább három kérdést tehetünk fel.
    • Egyfelől azt, hogy vajon csupán ez az egyetlen komplexitási küszöb létezik-e, vagy pedig azért nem bukkantunk még újabbakra, mert a Wolfram által használt egyszerű sejtautomaták nem elég bonyolultak ahhoz, hogy elvezessenek hozzájuk?
    • Másfelől: eddig lehet, hogy túlságosan is a „szabályok tudományának” tartottuk a matematikát, és amivel nem boldogultunk, azt egyszerűen még meg nem oldott problémának tekintettük, noha elképzelhető, hogy jó néhányat közülük nem is lehet a hagyományos értelemben megoldani.
    • Végezetül a kiindulási problémánkhoz visszakanyarodva: úgy tűnik (és azért fogalmazok ilyen óvatosan, mert itt, lévén nem a matematika hagyományos megközelítéséről szó, a hagyományos bizonyosságnak sincs helye), hogy az összeadás és kivonás (miként korábbi blogbejegyzésekben már érintettem) nem elég bonyolult ahhoz, hogy olyan szabálytanul viselkedő jelenségeket hozzon létre, mint amilyennek a szorzás és osztás „magasságában”, azt a bizonyos komplexitási küszöböt átlépve a prímszámok bizonyulnak.  Viszont jó lenne tudni, hogy vajon milyen más, nem szorzáson és osztáson alapuló matematikai rendszereket építhetnénk rá az összeadásra és kivonásra, ahol hasonlóan összetett és előre jelezhetetlen eredmények lépnének fel, mint most?

    2013. június 5., szerda

    A Nagy Fermat-tétel és "a könyvből" származó bizonyítások

    Az utóbbi évtizedek talán legnagyobb matematikai szenzációja a Nagy Fermat-tétel bebizonyítása volt – a történet azonban korántsem olyan egyszerű, mint amilyennek látszik.
    Egyfelől ugyanis felmerülhet a kérdés, hogy miért éppen ez, és azt válaszolhatjuk rá, hogy minden bizonnyal jelentős mértékben történeti okokból. Az például, hogy léteznek-e tökéletes páratlan számok (ahol a szám osztóinak összege magának a számnak mint osztónak az elhagyásával azonos a számmal), minden bizonnyal nem nehezebben megérthető probléma; nekem nem tűnik kevésbé izgalmasnak; és nem is újabb. Viszont mégsem foglalkoztatja az emberek túlnyomó többségét. De említhetnénk más példákat is: elvégre ne feledjük, hogy (bizonyos határokon belül) mindig szubjektív, hogy mi számít fontosnak és mi nem.
    Viszont amikor Paul Wolfskethl darmstadti gyáros szerelmi bánat miatt öngyilkosságot akart lekövetni a 19. század második felében, akkor elhatározta, hogy ezt pontosan éjfélkor fogja megtenni – ám a könyvtárában rábukkanva Fermat állítására, annyira belemerült az olvasásba, hogy elmulasztotta az időpontot. Úgyhogy hálája jeléül díjat alapított a bizonyítás honorálására, és göttingeni egyetem csak az első évben 621 „megoldást” kapott. Még egy szabványválaszt is kénytelenek voltak rendszeresíteni, mely szerint
    „Kedves… Úr/asszony!
    Köszönettel vettük a Fermat-sejtés megoldásáról szóló kéziratát. Az első hiba a …-dik oldalon, a …-dik sorban található. Ebből kifolyólag a bizonyítása nem értékelhető.”

    Ám David Hilbert 1900-ban ennek ellenére még ha a bevezetőben megemlítette is, mégsem vette fel a korszak 23 legfontosabb matematikai problémájának a listájára – és miért is tette volna. Fermat állítása mindössze annyi volt, hogy az a^n+b^n=c^n-nek nincs megoldása, ha n 2-nél nagyobb, pozitív egész szám – ami kétségkívül érdekes állítás ugyan, de még akkor sem több ennél, ha ma többek között arra szokás hivatkozni, hogy a bebizonyításához vezető kutatások során számos érdekes és fontos eredmény született. Csak éppen bármelyik nehéznek bizonyuló bizonyításnak ez lett volna az eredménye: elvégre amennyiben nem triviális, úgy sokat kell dolgozni vele.
    Ráadásul ott van Carl Linderholm, aki a Mathematics Made Difficult című 1972-es könyvében azt kérdezi, hogy mivel folytatódhat az 1,2,3,4,5 számsor. Meg a 2,4,6,8,10; az 1,4,9,16,25 és még néhány másik. Majd pedig megmutatja, hogy a Lagrange-féle interpolációs képlet mindegyikre a 19-et adja ki. Értsd: ugyanazt a (matematikai) jelenséget többféleképpen is lehet magyarázni, és persze az sem kétséges, hogy bizonyítani is több úton-módon lehet. Elisha Scott Loomis 1940 körül például nem csupán 370 bizonyítást gyűjtött össze a Pitagorasz-tételre, de eközben 4 csoportba is sorolta őket: algebrai bizonyítások (109); geometriai (255); a komplex vektortereken alapuló kvaternionikusak (4) és a dinamikán alapulóak (2).
    De hogy visszatérjünk a Fermat-tételhez: ráadásul Wiles valójában nem is ezt bizonyította be (és a dolgozatában ezért nem is említi Fermat nevét), hanem az ennél általánosabb Taniyama – Shimura sejtést, amelyből viszont következik a Fermat-tétele is.
    Végül pedig egy további példaként ott van Klein ún. erlangeni programja is, mely szerint „a geometria nem más, mint csoportelmélet”. Amiből pedig az következik, hogy  egy régóta tanulmányozott területet adott esetben vissza lehet vezetni egy újra; és így új megoldások bizonyítások is születhetnek – akár egy régi sejtésre, akár pedig egy olyanra, amely korábban fel sem merült.
    Semmi okunk sincs tehát feltételezni, hogy a jövőben ne találhatnánk más bizonyításokat a Fermat-tételre is; illetve, hogy ezek egyike-másika nem lehetne jóval egyszerűbb a Wiles-félénél, amely több mint 100 oldalra rúg, és a világon alig néhányan képesek megérteni. Erdős Pál nagyon szerette mondogatni, ha egy bizonyítás nagyon tetszett neki, hogy az „a könyvből” való; valójában azonban nem egy könyv van, hanem egy egész könyvtár, és ebből egyes műveket még el sem kezdtünk írni.