2013. július 28., vasárnap

Barbie és a nem szorosan csatolt matematikák

Néhány éve kaphatóak voltak olyan beszélő Barbie-babák, amelyek repertoárjába annak a hangoztatása is beletartozott, hogy „a matematika nehéz”. Ami viszont akkora felháborodást váltott ki (gondolom, leginkább a lányos szülők körében), hogy a gyártó cégnek végül törölnie kellett a kérdéses kijelentést a repertoárból – de azért valószínűleg senki sem tételezi fel, hogy a matematika könnyű lenne.
Keith Devlin amerikai matematikus amellett érvel A matematikai gén című könyvében, hogy „a nyelv és a matematika képessége nem elkülönültek: mindkettőt az emberi agy ugyanazon tulajdonságai tették lehetővé” még akkor is, ha az előbbinek nagyságrendekkel hosszabb története van, mint az utóbbinak. Ugyanis miközben a nyelv legalább év tízezredek óta velünk van, a matematika kezdetei valamikor a neolitikus forradalmak idején jelennek meg, és mint nem csupán számolás (amit gyakran össze szoktak téveszteni a matematikával) mindössze kb. 2500 éve létezik – vagyis evolúciós léptékkel mérve alig egy szempillantásnyi ideje. A kérdés tehát egyfelől az, hogy miért olyan nehéz a számunkra(mint ahogy a Barbie-babák is állították); másfelől, hogy miként lehetne másképp csinálni. Úgy, hogy könnyebb vagy éppen más legyen.
Az elsőre Devlin azt válaszolja, hogy a nyelv alapvetően a társadalmi kapcsolatok leírására és kezelésére jött létre: ezért is vonzódunk annyira az ezekkel kapcsolatos narratívákhoz (a pletykához, ha így jobban tetszik), és a hírek, könyvek, cikkek, filmek és bármik többsége ezért is arról szól, hogy mi történik két vagy több ember között. Érdemes megfigyelni, hogy mennyivel könnyebben jegyzünk meg egy pletykát, mint egy tudományos összefüggést. És hasonlóképpen: bár kimondottan tudományos érdeklődésűnek tartom magam, még én is könnyebben kikapcsolódom egy jó regénnyel a kezemben, mint egy elmélyült tanulmánnyal az ókori görög számfelfogás püthagoraszi alapjairól, bármennyire is érdekel különben a kérdés.  „Nincs vizuális képem a piről”, jegyzi meg Devlin, „miközben van egy regény szereplőjéről.”
De ez nem meglepő. Mondhatni, evolúciós múltunk miatt tűnik számunkra érdekesebbnek (és ami még fontosabb: élet közelibbnek és elképzelhetőbbnek) az ember, és jó lenne tudni, hogy elvileg lehettünk volna-e sokkal kevésbé ember- és társadalom-, illetve sokkal inkább természeti jelenség centrikusak (szerintem nem, de lehet, hogy tévedek). Továbbá: az akár evolúciós mércével is távoli jövőben megtörténhet-e az, hogy mivel már nem lesz olyan nagy adaptációs értéke, hogy állandóan a többiekkel foglalkozunk, ezért mondjuk egy véletlen genetikai sodródás eltávolít-e ha nem is mindenkit, de legalább egyeseket ettől (szerintem lehetséges, de persze lehet, hogy ez esetben sincs igazam).
Devlin mindenesetre úgy véli, hogy mint ahogy a nyelv az emberek közötti kapcsolatok leírására szolgál, a matematikának az absztrakt fogalmak közötti kapcsolatok leírása a célja. Értsd: lényegében egyfajta, az absztrakciók kezelésére kitalált „metanyelvvé” vált mostanra. Márpedig ismét csak vadászó-gyűjtögető múltunk miatt ez egyszerűen idegen tőlünk: annak idején nem függött a túlélésünk az olyan elvont fogalmak megértésétől és kezelésétől, mint amilyen a Cantor-féle kontinuum-hipotézis.
Ami viszont azt jelenti, hogy ellentétben mondjuk a zenei képességekkel, ahol vannak Mozartok és botfülűek is, itt mindenki az utóbbi kategóriába tartozik, és ennek megfelelően „a matematika iránti érdeklődés jelenti az alapvető különbséget azok között, akik értik és azok között, akik nem boldogulnak vele”, írja Devlin. Vagyis bárki lehetne jó matematikus, ha lenne hozzá kedve és türelme, mert ezen a pályán senki sem indul előnnyel.
És hogy akkor miért állítja az emberek nagy része, hogy „a matematika nehéz”?
Egyfelől természetesen fentebb már említett absztrakt mivolta miatt. Az anyanyelvünket könnyen elsajátítjuk, és később is képesek vagyunk (nagyjából ugyanannyi idő: néhány év alatt) egy újabb nyelvet megbízhatóan elsajátítani egy idegen országban élve. Mivel azonban matematikaország nincs, ahol letelepedhetnénk, ezért nagyjából abban a helyzetben vagyunk, mintha egy, a miénktől teljesen eltérő nyelvet (mint amilyen mondjuk a mesterségesen létrehozott lojban) kizárólag egy nyelvtankönyvből meg egy szótárból próbálnánk megtanulni. Ami azért rettenetesen nehéz.
Ráadásul a matematika még ennél is nehezebb, ugyanis szorosan csatolt. Ha egy idegen nyelv megtanulásakor nem értünk meg egy nyelvtani szabályt, akkor lehet, hogy bizonyos esetekben hibás (sőt, érthetetlen) lesz, amit mondunk, de általában azért kisebb-nagyobb hiányosságok mellett is tudunk kommunikálni. Képzeljünk azonban el egy olyan nyelvet, ahol amennyiben nem tudjuk megfelelően használni a határozott névelőt, akkor sem az igeragozással, sem a többes számmal stb. nem fogunk boldogulni – és lényegében ilyen a matematika. A következő lépés mindig az előzőből vezethető le, és aki egyetlen fokot kihagy vagy nem ért, az képtelen lesz tovább menni. Ugyanis éppen ez a szigorú logika a jelenlegi matematika egyik meghatározó tulajdonsága.
Devlinnek abban minden bizonnyal igaza van, hogy a nyelvet és a matematikát „az emberi agy ugyanazon tulajdonságai tették lehetővé”; ez azonban nem jelenti azt, hogy csupán ez a két absztrakt rendszer lenne elképzelhető. Értsd: kíváncsi lennék, hogy újabb tízezer év múlva milyen olyan, teljesen új és számunkra még elképzelhetetlen területek alakulhatnak ki, mint amilyen a vadászó gyűjtögetők egyszerű számolásához képest a mai matematika?
Az pedig még ennél is izgalmasabb, hogy vajon nem lehetne-e olyan matematikát kidolgozni, amely nem olyan szorosan csatolt, mint a mostani, hanem inkább olyan, mint a nyelv, és ennek megfelelően sokkal könnyebben boldogulnánk vele? Sőt, esetleg olyan dolgokra is képesek lehetnék a révén, amire így nem.
És ez annál is inkább megfontolásra érdemes felvetés, mivel a görögöktől a reneszánszig kétféle megközelítés volt ismert, mondja Reuben Hersh A matematika természetéről írva. A szintetikus az eukleidészi, ahol az axiómákból kiindulva, dedukcióval vezetjük le a tételeket. Az analitikusnál viszont a problémát tanulmányozva („analizálva”) keressük a megoldást és ezért is nevezték ezt analitikus (ma inkább problémamegoldó vagy heurisztikus) felfogásnak, és csak „a 19. és 20. század ’fundamentalista’ iskolái [azok, melyek] a matematikát azonosítják a szintetikus módszerrel”, jegyzi meg Hersh.
Viszont egyáltalán nem szükségszerű, hogy a jövőben is így legyen.

2013. július 20., szombat

Miért fontos a platonizmus?

Platón
A matematikafilozófia problémáit mintegy matematikán kívül állónak szokás tekinteni, elvégre – hangzik a szokásos érvelés – teljesen mindegy, hogy valaki azt gondolja-e, hogy a számok valamiképpen tényleg léteznek, vagy pedig azt, hogy önmagukban üres és jelentés nélküli szimbólumok. Elvégre így is, úgyis ugyanazokat a bizonyításokat fogjuk érvényesnek tartani. Csak éppen miként Stephan Körner a matematikafilozófiáról szóló tanulmányában megjegyzi, egyes filozófiai kérdések „matematikai problémák felvetéséhez és a matematika olyan új ágainak kialakulásához vezettek, mint a nem-euklideszi geometriák és a matematikai logika absztrakt algebrái”. Mivel a matematika adja meg azt az értelmezési keretrendszert, melyen keresztül magát a matematikát és céljait, módszereit stb. meghatározzuk, egyáltalán nem mindegy, hogy kezdetben milyen filozófiai felfogás volt a meghatározó.
Az például meglehetősen új keletű, a 19. század második felében, Boole-lal, Fregevel és Pierce-szel meg a halmazelmélettel együtt felbukkanó értelmezés, amely „közeli kapcsolatot” tételez fel a matematika és a logika között. Vagyis bár nekünk teljesen természetesnek tűnik a kettő összefonódása, a múltban egyáltalán nem mindig volt az, és igencsak kíváncsi lennék, hogy a jövőben mi lesz a helyzet – és esetleg olyan, egyelőre függetlennek tekintett diszciplínák lesznek-e a matematikára alapvető hatással, amelyekre egyelőre nem is gondolunk.
A logikával való románcnak mindenesetre az is a következménye volt, hogy korábban nem létező, új típusú matematikafilozófiai felfogás alakult ki. A 19. századig uralkodó platonizmus szerint a matematikus lényegében olyan, mint egy geológus, aki valamiképpen létező dolgokat tanulmányoz, és ennek megfelelően nem is kitalál, csak felfedez. Az alap az a platóni felfogás volt, mely szerint a valóságot és a látszatot meg kell különböztetnünk, és persze mindaz, amit látunk és érzékelünk, az utóbbi kategóriába tartozik (ld. Platón barlanghasonlatát). Viszont ez alapján azért következtetni tudunk a „valóságra”: a konkrét asztal csak mintegy az „asztal ideájának” a megjelenése, és ugyanígy sőt, még ígyebbül van a matematikával is. A matematikus ugyan sosem fog „igazi háromszöget” látni, de a konkrét geometriai alakzatokból következtethet a valóban létező, ideális háromszög tulajdonságaira – mint amilyen például az is, hogy a szögei összege 180 fok. Vagyis innentől kezdve a platonista matematika-felfogás arra fókuszál, hogy milyen módon léteznek a matematikai objektumok, és „az aritmetika meg a geometria állításai szükségképpen igazak, mivel változatlan objektumok közötti változatlan viszonyokat írnak le” (hogy ismét csak Körnert idézzem).
A logikai alapú megközelítések viszont, elutasítva a platóni tanítást, nem indulhattak ki a szükségképpen létező matematikai igazságból, tehát az ellentmondás-mentességet választották kritériumul. Valószínűleg nem véletlen, hogy éppen a platonista Gödel bizonyította be ennek a lehetetlenségét az aritmetikára nézve, amennyiben teljes indukciót használunk. Az pedig más kérdés, hogy Gerhard Gentzen később bebizonyította, hogy amennyiben a megszámlálható számosságúaknál nagyobb, végtelen számosságokra épülő, ún. transzfinit indukciót használjuk, amelynek így a „hagyományos” matematikai indukció csupán egy alesete, akkor „ez a módszer lehetővé teszi az aritmetika minden igazságának dedukálását”, mondja J. D. Barrow (a Pi in the Sky című könyvében). Viszont „nem teszi lehetővé a teljes matematika minden igazságának dedukálását, mivel ez utóbbi olyan igazságokat tartalmaz a végtelenekről, melyek igazsága vagy hamissága nem mutatható ki a rendszer logikai masinériáját használva”. A Gödel-problémákra egy későbbi bejegyzésben még visszatérek, tehát egyelőre legyen annyi elég, hogy a logikai alapú felfogások, miközben feladták az igazságot mint kritériumot, nem voltak képesek az ellentmondás-mentességet sem elérni. Viszont eközben már nem a matematikai objektumok létére vagy nem létével foglalkoztak, hanem azzal, hogy milyen tulajdonságokkal kell a matematikai rendszereknek rendelkezniük, és eközben persze végtelenül sok matematika lehetséges. Ugyanis nem kritérium, hogy bármilyen formában az igazságra, vagy ha úgy jobban tetszik, akkor a valóságra vonatkozzon, és ezért is beszél Stanislaw Lem a matematika analógiájaként arról az őrült szabóról, aki minden létező és nem létező teremtmény számára ruhát varr – aztán majd hátha lesz valaki, aki fel is tudja venni.
És ez bizony elég nagy váltás az „igazságon alapuló” korábbi felfogáshoz képest.
Viszont bár a platonizmus mostanra nem látszik védhetőnek, elvégre miért is tételeznénk fel, hogy a tapasztalhatón túl ott vannak holmi formák vagy ideák, azt, hogy milyen elvárásaink vannak vele szemben, és általában véve is milyen természetűnek tekintjük a matematikát, még mindig a platonizmus határozza meg. Még mindig az a bevett felfogás ugyanis, hogy a kiindulási pont az ideális alakzatokkal és formákkal foglalkozó „tiszta” matematika, és aztán ennek – vagy legalábbis egyes részeinek – a minket körülvevő valóságra való alkalmazásával juthatunk el az alkalmazott matematikához. A valóság azonban – nem különösebben meglepő módon – nagyon is más, mint amit a matematikakönyvek leírnak és megengednek, és aki kételkedne ebben, az próbáljon mondjuk egy A4-es papírlapot hétnél többször összehajtogatni. Értsd: ha a görög matematika kezdeteinél nem a paltonista felfogás bábáskodott volna, akkor talán senki sem találná érdekesnek a pi tizedes jegyeit újabb és újabb billiókig való kiszámolását, miközben egy 39 tizedes jegy birtokában a hidrogénatom sugaránál kisebb hibával határozhatjuk meg a világmindenség kerületét.
Azaz: történeti okai vannak, hogy a matematika egy szélsőségesen absztrakt irányba indult le (és erre a szélsőségesen absztrakt matematikára épült aztán rá az egész modern természettudomány is), és kíváncsi lennék, hogy hová és meddig jutottunk volna, ha annak idején más kiindulási pontot választunk.

2013. július 13., szombat

Számautomaták és számsorok

A mai pénzrendszerek kerek aprópénz-címleteket használnak, állapítja meg John D. Barrow amerikai fizikus, vagyis rendszerint 1, 2, 5, 10, 20, 25, 50 (vagy ezek közül néhány) fordulhat elő fizetéskor. És innentől kezdve persze kérdés, hogy milyen egységekből lenne a legkevesebbre szükség ahhoz – illetve felmerülhetnek az egész számok „legenerálhatóságára” vonatkozó kérdések is.
Ami az előbbit illeti, Jeffrey Shallit (Ontario) számítógépes modellezéssel azt mutatta ki, hogy amennyiben csupán 1, 5, 10 és 25 centest használhatunk, akkor 100 centen belül maradva egy adott összeghez átlagosan 4,7-re lesz szükségünk.  Ám 1, 5, 18 és 29 centesekkel a zsebünkben átlagosan 3,89 darab is elég lenne (mint ahogy az 1, 5, 18, 25 centesek esetében is). Kizárólag 1 centesekből viszont – nem különösebben meglepő módon – átlagosan 49,5 kellene.
Ezt a problémát általánosítva kiindulhatnánk azonban abból is, hogy mi lenne, ha a (természetes) számokat egy egyszerű szám „számautomatával” kellene létrehoznunk az alábbi, nem éppen bonyolult szabályok alapján:
  • kiindulásként a 0 adott , vagyis az, hogy „nincs semmi”.
  • Egy összeadás 1 műveletet jelent; egy szorzás szintén 1-et.
  • Egy ciklusban csak egy műveletet végezhetünk.
  • Csak olyan számokat használhatunk, melyeket már „létrehoztunk” (tehát ha már legeneráltuk a hármat, akkor azt hozzáadhatjuk egy másik, legenerált számhoz vagy összeszorozhatjuk vele, de ha újra szükségünk lenne rá, akkor nem ránthatjuk csak úgy elő a kalapból).
Például az első lépésben meglévő nullához hozzáadunk 1-et, és mivel egy műveletet már végrehajtottunk, a ciklus véget is ér – viszont van egy darab 1-esünk, úgyhogy a következő körben 0 helyett ezzel indíthatunk, és egy újabb +1-nek köszönhetően az eredmény 2 lehet. Majd pedig ha újból végig csináljuk a procedúrát, akkor eljutunk a fentebb említett 3-hoz.
Ami mindezidáig nem is különbözik olyan nagyon attól, mintha a természetes számokat ábrázoló számegyenesen lépkednénk végig 0-tól 3-ig, és amihez esetünkben három ciklus kellett (röviden: 3c), és innentől kezdve a számokhoz hozzárendelhetjük, hogy minimum hány ciklusból konstruálhatóak meg. Tehát a szorzást (1)-gyel jelölve a számok így építhetőek fel:
1=1c
2=2c
3=3c
4=4c
5=5c
6=6c
7=7c
8=7c (2,4, (1))
9=7c (3,3, (1))
10=8c (2,5, (1))
11=9c (2,5,(1),1)
12=8c (3,4, (1))
13=9c (3,4, (1),1)
14=10c (2,7,(1))
15=9c (3,5, (1))
16= 9c (4,4, (1))
17=10c (4,4, (1), 1)
18=10c (3,6, (1))
19= 11c (3,6, (1), 1)
20=10c (5,4, (1))
21=11c (5,4, (1), 1)
22=12c (3,7, (1), 1)
23= 13c (3,7, (1), 2)
24=11c (6,4, (1))
25=11c (5,5, (1))
26= 12c (5,5, (1), 1)
27= 13c (3,9, (1))
28= 12c (4,7, (1))
29=13c (4,7, (1), 1)
30=12c (5,6, (1))
31=13c (5,6, (1), 1)
32=13c (4,8, (1))
33=14c (4,8, (1), 1)
34=13c (4,8, (1))
35=13c (5,7, (1))
36=13c (6,6, (1))
37=14c (6,6,(1), 1)
.
.
.
100= 21c (10,10, (1))
.
.
.
1000=32c (10,10, (1), 10, (1))
Ami persze ideáig is elég izgalmas, mert innentől kezdve a számokat úgy foghatjuk fel, mint egy számautomata adott állapotát, és azt is megfigyelhetjük, hogy vannak olyan számok, melyeket a legegyszerűbben ismételt összeadással állíthatjuk elő. Ezeknek a „komplexitása” azonos magával a számmal, miként 1,2,3,4,5,6,7 esetében történik. 8-tól a jelek szerint ilyesmi nem fordulhat elő, de a komplexitás viszonylag lassan nő, és akadnak olyan számok is, melyeket kétféleképpen lehet egyformán kevés lépésből legenerálni: ilyen pl. a 6 (egyszerű számlálással, 6 lépésben, vagy 2 és 3 létrehozása után ezek összeszorzása) vagy éppen a 23.
Továbbá eljátszhatunk azzal is, hogy mondjuk a 19 –es szám 13 lépésből állítható elő; a 13 pedig 9 lépésből, míg a 9-es létrehozásához 7 lépés kell, vagyis
19 esetén:
19 – 13 – 9 – 7
az 1000 esetén:
1000 – 32 – 13 –  9 – 7
a 37 esetén:
37 – 17 – 10 – 8- 7
a 28 esetén:
28 – 12 – 8- 7
stb., és erős a gyanúm, hogy vagy a 9 – 7, vagy a 10 – 7 utat befutva mindig a 7-nél ér véget a történet.
Mindent egybevetve megtehetjük, hogy úgy fogjuk fel a számokat, mint egymást (nem feltétlenül egyesével) követő számok sorozatát, amelyek végén eljutunk a kívánt eredményhez. Ekkor többféle lehetőség képzelhető el.
1. Az első megoldás az, ahol véges sok lépésben elérjük a kívánt számot, és közben azt is pontosan meg tudjuk mondani, hogy hány lépés kell ehhez. Erre a legegyszerűbb példa egy olyan számautomata, amely nem képes másra, mint az előző számhoz mindig 1-et hozzáadni: ekkor a 0-tól indulva az 1 pontosan 1, a 137 pontosan 137 lépésre lesz. Ami, valljuk be, nem különösebben fantáziadús.
2. A másik lehetőség a Collatz-sejtés: itt az a szabály, hogy ha a szám páros, akkor oszd el kettővel; ha páratlan, akkor szorozd meg 3-mal és adj hozzá 1-et. Mindeddig bármilyen természetes számot választottak is kiindulásul, véges sok lépésben mindig „lejutott” (sic!) 1-hez; viszont lehetetlen előre megmondani, hogy ez hány lépés múlva fog bekövetkezni (egyelőre egyébként bizonyítani sem sikerült, hogy mindig így történik). Ami azért érdekes a számunkra, mert a Collatz-féle számautomatát visszafelé „üzemeltetve” az 1-től feltehetően bármelyik számhoz eljuthatunk véges sok, de előre megjósolhatatlan számú lépésben.
3. És végül ott van a fentebb részletesen leírt számautomata is, ahol a számegyenesen egyesével való előre araszolás helyett a szorzás is megengedett. Itt is véges sok lépésben jutunk el a célként kitűzött számig, és az első néhány (ld. fentebb) szám kivételével feltehetően mindig van egy rövidebb út az egyesével való összeadogatásnál. A négyzetszámok esetén (a 4 kivételével) a szám gyökének kétszerese + 1 lépésre van szükség; különben azonban nem tűnik úgy a számomra, hogy azon túl, hogy lassan nő a szükséges lépések száma, lenne szabály, amely nem csak hozzávetőlegesen, hanem pontosan előre jelezhetővé teszi a végeredményt.
Vagyis mintegy átmenet a számegyenes unalma meg a fordított Collatz-automata kiszámíthatatlan számú lépést igénylő megoldásai között.

2013. július 3., szerda

Számféleségek és számkoncepciók

A kvaternió felfedezése
Abból szokás kiindulni, hogy a természetes számok „természetesek”, értsd: mintegy az alapjai minden más számnak, és mintegy „természetesen adottak”. Ennek a felfogásnak természetesen :-) történeti okai vannak.
John L. Bell amerikai matematikus szerint a természetes számok „minden létező dolog” megszámolására valók; a törtek pedig akkor kerültek előtérbe, amikor az eredetileg számolásra szolgáló számokat „minden létező nagyság” mérésére és összehasonlítására kezdtük használni.
A mai matematikában az 1-et nem tekintjük prímnek. A görögök viszont számnak sem tekintették. Arisztotelész még úgy tartotta, hogy a szám valamiféle „láthatatlan egységek” kollekciója, amiből viszont az következett a számára, hogy mivel az 1 maga az egység, nem pedig több dolog, ezért nem lehet szám. Mint ahogy a törtek sem számítottak annak (elvégre ami nem egész, az nem állhat össze egységekből), és eközben a geometriai nagyságokról – a számokkal ellentétben –  úgy gondolták, hogy azok végtelenül oszthatóak. Ez a felfogás csak az 1500-as évekre adta át teljesen a helyét annak, mely szerint „a szám olyan szimbólum, amely a mennyiséget általában véve mutatja, ide értve a folyamatos mennyiségeket is”, mondja Bell.
A történelem folyamán mindig újabb és újabb „számféleségek” is megjelentek – miként ezt egy-egy megoldandó egyenlettel szokás megmutatni:
1.    x+1=1 (nulla)
2.    x+1=0 (negatív számok; a természetes és negatív számok együtt: egész számok)
3.    x^2=1 (racionális számok)
4.    x^2=2 (irracionális számok) (racionális és irracionális számok együtt: valós számok)
5.    x^2+1=0 (komplex számok)
Vagyis az első hullámban (1., 2.) az összeadás – kivonás; a másodikban (3., 4., 5.) a szorzás – osztás vezetett új megoldásokhoz, és ez a második lépés – egyáltalán nem mellékesen – eredményezte azt is, hogy megjelenhettek a „kétdimenziós” komplex számok, ahonnét már csak egy lépésre vannak a hiperkomplex számok és hasonlók.
Természetesen annak sincs akadálya, hogy a már létező számfogalmakat „továbbfejlesszük”: Edwin Hewitt pl. még a II. Világháború után bevezette a „hipervalós” számokat, melyek a valós számok végtelennel és végtelenül kicsivel (infinitezimális) kibővítésének tekinthetőek.
Dea hagyományos helyett megkülönböztethetjük a számokat más tulajdonságaik alapján is: a kiszámítható (computable) számok például értelemszerűen a számítástechnikával együtt jelennek meg, és minden bizonnyal vannak olyan izgalmasak, mint bármelyik fentebb említett kategória. Különösen, mivel ha a számítástudomány, illetve a felől közelítünk ahhoz a kérdéshez, hogy mire képes egy digitális számítógép, és mire nem, akkor érdekes eredményekre fogunk jutni. Például „a valaha megépítendő legnagyobb számítógép sem lesz képes akár csak egyetlen végtelen nem szakaszos tizedestört tárolására sem”, írja Reuben Hersh. Amennyiben - ad absurdum - a számítástechnika előbb lett volna a modern matematikánál, úgy egészen biztosan máshogy néznének ki a számfogalmaink.
Úgyhogy a kérdés számomra az, hogy
  • egyfelől a jövőben milyen számféleségek fognak még megjelenni,
  • másfelől: hogyan változik majd a számokra vonatkozó felfogásunk. Legalábbis elképzelhető ugyanis, hogy ugyanolyan alapvető átértelmezések fognak lezajlani, mint az ókori és a modern számfogalom között.
  • Végezetül pedig azon is érdemes eltűnődnünk, hogy a számkoncepció tárgyalásánál adottnak vesszük, hogy a természetes számokból indulunk ki – mivel történetileg azok jelentek meg először. Csak éppen ez nem jelenti automatikusan azt, hogy a modern matematika megalapozásának is feltétlenül erre kellene épülnie, és miért is ne képzelhetnénk el olyan rendszereket, ahol nem a természetes számokból kiindulva jutunk el a tört, a valós stb. számokhoz? Vagy esetleg nem is ezekhez, hanem valamilyen teljesen más számkategóriákhoz.