2011. július 27., szerda

A negatív számok története

Kezdetben hasonlóan, mint a kisgyerek nyelvtanulásánál, az alap fogalmak mellett elsőként alakultak ki a ma természetes számként hívott egy, kettő stb.. számok nevei. (Attól most kicsit tekintsünk el, hogy most éppen a természetes számok halmazába a nulla éppen beletartozik. Kezeljük a nullát most kicsit külön, speciális volta miatt.)



Még alapvetően a tört számok is elég érthetőek, mert a hétköznapi nyelvben is találkozunk azzal, hogy csak egy fél almát kérek, és mindenki érti ha a 24 gyerek harmada megbetegedik.
De mi a helyzet a negatív számokkal?! Annyira nem egyszerű a kérdésre a válasz, hogy a nyugati matematikusok egészen a XVII. századig hadilábon álltak a kérdéssel.

Az ókori görögök a számra úgy tekintettek, mint valami, amit ábrázolni is lehet. Így voltak tört számok és természetes számok, de nem volt se nulla, se negatív szám. Igazából Arisztotelész még az egyet se hívta számnak. Ő ezt csak mérési egységnek nevezte. Azért meg kell jegyezni, hogy -n-et értelmezték, csak nem hívták számnak....Tehát értették, mit jelent, hogy 8-2. Meg tudták oldani, hogy 2x+10=4, de inkább nem is írták le, mivel a végeredménye nem szám.
Az ie. VII. században az indiaiak és később a jól ismert Fibonacci is megengedte a negatív számokat, és úgy tekintettek rájuk pénzügyi számításokban, mint tartozások.
A kínaiaknál a Han periodusban (i.e-200-i.u.200) megjelent matematikai írásban, a Kilenc fejezet a matematika művészetéről (Jiu-zhang Suanshu) jelent meg először a negatív szám fogalma. Piros pálcikákkal jelezték a pozitív, és fekete pálcikákkal a negatív számokat. Ezt a jelölést később az írásban is megőrizték: piros és fekete betűkkel írták a pozitív ill. negatív számokat.

Ugorjunk egy nagyot az időben és térben. Descartes a negatív gyököket "hamis gyököknek" hívta. Pascal pedig értelmetlennek gondolta, hogy bármi szám lehet kisebb, mint nulla. Pascal barátja, Antoine Arnauld egyenesen be is bizonyította, a negatív számok létezésének ellentmondását:

-1/1=1/-1. Azaz egy kisebb szám osztva egy nagyobbal, ugyanannyi, mint egy nagyobb osztva egy kisebbel.

Ez az elég paradoxnak tűnő állítás foglalkoztatta a reneszánsz matematikusait. Leibniz egyetértett abban, hogy ezt az egészet elég nehéz feloldani, de azért megvédte a negatív számokat, mert azért helyes végeredményeket, számításokat lehetett velük végezni.

Néhányan, például az ismert John Wallis és a még ismertebb Leonard Euler a XVII és XVIII. századból, elfogadták ugyan a negatív számok létezését, de úgy gondolták, hogy a végtelennél nagyobbak. Miért?!

Mert a/0=végtelen. így ha 0-nál kisebb számmal osztjuk a-t, pl -100-zal, akkor a negatív szám, amit kapunk nem kellene, hogy meghaladja a végtelent, nem?!

Izgalmas kérdés.

Sokfajta jelölés volt használatban ezalatt a negatív számokra: aláhúzták, megpöttyözték őket. A XVI. században kezdték a német és holland matematikusok használni a + és - jeleket, ami szép lassan el is terjedt Európa szerte.
Legközelebb megnézzük, hogy mi is volt a bajuk a régi matematikusoknak a negatív számokkal, és megpróbáljuk feloldani ezeket az ellentmondásokat.


Forrás:Martin Gardner Penrose Tiles to Trapdoor Ciphers könyvének Negative Numbers fejezete.

Nincsenek megjegyzések:

Megjegyzés küldése