Csak párhuzamosan programozni - na az még finomabb dolog (és inkább csak aprócska részletekre bontható feladatoknál villant a videókártya - játékok pixelei, videókonvertálás, renderelés, stb. - ahogy mondani szokták, a "jól párhuzamosítható feladatok").
Ettõl függetlenül a tipikus hibákat nem szabad szubjektíven megítélni (melegebb felé kevésbé téved - milliónyi pontosító kérdés merül fel egyetlen kijelentés miatt).
Továbbá 256 bites számábrázolás jelenleg lehetetlen, de ez a processzoraink és tárolóink felépítésébõl adódik (már a decimális pontosság is hatalmas sebesség-visszaesést eredményezett tesztjeimben, mint a double pontosságú).
A fejlõdés ezen a területen szerintem marad állandó, kizárt, hogy ne legyen késõbb még finomabb felbontású globális léptékû modell, pontosabb eredményekkel és kevesebb hibával. Egyetemen furcsa volt olyan gráfelméleti tételt tanulni, amit épp a szomszéd épületbeli (ELTE) professzor bizonyított be nemrég, 2006-ban... Szóval a matematika nem ért véget még, és gondolom a pontosság és pontosítás terén sem.
Bár a videókártyákat átnevezhetjük "fizikai számlálóegység"-gé, még ha nem is ugyanaz, korrektebb...