Afgelopen zondag kwam het bericht online dat Nvidia zou cheaten in Futuremark's populaire benchmark 3DMark03. Hardware- en softwareguru John Carmack ontving het bericht ook en vertelt in een weblog op Slashdot waarom Nvidia in bepaalde opzichten hoger dan ATI scoort, en andersom.

Het zou komen door het feit dat Nvida drie verschillende bit floats (12, 16 en 32) gebruikt, en ATI maar één (24). Tests kunnen dus niet op één bepaalde bit float gedaan worden, er is altijd iemand die een grote of kleinere marge heeft op de gekozen float. The significant issue that clouds current ATI / Nvidia comparisons is fragment shader precision. Nvidia can work at 12 bit integer, 16 bit float, and 32 bit float. ATI works only at 24 bit float. There isn't actually a mode where they can be exactly compared. DX9 and ARB_fragment_program assume 32 bit float operation, and ATI just converts everything to 24 bit. For just about any given set of operations, the Nvidia card operating at 16 bit float will be faster than the ATI, while the Nvidia operating at 32 bit float will be slower. When DOOM runs the NV30 specific fragment shader, it is faster than the ATI, while if they both run the ARB2 shader, the ATI is faster.Alle techneuten surfen naar dit adres om het hele bericht te lezen.