Je ne sais pas. Je pose cette question en regard a l'architecture
GT200 de nvidia. nottament la 285GTX.
En simple précision, cette architecture dévellope 1062.72 Gflops,
soit 1 Tflops. mais en double précision, les donnée sont inconnu.
on parle de 200Gflops mais rien n'est certain.
c'est pour ca que je demandais... ?
et une autre question me trotte également.
j'aimerai, en C, faire des opérations mathématique simple sur des nombres en
256, 384, 512, 768, et meme 1024 bits. j'aimerai donc utiliser l'architecture de ma carte nvidia pour pouvoir,
via CUDA, effectuer ces opérations.
comment on peut effectuer des opérations sur des nombres plus grand (256 bits donc) que
ce que l'architecture te le permet ?
en gros, c'est quoi l'algo pour faire en C:
565525791540989378115994900021445889893 + 842215903550500249891021400267758987980
??