Das Feature Sparsity verdoppelt bei Nvidia und AMD die Rechenleistung. Wir erklären, was es damit auf sich hat und warum es für KI interessant ist – obwohl es nicht neu ist. Von Johannes Hiltscher (Algorithmus des Monats, AMD)
Der Beitrag (g+) Sparsity erklärt: Wie KI-Beschleuniger ihre Rechenleistung vervielfachen erschien zuerst auf Rene Telemann.




