Große GPUs zum Aussterben verdammt

Dieses Thema im Forum "Netzwelt" wurde erstellt von Melcos, 18. November 2006 .

  1. 18. November 2006
    Große GPUs zum Aussterben verdammt

    von Klaus Laenger: Freitag 17 November 2006, 4:38

    Der kommende R600-Chip wird der letzte große monolithische Grafikprozessor von ATI sein. Sein Nachfolger R700 soll statt dessen aus einem Cluster kleinerer Einheiten bestehen.

    Wenn man aktuelle Grafikchips vom Schlag eines ATI R600 oder eines Nvidia G80 betrachtet, dann bestehen sie aus einer ganzen Reihe modularer Einheiten. Wenn man für die Verbindung dieser Einheiten etwas ähnliches nutzt wie die Hypertransport-Architektur der Opterons, dann kann man auf einer Karte statt einer dicken GPU zum Beispiel vier schlanke Rechneneinheiten unterbringen. Der Vorteil dieser Konstruktion liegt auf der Hand: Sie ist beliebig skalierbar. Auf der Low-Entry-Karte sitzt dann ein Chip, auf der Mittelklassekarte vier und die Gamer kriegen Karten mit 16 Chips. Zwar ist auf der Software-Seite dafür einiges an Arbeit nötig zu sein, aber bei ATI soll man schon eine passendes Rezept parat haben.
    Wenn das auch funktioniert, dann hat ATI/AMD mit dem R700 ein tolles Produkt: Einfacher zu fertigen, gut für eine konsistente Modellfamilie und mit der Möglichkeit, alle Karten von Low-Entry bis High-End auf einen Schlag in den Markt zu bringen.
    Ob Nvidia mit dem G90 in eine ähnliche Richtung gehen wird, ist noch ungewiss, aber es gibt erste Anzeichen. So ist es durchaus möglich, dass man in R600 und G80 in der Zukunft so etwas wie Dinosaurier sehen wird: Groß und mächtig aber letzten Endes doch ausgestorben.

    Quelle: The Inquirer
     
  2. 18. November 2006
    AW: Große GPUs zum Aussterben verdammt

    hm...scheint sich ja gut anzuhören...aber dieser Klaus Laenger scheint Legasteniker zu sein wenn man sich mal die Gramatikalischen Felhler anschaut^^
     
  3. 18. November 2006
    AW: Große GPUs zum Aussterben verdammt


    Thx fürn Artikel aber war irgendwie klar: größere Chips sind vielfach schwieriger zu fertigen, die Yieldrate ist schlechter, der Chip für den Hersteller viel teurer. Was außerdem bei so großen Chips dazukommt ist die enorme Verlustleistung. Aber der Ansatz, den der "Experte" im Artikel beschreibt ist schon etwas älter: Anno 1995 Gabs ne coole Firma 3dfx die auf ihre Karten eine einzelne GPU für die Texturen, eine weitere für doppelte Leistung dann noch ein paar andere für die 3d Berechnungen usw.1998 kam SLI, das wie oben funktionierte und 2 Karten fast ohne Leistungsverlust (nicht so wie heute)miteinander verband. Dann 1999 wollte mann alles auf einen Chip unterbringen, die Voodoo 3 ward geboren. Dann kam 2000 die Voodoo 5 5500, die 2 Chips auf einer Karte hatte mit genau dem obrigen Prinzip. Die 4 Chip variante schaffte es leider nicht mehr zum Markt, aber in die Hände einiger freudiger Besitzer. Googelt halt mal "Voodoo 5 6000"...
     
  4. Video Script

    Videos zum Themenbereich

    * gefundene Videos auf YouTube, anhand der Überschrift.