Zu der Zeit, als sich die Offlinerenderer entwickelt haben, waren GPUs tatsächlich nicht dazu geeignet bzw. auch noch gar nicht erfunden. Die Algorithmen der Offlinerenderer unterscheiden sich grundsätzlich von denen, die in der Rastergrafik von Videospielen von der GPU beschleunigt werden. Rastergrafik ist auf Echtzeit und dementsprechend weniger auf Realismus ausgerichtet. Bei Offlinerenderern ist das genau umgekehrt, denn die sollen in erster Linie „korrekte“ Bilder erzeugen und die Zeit, die sie dafür benötigen ist nur zweitrangig.
Der anfängliche Name von „Grafikkarten“ ist vielleicht auch etwas irreführend. „Rastergrafikkarten“ wäre wahrscheinlich besser gewesen. Und heutzutage eher „General-Compute-Karten“.
Erst als im Laufe der Jahre dynamisch programmierbare Teile (die sogenannten Shader) in der Rastergrafik eingeführt wurden, hat sich herausgestellt, dass GPUs wunderbar denselben simplen Algorithmus rasend schnell auf sehr große Datenmengen anwenden kann. Eigentlich genau das was beim Lösen von Differentialgleichungssystemen gebraucht wird.
Im Laufe der letzten Jahre haben sich die GPUs sogar noch weiter entwickelt, soweit, dass sie sich schon teilweise wie CPUs programmieren lassen. Das Wissen über diese Entwicklung kommt - meiner Erfahrung nach - aber nur sehr langsam in der Forschung an, was man ja auch an den anfänglichen Argumenten hier in der Diskussion teilweise erkennen kann. Und in der Forschung herrscht ja teilweise auch ein hoher Publikationsdruck und das Anpassen eines Algorithmus auf eine bestimmte Hardware ist auch leider nicht sonderlich „publikationswürdig“.
In letzter Zeit nutzen auch immer mehr Offlinerenderer GPUs (z.b. ProRender von AMD, das in Cinema4D genutzt werden kann, oder auch Otoy Octane, die komplett auf GPU-Rendering setzen). Das dauert leider seine Zeit und kostet die involvierten Firmen auch viel Mühe, die bestehenden Algorithmen für die Ausführung auf GPUs anzupassen.
Um den Kreis zu den Wetterberechnungen zu schließen: Es wurde ja im Beitrag erwähnt, dass die Kommunikation zwischen den Rechnern der Flaschenhals ist. Da helfen GPUs natürlich auch nicht. Die Berechnungen zwischen der Kommunikation könnte man aber mit hoher Wahrscheinluchkeit sehr gut für GPUs optimieren, wenn man das Geld investieren würde. Aber, wie gesagt, für eine nichtkomerzielle Organisation wäre es evtl. ein zu großes Risiko, die gesamte Rechnerinfrastruktur umzustellen. Vor allem, ohne zu wissen, wie viel Geld am Ende tatsächlich eingespart werden kann.
Um deine letzte Frage noch zu beantworten: Ich hab einige Jahre in der Forschung im Bereich „Computer Vision“ gearbeitet. Jetzt bin ich einem Unternehmen angestellt, wo ich Kunden bei der Migration ihrer Algorithmen von der CPU zur GPU unterstütze.
Und um noch etwas zur Sendung zu sagen: Mir gefällt diese Art der „Dokumentation“ ziemlich gut. Diese undestillierten Gespräche finde ich sehr angenehm und man erfährt auch etwas über die Personen, die dahinter stehen. Klar kann man die Informationsdichte erhöhen oder optimieren, aber genaz ehrlich: Dann lese ich mir lieber ein Paper oder einen guten Artikel zu dem Thema durch. Denn so ein Video würde dann keinen wirklichen Mehrwert bieten.
Also: Mach weiter so, Thomas!