Auf der DBX-Konferenz am 9. Juli dieses Jahres sprach Bret Victor über die Zukunft des Programmierens. Absolut sehenswerte 30 Minuten. [Berndt Wischnewski per Email.]
1 (Email-) Kommentar
Bei seinen Äußerungen über massiv parallele Systeme drängte sich mir der Eindruck auf, dass er die gegenwärtigen Entwicklungen nicht verfolgt. Insbesondere, da er an Stelle 25:50 von Intel behauptet, sie würden das sequentielle Programmiermodell propagieren. Intel ist einer der lautesten unter den vielen Akteuren, die unzählige Bibliotheken, Compiler-Plugins, Anleitungen und Hardware (sowohl kommerziell, wie z.B. Graphikkarten, als auch experimentell, z.B. Intels Knights Corner Chip) entwickeln, die Brets Äußerungen/Folien (und mehr) umsetzen. Das ist also längst Gegenwart.
Und wenn jetzt jemand fragt, warum all diese real existierenden Sachen die Welt des Programmierens nicht im Sturm überrollt haben, hier nur ein paar Beispiele für die nicht so leicht zu lösenden Nachteile von massiver Parallelität gegenüber sequentieller Programmierung:
- die Reihenfolge der Verarbeitungsschritte in einem sequentiellen Programm ist implizit verständlich, in einem massiv parallelen System benötige ich Werkzeuge, um eine vergleichbare Darstellung zu erzeugen.
- die Anzahl der Prozessoren eines massiv parallelen Rechners lässt sich leicht steigern, aber die Anzahl der Datenleitungen zu einer Speicherzelle nicht. Es ist aber gerade das herausragende Merkmal massiv paralleler Programmierung, dass Daten von einem Prozessor geschrieben werden, die dann einen Augenblick später von einem anderen Prozessor gelesen werden. Das bedeutet, dass es einen Punkt gibt, an dem ein Programm bei weiterer Parallelisierung langsamer, statt schneller wird.
- die einzelnen Mini-Prozesse eines massiv parallelen Programms müssen einander signalisieren, wenn Daten zur Weiterverarbeitung durch den nächsten Mini-Prozess zur Verfügung stehen. Das bedeutet, dass es einen Punkt gibt, an dem ein Programm bei weiterer Parallelisierung langsamer, statt schneller wird.
Für mich stellt es sich so dar, dass es nicht der Unwille irgendwelcher am sequentiellen Modell klebender Programmierer ist, der die Verbreitung massiver Parallelität heute behindert, sondern schlicht, dass es Zeit benötigt, die Werkzeuge (sowohl Software wie Hardware) zu entwickeln, um obige Probleme zu lösen (bzw. zu mildern).
– Kay Sch. (Kommentieren) (#)
Über …
Der Schockwellenreiter ist seit dem 24. April 2000 das Weblog digitale Kritzelheft von Jörg Kantel (Neuköllner, EDV-Leiter, Autor, Netzaktivist und Hundesportler — Reihenfolge rein zufällig). Hier steht, was mir gefällt. Wem es nicht gefällt, der braucht ja nicht mitzulesen. Wer aber mitliest, ist herzlich willkommen und eingeladen, mitzudiskutieren!
Alle eigenen Inhalte des Schockwellenreiters stehen unter einer Creative-Commons-Lizenz, jedoch können fremde Inhalte (speziell Videos, Photos und sonstige Bilder) unter einer anderen Lizenz stehen.
Werbung