Superintelligenz könnte näher sein, als die meisten Menschen denken, sagt Neurowissenschaftler

Superintelligenz könnte näher sein, als die meisten Menschen denken, sagt Neurowissenschaftler

Spread the love

Es gibt ein Paradoxon in der künstlichen Intelligenz (KI). Die Technologie ist bereits sehr leistungsfähig, und die meisten Menschen sind sich einig, dass sie jede Branche und jeden Aspekt unseres Lebens verändern wird. Aber der Einsatz von KI in der Industrie scheint langsamer voranzukommen als erwartet. Eine Erklärung dafür ist, dass CEOs und CTOs verständlicherweise nervös sind, wenn sie unvorhersehbare Systeme einsetzen. Sie sind noch nervöser bei Systemen, die Fehler machen, aber wenn sie keine Fehler machen, können sie nicht lernen.

Schnelle Fortschritte in der KI-Forschung

Was auch immer die Verzögerungen in der Industrie sind, KI macht große Fortschritte im Labor. Die Forscher sind überrascht, und einige von ihnen machen sich Sorgen. Simon Thorpe ist ein Forscher, der glaubt, dass die KI viel schneller voranschreitet, als fast jeder annimmt, und dass ihr viel mehr Aufmerksamkeit geschenkt werden sollte. Er erforscht seit 40 Jahren, wie das menschliche Gehirn funktioniert und was wir von Computern darüber lernen können. Die meiste Zeit war er Direktor des französischen CNRS, des Centre Nationale pour Recherche Scientifique (Nationales Zentrum für wissenschaftliche Forschung). Er war der Gast in der neuesten Folge der Londoner futuristischer Podcast.

Simon hat einige erstaunliche Vorhersagen darüber, wie schnell die KI voranschreitet, aber bevor wir dazu kommen können, müssen wir uns seine Ideen darüber ansehen, warum menschliche Gehirne so viel energieeffizienter sind als Maschinen.

Das menschliche Sehsystem

Das visuelle Wahrnehmungssystem im menschlichen Gehirn ist im Grunde ein Feed-Forward-System, was bedeutet, dass es Entscheidungen auf hoher Ebene treffen kann, ohne dass Feedback verwendet werden muss. Dadurch ist es schnell und effizient, sodass wir wichtige Bilder – wie die Gesichter von Familienmitgliedern – sehr schnell erkennen können, selbst wenn das Signal verrauscht ist, wie z. B. ein unscharfes Foto. Diese Funktion unseres visuellen Wahrnehmungssystems hat Nachteile: Wenn wir nach etwas Bestimmtem Ausschau halten, übersehen wir sehr wahrscheinlich etwas anderes, was noch wichtiger ist. Simon beobachtet, dass Sicherheitskräfte, die nach Waffen suchen, überraschenderweise dazu neigen, das Vorhandensein einer Handgranate zu übersehen. Das erklärt auch, wie Beschwörungstricks funktionieren.

Es ist eine Form der Voreingenommenheit, die als „unaufmerksame Blindheit“ bekannt ist, und eine bekannte Demonstration findet sich in diesem Video eines Basketballspiels. Wenn Sie das noch nicht gesehen haben, genießen Sie es. Ich kann fast garantieren, dass es das Überraschendste sein wird, was Sie heute sehen.

Energieeffiziente Gehirne

Menschliche Gehirne sind derzeit weitaus energieeffizienter als KI-Systeme. Das menschliche Gehirn verbraucht etwa 20 Watt, etwa so viel wie eine Glühbirne. GPT-3 und andere große Modelle zur Verarbeitung natürlicher Sprache verwenden tausendmal mehr.

In der Tat, wenn Sie die 86 Milliarden Neuronen im menschlichen Gehirn mit der Art von Modell simulieren wollten, die in der aktuellen Reihe von durch Deep Learning trainierten neuronalen Netzen verwendet wird, würden Sie eine enorme Menge an Rechenleistung benötigen – etwa 500 Petaflops oder 500.000.000.000.000.000 Gleitkommaoperationen pro Sekunde. Das ist ein halber Exaflop, und die größten Supercomputer der Welt haben diese Größenordnung gerade erst erreicht. Diese Supercomputer verbrauchen rund 30 Megawatt Leistung – über 1 Million Mal mehr Energie als das Gehirn.

Spärlich und Spitze

Simon ist überzeugt, dass Maschinen mit „sparse networks“ arbeiten müssen, um sie so effizient wie Gehirne zu machen. Die Grundidee dabei ist, dass, wenn Menschen ein Bild erkennen, nur die Neuronen feuern müssen, die darauf trainiert sind, die Komponenten dieses Bildes zu erwarten. Bei Maschinen hingegen muss bei jeder Berechnung der Zustand jedes Neurons berücksichtigt werden.

Darüber hinaus müssen Maschinen auch ein Spiking-Modell übernehmen. Künstliche Neuronen haben kontinuierlich variierende Aktivierungswerte, die mit Fließkommazahlen codiert sind, die rechenintensiv sind. Im Gegensatz dazu senden Neuronen Informationen mit elektrischen Impulsen oder Spitzen, die sehr spärlich sein können. Wenn Sie viele Neuronen haben, kann die Reihenfolge, in der sie feuern, Informationen sehr effizient und mit sehr wenigen Spitzen übermitteln. Simon argumentiert, dass die große Mehrheit der KI-Forscher diese entscheidende Tatsache einfach ignoriert und dass sie daher von der Geschwindigkeit einiger bevorstehender Entwicklungen sehr überrascht sein werden.

Terrahirn

Simon ist beeindruckt von der Leistung der neuesten proprietären Chips von Apple, die in den neuesten Laptops zu finden sind. Er glaubt, dass er mit den oben beschriebenen Ideen KI-Systeme entwerfen kann, die auf diesen Computern laufen, die Milliarden von Neuronen und Hunderte von Milliarden Verbindungen haben. Er nennt dies sein Terabrain-Projekt und plant, diese Entwürfe als Open Source zu veröffentlichen und sie Forschern überall frei zur Verfügung zu stellen. Bemerkenswerterweise glaubt er, dass es mit solchen Designs möglich sein könnte, vor Ende 2023 etwas Ähnliches wie künstliche allgemeine Intelligenz (AGI) zu schaffen. Superintelligenz, sagt er, könnte nicht weit dahinter liegen. Wenn er recht hat, wird sich die Welt komplett verändern.

.

Leave a Comment

Your email address will not be published.