top of page
QR

Geoffrey Hinton hat vor rund einem Jahrzehnt verändert, wie Maschinen auf die Welt blicken. Gemeinsam mit zwei Doktoranden hat er an der Universität von Toronto, wo er damals Professor war, ein neuronales Netz entwickelt, das Tausende von Fotos analysieren und sich selbst beibringen konnte, Objekte wie Blumen oder Autos zu erkennen. Und das mit einer Sicherheit, die bis dahin unerreichbar schien.


Dass KI so mächtig wird, dass er nun vor ihr warnt, dazu hat Hinton selbst beigetragen. Seine wegweisende Forschung im Bereich neuronale Netzwerke und Deep Learning hat den Grundstein gelegt für generative Chatbots wie GPT-4, die zurzeit die Welt elektrisieren. Unter neuronalen Netzen versteht man Systeme aus Algorithmen, die grob der Art und Weise nachempfunden sind, wie unser Gehirn arbeitet und lernt. Neuronale Netze ermöglichen es einer KI, aus grossen
Datensätzen zu lernen, was man als Deep Learning bezeichnet.

Entwicklung hat sich beschleunigt

Im vergangenen Jahr hat er seine Ansicht geändert. Google und Open Al hätten ihren Chatbots Bard und Chat-GPT immer grössere Mengen an Daten zum Verarbeiten gegeben, und Hinton gelangte zu der Überzeugung, dass die Systeme die menschliche Intelligenz in Teilen überholt hätten. «Vielleicht ist das, was in diesen Systemen vor sich geht, tatsächlich viel besser als das, was im Gehirn vor sich geht», sagt Hinton der «New York Times».

Hinton ist nicht allein mit seiner Warnung vor unregulierter KI-Entwicklung. Im März dieses Jahres riefen rund tausend Personen aus dem Technologiesektor in einem offenen Brief dazu auf, das Training von KI- Systemen für sechs Monate zu unterbrechen. Zu den Unterzeichnern gehören auch Prominente wie Elon Musk, Yuval Noah Harari und Yoshua Bengio, der 2018 gemeinsam mit Hinton

den Turing-Award erhielt. Hinton selbst hat diesen und andere ähnliche Aufrufe nicht unterzeichnet.

Er habe seinen damaligen Arbeitgeber nicht öffentlich kritisieren wollen, sagt er.

Quelle: "Neue Zürcher Zeitung" NZZ

02.05.2023, 16.55 Uhr

Bildschirmfoto 2024-04-08 um 16.45_edited.png
bottom of page