Die derzeit größten Gefahren für die Menschheit könnten in der Kombination von Atomwaffen und Supercomputern bestehen. Ein Gastbeitrag von Prof. Alexander Dilger
Der „KI-Boom treibt Firmenwert von Chiphersteller [Nvidia] über eine Billion Dollar“. Zugleich gibt es ein „Statement on AI Risk“ von führenden Experten für Künstliche Intelligenz (einschließlich Sam Altman, CEO von OpenAI, das ChatGPT betreibt) und Prominenten. Dieses umfasst nur diesen einen Satz: „Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.“
Superintelligente Computer
Schon 2016 hatte ich die ‚Gefahr von superintelligenten Computern‘ diskutiert, vor der z. B. auch Stephen Hawking warnte (siehe ‚Hawkings große Fragen‘). Die verschiedenen Risiken, dass die ganze Menschheit ausstirbt, lassen sich schlecht quantifizieren, aber vielleicht doch qualitativ vergleichen. Durch den Klimawandel kann es große Schäden geben, aber wird die Menschheit (ziemlich) sicher nicht aussterben entgegen der Panikmache von Klimasekten.
Durch eine viel schlimmere Pandemie als Corona könnten Milliarden Menschen sterben, doch aus evolutionären Gründen wohl kaum alle Menschen gleichzeitig. Aliens könnten uns alle ausrotten, aber wir wissen nicht einmal, ob es sie gibt und, falls ja, ob sie zu uns gelangen können und feindlich gesinnt sind. Ein großer Meteoriteneinschlag ist sehr selten und könnten inzwischen vielleicht sogar verhindert werden. Real die größten Gefahren sehe ich tatsächlich in Atomwaffen und Supercomputern, vielleicht sogar in Kombination.
ChatGPT bereits jetzt vielen Menschen überlegen
Dabei ist nicht klar und wird auch in dem Statement nicht erklärt, wie sich das existenzielle Risiko durch künstliche Intelligenz begrenzen lässt. Einmal gemachte Erfindungen lassen sich nicht ungeschehen machen und selbst ohne weitere große technische Durchbrüche werden sowohl die Rechenleistung als auch die nutzbaren Datenmengen noch deutlich zunehmen. ChatGPT und vergleichbare Programme sind gar nicht wirklich intelligent, aber bereits jetzt vielen Menschen deutlich überlegen.
Wir sollten solche Programme durchaus nutzen, aber ihnen nicht blind vertrauen und zu viel Macht einräumen. In einem Krieg könnte das jedoch nötig werden, um nicht sicher gegen die Supercomputer der Gegenseite zu verlieren. Auch das spricht dafür, etwas ohnehin Sinnvolles zu tun, nämlich die Kriegsgefahr zwischen den Groß- und Supermächten zu reduzieren. Leider wächst diese Gefahr momentan, wobei der Ukraine-Krieg wahrscheinlich regional begrenzt bleiben wird, was bei einer chinesischen Eroberung Taiwans voraussichtlich nicht der Fall wäre.
Der Beitrag erschien zuerst bei Alexander Dilger.