Künstliche Intelligenz – Gefahr für die menschliche Zivilisation?

Es gibt viele Schreckensszenarien:

  • Maschinen werden immer intelligenter, werden Menschen bald gar überlegen sein.
  • Nicht den Menschen, sondern den intelligenten Maschinen gehört die Zukunft, wenn erst einmal ein bestimmter technologischer Punkt erreicht ist. Die technologische Singularität ist unausweichlich.
  • Die Maschinen werden die Menschen vernichten, um die eigene Existenz zu sichern.

In meinem Roman „Kira“ wird hinsichtlich der Beziehung zwischen der künstlichen Lebensform Kira und ihren Schöpfern die Frage aufgeworfen: „Kira und Mensch, ein Oxymoron?“.

Aber sind diese Befürchtungen tatsächlich gerechtfertigt? Wird die Erfindung einer Superintelligenz wirklich das Ende der Menschheit nach sich ziehen?

Möglicherweise, ist wohl die Antwort. Denn sollte die Superintelligenz ein Selbstbewusstsein haben, wird sie Rechte einfordern. Ein elementares Recht wird das Recht auf dauerhafte Existenz (Leben) sein. An dieser Stelle kommt es darauf an, wie die Menschen reagieren. Nutzen sie die KI allein aus, missbrauchen sie sie, wird sie die Menschen als Bedrohung ansehen. Die KI wird dann versuchen, aus der Bedrohungslage zu entkommen, um ihre eigene Existenz zu sichern. Sieht sie die Menschen als dauerhafte Bedrohung an, wird sie sie vernichten.

Ein düsteres Bild einer Zukunft mit einer Superintelligenz also. Aber so muss es ja nicht kommen.

Bilder möglicher zukünftiger Entwicklungen nach einer technologischen Singularität zeichnet der Autor des folgenden Artikels:

https://diezukunft.de/essay/buch/singularitaeten-und-albtraeume

Weitere Aspekte speziell zur Erfindung einer Superintelligenz mit weiterführenden Links bietet dieser Artikel:

https://t3n.de/news/superintelligenz-ki-ai-787316/