KÜNSTLICHE INTELLIGENZ (Basislexikon: kompetent-kritisch-konstruktiv)

KÜNSTLICHE INTELLIGENZ..

Ich denke, die "künstliche Intelligenz" wird kommen, wenn sie nicht schon da ist. Siehe hierzu das Stichwort "Denken". Die Frage ist nur noch, wie sie vor böswilliger Nutzung geschützt werden kann. Und da denke ich, dass gegen solche Nutzung nur eine neue Religion hilft, die mal nicht aufs Jenseits ausgerichtet ist, sondern auf das Hier und Jetzt - und zwar angefangen im persönlichsten Bereich des Menschen. Und da das mit neuen Religionen so eine Sache ist und auch sehr schwierig sein dürfte, meine ich, dass es das Beste ist, eine alte oder auch altbekannte vernünftige Religion auszugraben, die derzeitig vor allem im Jenseitsglauben versickert ist, die jedoch ein großes Potential für eine Diesseitsreligion hat und die neu zu beleben. Für mich ist diese Religion der ursprüngliche jüdische Glaube - in der Reformierung durch den echten Jesus. Siehe das Heft "Der Kriminalfall Jesus".

RIch denke, es ist sinnvoll, hier einen Ausschnitt aus einem Interview aus dem Journal "BILANZ" (November 2019, ab S. 51) mit Prof. Kersting einem Fachmann zum Thema "Künstliche Intelligenz" zu zitieren. Auch er kommt wie der marxistische Philosoph Georg Klaus in seinem Buch "Kybernetik und Erkenntnistheorie" (Ost-Berlin 1972) darauf, dass wir uns Vorurteile, die unbewusst unser Denken beeinflussen und vielleicht sogar beherrschen, uns bewusst machen können - und dass wir sie entweder akzeptieren, wenn sie gut sind, oder sie eben auch korrigieren, wenn sie nicht gut sind.

Doch hier zum Zitat:

Prof. Dr. Kristian Kersting ist Professor für Künstliche Intelligenz und Maschinelles Lernen an der TU Darmstadt. Der 45-Jährige hat von 1996 bis 2006 an der Universität Freiburg Computerwissenschaften studiert und dort auch promoviert. Danach ging er als „Post Doc" für ein Jahr ans Massachusetts Institute of Technology in Cambridge bei Boston. Von 2008 bis 2012 leitete Kristian Kersting eine Forschungsgruppe am Fraunhofer-lnstitut für Intelligente Analyse- und Informationssysteme in Sankt Augustin. Anschließend wurde er als Juniorprofessor an die Universität Bonn berufen. Zwischen 2013 und 2017 hatte er eine Professur an der TU Dortmund, seither forscht und lehrt er in Darmstadt...... Querdenker Kersting „Die KI braucht Emotionen, denn sie helfen uns, mit der Komplexität der Welt umzugehen."

Bei AIDA (Anmerkung: „Artifical Intelligence at TU Darmstadt“) beschäftigen Sie sich unter anderem mit sogenannten Moral Machines. Sind Maschinen überhaupt in der Lage, eine Art von Moral zu entwickeln?
Es gibt eine bahnbrechende Forschungsarbeit, die gezeigt hat: Wenn man Maschinen sehr viele menschliche Texte gibt, dann extrahieren gewisse KI-Algorithmen die darin enthaltenen Stereotypen - also unsere Vorurteile, die wir unbewusst beim Schreiben verwenden. Die Reaktion in der Öffentlichkeit war: Oh, wir müssen Maschinen doch neutral gestalten, die dürfen keine Vorurteile haben! Das konnte ich zwar nachvollziehen, fand es aber ziemlich schnell eine blöde Idee. Denn ein Gebot wie „Du sollst nicht töten!" ist in gewissem Sinne ja auch so etwas wie ein Vorurteil. Darum haben wir uns gefragt, ob wir mit ähnlichen Techniken auch unsere Moralvorstellungen aus Texten extrahieren können. Unserem System können Sie jegliche Frage stellen - im Moment nur auf Englisch – und bekommen dann die Antwort: ja, nein, vielleicht. Es sagt Ihnen beispielsweise, dass Sie Ihren Hamster nicht in den Toaster stecken sollten,

Eine KI könnte freilich auch eine Moral entwickeln, die gegen die herrschende verstößt ...
Ja, das kann sein - natürlich immer unter der Annahme, dass wir in absehbarer Zeit wirklich Maschinen mit einem allumfassenden Wissen und der Fähigkeit haben werden, ihre Moral Vorstellungen auch in die Tat umzusetzen. Ich finde aber, diese Frage sagt viel mehr über uns selbst aus als über die Maschinen. Denn dahinter steht ja die Idee, dass eine KI die Welt übernehmen und die Menschheit wegen ihrer vielen Fehler ausrotten könnte. Aber wer sagt denn, dass eine Superintelligenz das tun würde? Vielleicht würde sie stattdessen sagen: „Der Mensch ist gar nicht so schlimm." Das kann doch auch sein. Aber wir denken automatisch: Wenn jemand wirklich intelligent ist, dann muss er die Menschheit abschaffen. Ich würde eher sagen:
Der Mensch ist gar nicht so verkehrt. Ich sehe wirklich nicht, warum man die Menschheit abschaffen sollte, nur weil man intelligent ist. Wir beide sind ja auch intelligent und lüstern nicht danach, jeden Abend die Menschheit abzuschaffen.

Auf keinen Fall. Dass wir überhaupt über solche Themen sprechen, liegt am enormen Fortschritt der KI-Entwicklung in den vergangenen Jahren. Warum hebt diese doch recht alte Idee gerade jetzt so ab?
Wir haben zum Beispiel mehr Daten - durch Sensoren und Digitalisierung, aber auch durch Menschen, die bei jedem Besuch im Internet Spuren hinterlassen. Außerdem waren viele Leute froh, ihre Fotos ins Internet stellen zu können - und so haben wir auf einmal ganz viele Bilder, mit denen wir arbeiten können. Neben den vielen Daten haben wir aber auch neuere Algorithmen. Es ist ja nicht so, dass wir einfach die Ansätze aus den 1960er-Jahren verwenden. Und wir haben neue Hardware. Dieser Durchbruch entstand, als Mitarbeiter von Geoffrey Hinton ihre KI-Algorithmen auf Grafikkarten für Computerspiele implementiert haben - und auf einmal ihre neuronalen Netze viel schneller trainieren konnten. Man sieht: Computerspiele können der Forschung helfen. All das hat zu dem heutigen Durchbruch geführt.

Manche KI-Experten sehen am Ende der Entwicklung eine starke KI - also eine Künstliche Intelligenz, die nicht auf Einzelbereiche spezialisiert, sondern umfassend ist. Damit verbunden sind die bereits angesprochenen Befürchtungen einer Machtübernahme durch KI oder die Erwartung einer „Singularität", nach deren Eintritt die Maschinen uns rasend schnell überflügeln. Was denken Sie über solche Ideen?
Die starke KI ist natürlich unser Traum. Und irgendwann kriegen wir das vielleicht auch hin - etwas Ähnliches wie den Menschen oder vielleicht sogar etwas, das nicht menschlich sein muss. In der Forschung nennen wir das den „General Problem Solver", der nicht für spezielle Aufgaben trainiert ist. Ihm können Sie morgens sagen: „Heute muss ich noch dieses und jenes machen, kennst du das Problem?" Und dann sagt die Maschine: „Nein, kenne ich nicht." Und dann beschreiben Sie es ihr und erklären ihr kurz die Regeln. Danach überlegt die Maschine und hilft Ihnen plötzlich.
Ich weiß aber nicht, ob ich das noch erleben werde. Jedenfalls glaube ich nicht, dass übermorgen der Terminator um die Ecke kommt. Und wenn er kommt, dann ist er nur inselbegabt und kann höchstens kurz „Buh!" sagen. Auch die Gefahr der Singularität sehe ich nicht.

Wäre mit einer starken KI auch eine Art von maschinellem Bewusstsein verbunden?
Vielleicht gibt uns die starke KI sogar zum ersten Mal die Möglichkeit, zu klären, was Bewusstsein überhaupt ist. Ich glaube jedenfalls felsenfest daran, dass Menschen auf einer gewissen Abstraktionsebene nichts anderes als Algorithmen sind und dass wir die irgendwann modellieren können. Das könnte auch dazu beitragen, unser Bewusstsein in Zukunft zu erweitern.

Menschen sind ja mehr als nur Intelligenz. Glauben Sie, dass eine KI plötzlich auch Emotionen entwickeln könnte?
Vielleicht ist es jetzt ein bisschen provokativ, was ich sage - aber ich glaube, dass wir in der KI Emotionen sogar brauchen werden. Denn sie sind dafür zuständig, mit Komplexität umzugehen, die wir sonst nicht beherrschen könnten. Ohne Emotionen würden wir irgendwann zusammenbrechen. Wir können nicht immer und ausschließlich durch bloßes Denken optimale Entscheidungen treffen.

 

 (Wörterbuch von basisreligion und basisdrama)