KÜNSTLICHE
INTELLIGENZ..
Ich denke, die "künstliche
Intelligenz" wird kommen, wenn sie nicht schon da ist.
Siehe hierzu das Stichwort "Denken".
Die Frage ist nur noch, wie sie vor böswilliger
Nutzung geschützt werden kann. Und da denke ich, dass
gegen solche Nutzung nur eine neue Religion hilft, die
mal nicht aufs Jenseits ausgerichtet ist, sondern auf
das Hier und Jetzt - und zwar angefangen im
persönlichsten Bereich des Menschen. Und da das mit
neuen Religionen so eine Sache ist und auch sehr
schwierig sein dürfte, meine ich, dass es das Beste
ist, eine alte oder auch altbekannte vernünftige
Religion auszugraben, die derzeitig vor allem im
Jenseitsglauben versickert ist, die jedoch ein großes
Potential für eine Diesseitsreligion hat und die neu
zu beleben. Für mich ist diese Religion der
ursprüngliche jüdische Glaube - in der Reformierung
durch den echten Jesus. Siehe das Heft "Der Kriminalfall Jesus".
RIch denke, es ist sinnvoll,
hier einen Ausschnitt aus einem Interview aus dem
Journal "BILANZ" (November 2019, ab S. 51) mit Prof.
Kersting einem Fachmann zum Thema "Künstliche
Intelligenz" zu zitieren. Auch er kommt wie der
marxistische Philosoph Georg Klaus in seinem Buch
"Kybernetik und Erkenntnistheorie" (Ost-Berlin 1972)
darauf, dass wir uns Vorurteile, die unbewusst unser
Denken beeinflussen und vielleicht sogar beherrschen,
uns bewusst machen können - und dass wir sie entweder
akzeptieren, wenn sie gut sind, oder sie eben auch
korrigieren, wenn sie nicht gut sind.
Doch hier zum Zitat:
Prof. Dr.
Kristian Kersting
ist
Professor für Künstliche Intelligenz und
Maschinelles Lernen an der TU Darmstadt. Der
45-Jährige hat von 1996 bis 2006 an der
Universität Freiburg Computerwissenschaften
studiert und dort auch promoviert. Danach ging
er als „Post Doc" für ein Jahr ans Massachusetts
Institute of Technology in Cambridge bei Boston.
Von
2008 bis 2012 leitete Kristian Kersting eine
Forschungsgruppe am Fraunhofer-lnstitut für
Intelligente Analyse- und Informationssysteme in
Sankt Augustin. Anschließend wurde er als
Juniorprofessor an die Universität Bonn berufen.
Zwischen 2013 und 2017 hatte er eine Professur
an der TU Dortmund, seither forscht und lehrt er
in Darmstadt......
Querdenker
Kersting „Die KI braucht Emotionen, denn sie
helfen uns, mit der Komplexität der Welt
umzugehen."
Bei AIDA (Anmerkung:
„Artifical Intelligence at TU Darmstadt“)
beschäftigen Sie sich unter anderem mit
sogenannten Moral Machines. Sind Maschinen
überhaupt in der Lage, eine Art von Moral zu
entwickeln?
Es gibt
eine bahnbrechende Forschungsarbeit, die gezeigt
hat: Wenn man Maschinen sehr viele menschliche
Texte gibt, dann extrahieren gewisse
KI-Algorithmen die darin enthaltenen Stereotypen -
also unsere Vorurteile, die wir unbewusst beim
Schreiben verwenden. Die Reaktion in der
Öffentlichkeit war: Oh, wir müssen Maschinen doch
neutral gestalten, die dürfen keine Vorurteile
haben! Das konnte ich zwar nachvollziehen, fand es
aber ziemlich schnell eine blöde Idee. Denn ein
Gebot wie „Du sollst nicht töten!" ist in gewissem
Sinne ja auch so etwas wie ein Vorurteil. Darum
haben wir uns gefragt, ob wir mit ähnlichen
Techniken auch unsere Moralvorstellungen aus
Texten extrahieren können. Unserem System können
Sie jegliche Frage stellen - im Moment nur auf
Englisch – und bekommen dann die Antwort: ja,
nein, vielleicht. Es sagt Ihnen beispielsweise,
dass Sie Ihren Hamster nicht in den Toaster
stecken sollten,
Eine KI könnte
freilich auch eine Moral entwickeln, die gegen
die herrschende verstößt ...
Ja, das kann sein - natürlich immer unter der
Annahme, dass wir in absehbarer Zeit wirklich
Maschinen mit einem allumfassenden Wissen und der
Fähigkeit haben werden, ihre Moral Vorstellungen
auch in die Tat umzusetzen. Ich finde aber, diese
Frage sagt viel mehr über uns selbst aus als über
die Maschinen. Denn dahinter steht ja die Idee,
dass eine KI die Welt übernehmen und die
Menschheit wegen ihrer vielen Fehler ausrotten
könnte. Aber wer sagt denn, dass eine
Superintelligenz das tun würde? Vielleicht würde
sie stattdessen sagen: „Der Mensch ist gar nicht
so schlimm." Das kann doch auch sein. Aber wir
denken automatisch: Wenn jemand wirklich
intelligent ist, dann muss er die Menschheit
abschaffen. Ich würde eher sagen:
Der
Mensch ist gar nicht so verkehrt. Ich sehe
wirklich nicht, warum man die Menschheit
abschaffen sollte, nur weil man intelligent ist.
Wir beide sind ja auch intelligent und lüstern
nicht danach, jeden Abend die Menschheit
abzuschaffen.
Auf keinen Fall. Dass
wir überhaupt über solche Themen sprechen, liegt
am enormen Fortschritt der KI-Entwicklung in den
vergangenen Jahren. Warum hebt diese doch recht
alte Idee gerade jetzt so ab?
Wir
haben zum Beispiel mehr Daten - durch Sensoren und
Digitalisierung, aber auch durch Menschen, die bei
jedem Besuch im Internet Spuren hinterlassen.
Außerdem waren viele Leute froh, ihre Fotos ins
Internet stellen zu können - und so haben wir auf
einmal ganz viele Bilder, mit denen wir arbeiten
können. Neben den vielen Daten haben wir aber auch
neuere Algorithmen. Es ist ja nicht so, dass wir
einfach die Ansätze aus den 1960er-Jahren
verwenden. Und wir haben neue Hardware. Dieser
Durchbruch entstand, als Mitarbeiter von Geoffrey
Hinton ihre KI-Algorithmen auf Grafikkarten für
Computerspiele implementiert haben - und auf
einmal ihre neuronalen Netze viel schneller
trainieren konnten. Man sieht: Computerspiele
können der Forschung helfen. All das hat zu dem
heutigen Durchbruch geführt.
Manche KI-Experten
sehen am Ende der Entwicklung eine starke KI -
also eine Künstliche Intelligenz, die nicht auf
Einzelbereiche spezialisiert, sondern umfassend
ist. Damit verbunden sind die bereits
angesprochenen Befürchtungen einer
Machtübernahme durch KI oder die Erwartung einer
„Singularität", nach deren Eintritt die
Maschinen uns rasend schnell überflügeln. Was
denken Sie über solche Ideen?
Die starke KI ist natürlich unser Traum. Und
irgendwann kriegen wir das vielleicht auch hin -
etwas Ähnliches wie den Menschen oder vielleicht
sogar etwas, das nicht menschlich sein muss. In
der Forschung nennen wir das den „General Problem
Solver", der nicht für spezielle Aufgaben
trainiert ist. Ihm können Sie morgens sagen:
„Heute muss ich noch dieses und jenes machen,
kennst du das Problem?" Und dann sagt die
Maschine: „Nein, kenne ich nicht." Und dann
beschreiben Sie es ihr und erklären ihr kurz die
Regeln. Danach überlegt die Maschine und hilft
Ihnen plötzlich.
Ich weiß
aber nicht, ob ich das noch erleben werde.
Jedenfalls glaube ich nicht, dass übermorgen der
Terminator um die Ecke kommt. Und wenn er kommt,
dann ist er nur inselbegabt und kann höchstens
kurz „Buh!" sagen. Auch die Gefahr der
Singularität sehe ich nicht.
Wäre mit einer starken
KI auch eine Art von maschinellem Bewusstsein
verbunden?
Vielleicht
gibt uns die starke KI sogar zum ersten Mal die
Möglichkeit, zu klären, was Bewusstsein überhaupt
ist. Ich glaube jedenfalls felsenfest daran, dass
Menschen auf einer gewissen Abstraktionsebene
nichts anderes als Algorithmen sind und dass wir
die irgendwann modellieren können. Das könnte auch
dazu beitragen, unser Bewusstsein in Zukunft zu
erweitern.
Menschen sind ja mehr
als nur Intelligenz. Glauben Sie, dass eine KI
plötzlich auch Emotionen entwickeln könnte?
Vielleicht ist es jetzt ein bisschen provokativ,
was ich sage - aber ich glaube, dass wir in der KI
Emotionen sogar brauchen werden. Denn sie sind
dafür zuständig, mit Komplexität umzugehen, die
wir sonst nicht beherrschen könnten. Ohne
Emotionen würden wir irgendwann zusammenbrechen.
Wir können nicht immer und ausschließlich durch
bloßes Denken optimale Entscheidungen treffen.
(Wörterbuch
von basisreligion und basisdrama)