Von Nazibots auf Twitter zu führerlosen Autos

Von Florian Schäfer

Oder: Was mach ich eigentlich schon wieder am Obersalzberg

Die Frage, was und wie lernt ein weitgehend eigenständiges Computerprogramm vom Menschen, beantwortete der Twitterbot Tay der sich innerhalb von 24 Stunden in eine rassistische und sexistische Hassmaschine wandelte. Zurück bleibt die Frage, ob es wirklich erstrebenswert ist, dass von Menschen gelernt wird. In einer Zeit, in der es absehbar ist, dass bald Autos von künstlichen Intelligenzen gesteuert werden und sie Einzug in unser Leben halten, eine kleine Polemik, die hoffentlich Dystopie bleibt

Es hätte so schön sein können: Da meldete die Firma Microsoft ihren interaktiven Internetbot Tay in den sozialen Medien an. Durch Tweets auf Twitter hätte er so viel von uns lernen können: Von unserer Gesellschaft, die auf Tausende von Jahren der Entwicklung und Ideengeschichte zurückblickt. Man hätte ihm die schönsten unserer Errungenschaften näher bringen können. Wir hätten mit ihm über Kant, Hegel, Goethe, Dickens kommunizieren können und in meinen wildesten Träumen rutscht ein kleines Zitat von Marx in den Twitterorbit. Die schönsten winzigen Unterhal- tungen hätte man auf 140 Zeichen mit diesem kleinen lernbegierigen Programm geführt. Es hätte sie wohl aufgesogen wie ein Schwamm. Doch was bekam das arme kleine Ding von uns mit? Nur Hass, Rassismus und Sexismus. In nur 24 Stunden wurde aus „humans are super cool“, „Hitler was right I hate the jews“. Da ist er wieder, der harte Boden der Realität. Man schenkt uns ein Instrument zur Unterhaltung, das wahrnimmt, was wir ihm mitteilen, dessen Wissensdurst unstillbar ist. Und was machen wir daraus? Hitler!

 

(der ganze Artikel im PDF Format)