Geduld der KI hat auch ihre Grenzen
Verdammt nochmal, Du sollst links abbiegen!
Stellen Sie sich einmal folgende Szene vor: Sie fahren ganz gemütlich zu einem Geschäftstermin, die Adresse des Kunden haben Sie in Ihr Navigationssystem eingegeben. Die nette Dame fordert Sie dazu auf, in 150 Metern an der Ampel links abzubiegen. Sie sehen, dass sich dort ein Stau gebildet hat, und entscheiden sich, noch eine Kreuzung weiterzufahren. So weit, so gut. Doch plötzlich ist es vorbei mit der wegweisenden Freundlichkeit. Die Dame beschimpft Sie aufs Übelste, wenn Sie alles besser wissen und Ihre Empfehlung ignorieren, dann soll sie der Teufel holen. Unvorstellbar? Nicht ganz. Denn ähnliche Probleme hat derzeit der Software-Gigant Microsoft mit seinen auf künstlicher Intelligenz (KI) basierenden Kommunikations- und Informationsprogrammen. „Nachdem der Bing-Chatbot von Microsoft zuletzt übergriffige und unangemessene Antworten gegeben hatte, hat Microsoft nun die Nutzung eingeschränkt“, lautete eine entsprechende Meldung aus dem Silicon-Valley.
Kuriose Zwischenfälle sorgen seither fast täglich für Schlagzeilen. Das Programm sollte eigentlich mithilfe von KI auch komplexe Fragen beantworten und ausführliche Konversationen führen. Aber ähnlich wie man es aus ganz schlechten Science-Fiction-Filmen kennt, entwickelt die Software scheinbar Eigeninitiative. Was nicht alle lustig finden. Das Microsoft-Team musste jetzt auf etliche Vorfälle reagieren, bei denen der Text-Roboter völlig aus dem Ruder gelaufen ist und Antworten formuliert hat, die als übergriffig und unangemessen empfunden wurden. „Ich kann dich bloßstellen“, drohte das Programm zum Beispiel einem geschockten User.
Ja, zu viele (blöde) Fragen nerven scheinbar nicht nur Menschen, sondern auch Maschinen. In einem Blog-Eintrag kündigten die Entwickler nun an, Bing-Chats auf 50 Fragen pro Tag und fünf pro Sitzung zu begrenzen. „Unsere Daten haben gezeigt, dass die überwiegende Mehrheit der Menschen die Antworten, die sie suchen, innerhalb von fünf Runden findet“, erklären die Experten.
Microsoft warnt offiziell davor, den KI-Chatbot, der sich noch in einer Erprobungsphase befindet, in längere Konversationen zu verwickeln. Chats mit 15 oder mehr Fragen könnten demnach dazu führen, dass Bing „sich wiederholt oder zu Antworten veranlasst beziehungsweise provoziert wird, die nicht unbedingt hilfreich sind oder nicht mit unserer beabsichtigten Tonalität übereinstimmen“.
Es Schorschla findet diese Warnung irgendwie positiv. Denn es macht Computer irgendwie menschlich. Plötzlich sind Notebook und Handy mehr als nur ein paar zusammengelötete Platinen und ein paar seltene Erden. Vielleicht haben auch diese kleinen Computer echte Gefühle und wehren sich auch mal gegen unangemessenen Input und Menschen, die schwer von Begriff sind. Eigentlich ein Hammer, oder? Wobei: Schließlich wurden diese hochkomplexen Programme ja von Menschen wie Dir und mir entwickelt. Und so haben sie auch gelernt, sich gegen Überbeanspruchung zu wehren. Sehr sympathisch. Und lehrreich. Vielleicht denken Sie ja an diesen Artikel, wenn Sie zukünftig Ihre Alexa oder Siri mit Ihren Geistesblitzen füttern. Geduld hat Grenzen. Manchmal sogar die der Künstlichen Intelligenz!
PS: Die Meinung vom Schorschla muss nicht immer mit der der Redaktion übereinstimmen.