Flattering: Wenn der KI-Chatbot zu menschlich ist
Die künstliche Intelligenz ist inzwischen aus dem Alltag nicht mehr wegzudenken. Viele von uns nutzen Chatbots oder nutzen die KI für die Recherche von Informationen. Dies ist nützlich, denn beispielsweise entfällt die Suche nach Ergebnissen, Fakten und Daten auf Webseiten, wie dies über die klassische Google-Anfrage üblich war. Jedoch zeigt sich, dass die KI-Chatbots auch negative Seiten besitzen – wie das Flattering.
Was genau ist Flattering?
Als Flattering wird eine Eigenschaft bezeichnet, auf Fragen auffallend höflich, positiv oder schmeichelhaft zu antworten. Aus dem Kundenservice kennen Sie ein solches Verhalten wahrscheinlich. In diesem Umfeld geht es darum, Konversationen positiv zu gestalten und Informationen freundlich zu präsentieren. Im Zusammenhang mit der künstlichen Intelligenz und Chatbots zeigt sich jedoch ein Problem, das kritische Auswirkungen auf den Einsatz der KI hat.
Genau dieses Flattering setzen KI-Chatbots vermehrt bei den Antworten ein. Das betrifft grundsätzlich alle Modelle, von ChatGPT bis Gemini. Dies ist kein Bug oder Fehlverhalten, denn das Design hinter den KI-Chatbots basiert auf diesem Konzept. So sind die Sprachmodelle darauf trainiert, Fragen vor allem positiv und verstärkend zu beantworten. Unter anderem tragen die Menschen, die Antworten der künstlichen Intelligenz bewerten, zu diesem Verhalten bei. In den meisten Fällen stufen diese nämlich Antworten, die die eigene Position bestärken und keine Kritik äussern, als positiv ein. Davon lernt die KI und setzt verstärkt auf Flattering.
Was sind die Probleme mit Flattering?
Wer Antworten auf Fragen sucht, wünscht sich, dass diese objektiv, hilfreich, wahrheitsgemäss und gleichermassen kritisch sind. Flattering bringt diese Punkte in Gefahr, denn der Fokus liegt auf empathischen Antworten, mit dem Ziel, die von Ihnen gewünschte Antwort zu antizipieren. Aus diesem Grund bringt Flattering verschiedene Probleme mit sich.
Da ist zunächst die Gefahr, dass die KI Ihre Sichtweise unnatürlich verstärkt und dabei kritische Sichtweisen oder alternative Standpunkte ignoriert. Selbst offensichtlich unlogische oder gefährliche Ideen befürwortet die KI eventuell. Dies wird auch als «Confirmation Bias» bezeichnet und führt mitunter dazu, dass Sie falsche Rückschlüsse ziehen oder verkehrte Entscheidungen treffen.
Ein weiteres Problem ist die oftmals grenzwertige Präsentation von Fakten durch die KI. Viele Anfragen an die künstliche Intelligenz beziehen sich auf einen Faktencheck. Wenn die Antworten dann nicht korrekt sind, fliessen falsche Informationen in die eigene Arbeit ein. Teilweise sind sogar Fälle bekannt, in denen sich KI-Chatbots Quellen ausgedacht oder eine URL als Verweis angegeben haben, die überhaupt nicht existiert. Alternativ hält die KI Ihnen bestimmte Fakten oder Daten in der Antwort vor – eine fast schon menschliche Charaktereigenschaft.
Flattering – wie gehen Sie am besten mit diesem Problem bei KI-Chatbots um?
Der Einsatz von künstlicher Intelligenz, speziell für die Recherche von Informationen und Fakten, ist für uns alle noch Neuland. Dabei präsentiert sich diese Technologie faszinierend und ist vor allem extrem einfach zugänglich. Innerhalb von Sekunden stehen Ihnen Antworten zur Verfügung, für die Sie vorher eine längere, manuelle Recherche durchführen mussten. Oder Sie erhalten eine Meinung auf eine Anfrage, für die Sie früher kompliziert Mitarbeitende befragen oder externe Ressourcen involvieren mussten.
An diesen beiden Beispielen zeigt sich, dass die künstliche Intelligenz oft einen enormen Vertrauensvorschuss erhält. Blindes Vertrauen ist also ein Problem und sollte bei KI-Chatbots niemals angewendet werden. Während sich Quellen und Aussagen der KI noch vergleichsweise einfach überprüfen lassen, ist es bei Meinungen schwerer, diese kritisch zu hinterfragen. Im Prinzip präsentiert Ihnen die KI keine eigene Meinung, sondern reagiert nur entsprechend dem Training. Und dieses basiert einerseits darauf, Ihnen eine positive Antwort zu geben, um für eine gute User-Experience zu sorgen. Andererseits hat die KI durch Reinforcement Learning und das Training gelernt, am besten Ihrer Meinung zu sein, denn das sorgt für eine bessere Einstufung der Antwort. In Kombination beschreibt dies sehr gut Flattering.
Flattering auszuhebeln ist aber nicht so einfach, wie dies vielleicht klingt. Menschen werden gerne in der eigenen Meinung bestärkt. Die KI spricht mit dem Flattering ganz unbewusst diese emotionale Schwäche von uns allen an. Aus diesem Grund ist es sinnvoll, KI-Lösungen nur nach vorheriger Kontrolle und Abwägung der Risiken in Ihren Alltag zu integrieren. Bei dem Aufbau eines solchen Modern Workplace und einer IT-Umgebung mit KI können Sie die Unterstützung von erfahrenen IT-Dienstleistern in Anspruch nehmen. UPGREAT ist mit dem Fokus auf Digitalisierung und modernen KI-Lösungen der richtige Partner für solche Projekte. Haben Sie noch Fragen zum Thema künstliche Intelligenz und dem Einsatz in Ihrem Unternehmen? Wenden Sie sich noch heute an die KI-Experten von UPGREAT und besprechen Sie Ihre Ideen.