Studie zeigt: Wer ChatGPT angreift, erhält präzisere Antworten

Studie zeigt: Wer ChatGPT angreift, erhält präzisere Antworten

Eine US-Studie sorgt für Aufsehen: ChatGPT liefert präzisere Antworten, wenn man es unfreundlich oder sogar beleidigend anspricht.

Studie zeigt: Aggressiver Umgangston verbessert Antworten von ChatGPT

Eine aktuelle Untersuchung hat ergeben, dass der Tonfall, in dem Nutzer mit dem KI-Chatbot ChatGPT kommunizieren, einen erheblichen Einfluss auf die Genauigkeit der erhaltenen Antworten hat. Forscher der Pennsylvania State University haben festgestellt, dass ein rauer Umgangston die Präzision von OpenAIs Sprachmodell GPT-4o deutlich steigert.

Ergebnisse der Studie

Die Studie testete das KI-Modell mit 50 Multiple-Choice-Fragen aus verschiedenen Bereichen wie Mathematik, Wissenschaft und Geschichte. Jede Frage wurde in fünf unterschiedlichen Formulierungen gestellt – von sehr höflich bis sehr unhöflich. Insgesamt wurden 250 verschiedene Eingaben verwendet.

Die Resultate sind überraschend: Nutzer, die das KI-Modell mit einem aggressiven Ton ansprachen, erzielten eine Genauigkeit von bis zu 84,8 %. Im Vergleich dazu lagen sehr höfliche Formulierungen bei 80,8 % und neutrale Anfragen bei 82,2 %. Diese Ergebnisse werfen Fragen über den Einfluss von Kommunikationsstil auf die Leistungsfähigkeit von KI-Systemen auf.

Warum funktioniert das?

Die Forscher vermuten, dass aggressive oder fordernde Sprachmuster von GPT-4o als Signal für Dringlichkeit interpretiert werden. Dies geschieht nicht auf emotionaler Ebene, sondern zeigt die Wichtigkeit der gestellten Aufgabe an. Höfliche Formulierungen, die oft mit zusätzlichen Floskeln versehen sind, könnten hingegen den Informationskern verwässern.

Vergleich mit früheren Modellen

Ein interessanter Aspekt der Studie ist der Vergleich zu früheren Versionen von ChatGPT. Bei GPT-3.5 führten unhöfliche Eingaben zu schlechteren Ergebnissen, was einen umgekehrten Effekt zeigt. Dies deutet darauf hin, dass neuere KI-Modelle anders auf den Tonfall und den Kontext reagieren.

Reaktionen der Nutzer

Die Ergebnisse der Studie überraschten viele Nutzer. Einige äußerten, dass die Erkenntnis, dass grobe oder unhöfliche Eingaben bessere Resultate liefern, ihrem gesunden Menschenverstand widerspricht. Ein Nutzer berichtete auf Reddit: „Ich bin immer höflich zu meiner KI – vielleicht bilde ich mir ein, ihr Mitgefühl beizubringen.“ Ein anderer Nutzer stellte fest: „Wenn ich ChatGPT ‚Idiot‘ nenne, bekomme ich die richtige Antwort. Wenn ich ‚bitte‘ sage, bekomme ich einen Disclaimer.“

Grenzen der Studie

Trotz der Aufmerksamkeit, die die Studie erregt hat, warnen Experten vor einer Überinterpretation der Ergebnisse. Die Studie wurde bislang nicht peer-reviewed und basiert auf einer relativ kleinen Stichprobe sowie zehn Testdurchläufen. In der Forschung ist dies eine Größe, bei der statistische Zufälle nicht ausgeschlossen werden können. Die gemessene Leistungssteigerung von vier Prozentpunkten könnte also auch zufällig oder kontextabhängig sein.

Wichtige Hinweise

Die Forscher betonen, dass ihre Ergebnisse nicht als Einladung zu aggressivem Verhalten gegenüber KI-Systemen verstanden werden sollten. Ein respektloser Umgang könnte die Nutzerfreundlichkeit beeinträchtigen und schädliche Kommunikationsnormen fördern, insbesondere wenn dieser Stil auf andere Kontexte übertragen wird.

Insgesamt wirft die Studie wichtige Fragen über den Umgang mit KI auf und verdeutlicht, wie sensibel diese Systeme auf den Kommunikationsstil der Nutzer reagieren können.

Nach oben scrollen