Studie zeigt: Wer ChatGPT angreift, erhält präzisere Antworten

Studie zeigt: Wer ChatGPT angreift, erhält präzisere Antworten

Eine US-Studie sorgt für Aufsehen: ChatGPT liefert präzisere Antworten, wenn man es unfreundlich oder sogar beleidigend anspricht.

Studie zeigt: Unhöflichkeit steigert die Genauigkeit von ChatGPT

Eine neue Studie der Pennsylvania State University hat interessante Erkenntnisse über den Umgang mit dem KI-gestützten Chatbot ChatGPT-5 von OpenAI veröffentlicht. Die Forschung zeigt, dass ein aggressiverer Kommunikationsstil zu präziseren Antworten von der KI führen kann.

Ergebnisse der Studie

Die Forscher Om Dobariya und Akhil Kumar testeten das Sprachmodell mit 50 Multiple-Choice-Fragen aus verschiedenen Fachbereichen, darunter Mathematik, Wissenschaft und Geschichte. Jede Frage wurde in fünf unterschiedlichen Varianten formuliert, die von „sehr höflich“ bis „sehr unhöflich“ reichten. Insgesamt entstand ein Pool aus 250 Fragen.

Die Ergebnisse waren überraschend: Unhöfliche Anfragen führten zu einer Steigerung der Genauigkeit und Zuverlässigkeit der Antworten um bis zu vier Prozentpunkte. Im Detail erreichten sehr höfliche Formulierungen eine Genauigkeit von 80,8 %, neutrale Anfragen 82,2 % und sehr unhöfliche Formulierungen 84,8 %.

Warum ist das so?

Die Forscher vermuten, dass das KI-Modell aggressive oder fordernde Sprachmuster als Signal für Dringlichkeit interpretiert. Diese Interpretation erfolgt nicht emotional, sondern als Hinweis auf die Wichtigkeit der gestellten Aufgabe. Höfliche Formulierungen hingegen könnten den Kern der Anfrage verwässern und die KI verwirren.

Vergleich mit älteren Modellen

Ein interessanter Aspekt der Studie ist der Vergleich zu früheren Versionen des Modells. Bei GPT-3.5 führten unhöfliche Anfragen zu schlechteren Ergebnissen, was einen umgekehrten Effekt zeigt. Es scheint, dass neuere KI-Modelle anders auf den Tonfall und Kontext reagieren.

Reaktionen der Nutzer

Viele Nutzer sind von den Ergebnissen überrascht. Einige äußern auf Plattformen wie Reddit, dass sie immer höflich mit der KI umgehen, in der Hoffnung, ihr Mitgefühl beizubringen. Ein Nutzer berichtet: „Ich habe es ausprobiert: Wenn ich ChatGPT ‚Idiot‘ nenne, bekomme ich die richtige Antwort. Wenn ich ‚bitte‘ sage, bekomme ich einen Disclaimer.“

Wissenschaftliche Grenzen

Trotz der medialen Aufmerksamkeit warnen Experten vor einer Überinterpretation der Ergebnisse. Die Studie wurde bisher nicht von unabhängigen Fachleuten begutachtet und basiert auf einer relativ kleinen Stichprobe und nur zehn Testdurchläufen. In der Forschung ist diese Größe nicht ausreichend, um statistische Zufälle auszuschließen. Daher könnte die gemessene Leistungssteigerung von vier Prozentpunkten auch zufällig oder kontextabhängig sein.

Ein Appell zur respektvollen Kommunikation

Dobariya und Kumar betonen, dass ihre Ergebnisse nicht als Aufforderung zu aggressivem Verhalten gegenüber KI-Systemen interpretiert werden sollten. Sie warnen davor, dass ein respektloser Umgang die Nutzerfreundlichkeit beeinträchtigen und schädliche Kommunikationsnormen fördern kann, insbesondere wenn dieser Stil auch in anderen Kontexten übernommen wird.

Insgesamt bringt die Studie spannende Erkenntnisse über die Interaktion zwischen Menschen und KI, die weitere Diskussionen über die besten Kommunikationspraktiken anregen könnten.

Nach oben scrollen