Sprache verzerrt ChatGPT-Informationen bei bewaffneten Konflikten

Wird ChatGPT auf Arabisch nach der Anzahl getöteter Zivilisten im Nahostkonflikt gefragt, gibt es deutlich höhere Opferzahlen an als bei derselben Frage auf Hebräisch, wie eine neue Studie der Universitäten Zürich und Konstanz zeigt. Diese systematischen Verzerrungen können Vorurteile in bewaffneten Konflikten verstärken und Informationsblasen befeuern.
Quelle: IDW-Informaitionsdienst d. Wissenschaft