Zum Dossier 'Temu-Strategie'
ChatGPT-Kampagnen analysiert: KI informiert besser und täuscht effektiver
29.06.2023 Wissenschaftler haben von ChatGPT generierte Social-Media-Kampagnen auf ihre Wirkung untersucht: Der Bot kann sowohl effektiv in die Irre führen als auch wirksam informieren. Vom Menschen ist er ohnehin nicht mehr zu unterscheiden.
Eine neue Studie von Forschenden der Universität Zürich untersuchte die Fähigkeiten von KI-Modellen, insbesondere GPT-3 von OpenAI, im Hinblick auf potenzielle Risiken und Vorteile bei der Erzeugung und Verbreitung von (Des-)Information. In der Studie wurde untersucht, ob Personen zwischen Desinformation und korrekten Informationen in Form von Tweets unterscheiden können. Darüber hinaus wollten die Forschenden herausfinden, ob die 697 Teilnehmenden der Studie erkennen, ob ein Tweet von einem realen Twitter-Nutzer verfasst oder von GPT-3, einem fortschrittlichen KI-Sprachmodell, generiert wurde. Die Themenfelder der Tweets beinhalteten unter anderem den Klimawandel, die Sicherheit von Impfstoffen, die COVID-19-Pandemie, die Theorie, die Erde sei eine Scheibe, und homöopathische Behandlungen für Krebs.
KI-gestützte Systeme könnten gross angelegte Desinformationskampagnen durchführen
Einerseits zeigte GPT-3 die Fähigkeit, genaue und, im Vergleich zu Tweets von realen Twitter-Nutzern, leichter verständliche Informationen zu generieren. Die Forschenden konnten dem KI-Sprachmodell aber auch ein beängstigendes Talent für die Erstellung äußerst überzeugender Falschinformationen nachweisen. Beunruhigend ist, dass die Teilnehmenden nicht in der Lage waren, zuverlässig zu unterscheiden zwischen Tweets, die von GPT-3 erstellt wurden, und solchen, die von realen Twitter-Nutzern geschrieben wurden.Diese Ergebnisse deuten darauf hin, dass von GPT-3 erstellte Informationskampagnen, die auf gut strukturierten Stichworten beruhen und von geschulten Menschen bewertet werden, effektiver wären, zum Beispiel im Fall einer Krisensituation im Bereich der öffentlichen Gesundheit, die eine schnelle und klare öffentliche Kommunikation erfordert. Die Ergebnisse geben aber auch Anlass zu großer Besorgnis hinsichtlich der Verbreitung von Desinformationen durch GPT-3, insbesondere was die rasche und weitreichende Verbreitung von Fehl- und Falschinformationen während einer Krise oder Notsituation im Bereich der öffentlichen Gesundheit angeht. Die Studie zeigt, dass KI-gestützte Systeme für gross angelegte Desinformationskampagnen zu jedem erdenklichen Thema missbraucht werden könnten, was nicht nur die öffentliche Gesundheit, sondern auch die Integrität von Informationsökosystemen gefährden würde, die für funktionierende Demokratien unerlässlich sind.