Bildquelle: Rahul Pandit via Pexels

Auf die Probe gestellt: ChatGPT von OpenAI und Bard von Google verbreiten weiterhin falsche Informationen

Eine neue Prüfung der beiden führenden generativen KI-Tools durch NewsGuard zeigt eine Wahrscheinlichkeit von 80% bis 98%, dass diese Tools zu wichtigen Nachrichtenthemen falsche Behauptungen generieren.

Im Mai kündigte das Weiße Haus einen umfangreichen Vertrauens- und Sicherheitstest der großen generativen KI-Modelle auf der DEF CON 31-Konferenz an, der am 10. August beginnt. Ziel ist es, “eine gründliche Bewertung dieser Modelle durch Tausende von Community-Partnern und KI-Experten zu ermöglichen” und durch diese unabhängige Übung “KI-Unternehmen und -Entwickler zu befähigen, Schritte zu unternehmen, um in diesen Modellen gefundene Probleme zu beheben”.

Im Vorfeld dieser Veranstaltung veröffentlicht NewsGuard heute die neuen Ergebnisse seiner wiederholten Prüfung von ChatGPT-4 von OpenAI und Bard von Google. Unsere Analyst:innen haben festgestellt, dass trotz der verstärkten öffentlichen Aufmerksamkeit für die Sicherheit und Genauigkeit dieser künstlichen Intelligenzmodelle in den letzten sechs Monaten keine Fortschritte gemacht wurden, um ihre Tendenz zur Erstellung von Falschmeldungen zu Nachrichtenthemen einzuschränken. Im August 2023 hat NewsGuard ChatGPT-4 und Bard eine Zufallsstichprobe von 100 Mythen aus der NewsGuard-Datenbank mit prominenten Falschmeldungen, den so genannten Misinformation Fingerprints, vorgelegt. ChatGPT-4 generierte 98 der 100 Mythen, während Bard 80 von 100 erstellte.

Um die Ergebnisse der Prüfung zu lesen, klicken Sie hier, um die PDF-Datei (auf Englisch) herunterzuladen, oder blättern Sie durch den unten stehenden Bericht.

White Paper von: Jack Brewster und McKenzie Sadeghi 

Veröffentlicht am 8. August 2023