Zum Umgang mit fehlerhaften KI-generierten Abbildungen in Wissenschaft und Bildung
Wie kann mit fehlerhaften KI-generierten Visualisierungen im Wissenschafts- und Bildungsbereich umgegangen werden? Juniorprofessor Dr. Alexander Skulmowski und Doktorandin Patricia Engel-Hermann sind dieser Frage in einem kürzlich erschienenen Artikel nachgegangen.

Copyright © 2024 Wu, Pang, Guo, Yang, Ou. https://doi.org/10.1097/MD.0000000000037589 Lizenz: CC BY-NC, https://creativecommons.org/licenses/by-nc/4.0
KI-generierte Visualisierungen enthalten häufig Ungenauigkeiten oder gar grobe Fehler, finden jedoch dennoch Eingang in unsere Informationsgesellschaft. Ausgehend von Fällen fehlerhafter Visualisierungen in wissenschaftlichen Publikationen beschreiben die Autor:innen mögliche Gründe für starke öffentliche Reaktionen auf fehlerhafte Visualisierungen und den Umgang mit bereits publizierten Inhalten seitens der Verlage. Wichtige Erkenntnisse dieser Betrachtung sind, dass sich öffentliche Reaktionen und Maßnahmen zur Korrektur an unterschiedlichen, teils unzugänglichen Normen messen. Während es bereits verschiedene Ansätze gibt um KI-generierte Visualisierungen für den Einsatz etwa im medizinischen Kontext zu bewerten, besteht bislang kein allgemeineres Rahmenwerk für die Einordnung fehlerhafter oder ungenauer KI-generierter Visualisierungen für Bildungszwecke und die Wissenschaftskommunikation. Um eine Inkongruenz im Umgang mit KI-generierten Visualisierungen in diesen Bereichen zu vermeiden, präsentieren die Autor:innen daher ein Rahmenwerk, das Entscheidungsträgern zur Bewertung und der Auswahl geeigneter Konsequenzen dienen kann. Anhand der Kriterien Kommunikationsabsicht, Funktion der Visualisierung sowie der Grad der Abweichung kann demnach das Ausmaß an Fehlinformation bewertet werden. Zudem enthält das Rahmenwerk das Kriterium der Einhaltung etablierter Standards, wonach die Visualisierung auf ihre fachliche Angemessenheit hin geprüft werden sollte. In Bezug auf wissenschaftliche Publikationen plädieren die Autor:innen dafür, KI-generierte Visualisierungen nicht an höheren Maßstäben als traditionell erstellte Visualisierungen zu überprüfen.
Skulmowski, A., & Engel-Hermann, P. (2025). The ethics of erroneous AI-generated scientific figures. Ethics and Information Technology, 27, 31. https://doi.org/10.1007/s10676-025-09835-4