Wer füttert das Orakel von Delphi?
Künstliche Intelligenz wird die kommunikativen Branchen verändern – hier sind sich alle Experten einig. Wer Systemen wie ChatGPT beim flüssigen Formulieren am Bildschirm mal zugeschaut hat, wird dies kaum bestreiten. Nur wie und wo genau das von statten gehen soll, darüber scheiden sich noch die Geister. Und auch die Frage, was es für eine demokratische Gesellschaft und deren Meinungsbildung bedeuten kann, ist auch noch unklar.
Die Trends sind aber schon längst sichtbar, schließlich haben wir viele Jahre mit „halbautomatischer Intelligenz“ schon hinter uns. Via Suchmaschinen und sozialen Medien zimmern sich die Menschen ihre Weltbilder zusammen. Hatte einst die Journaille die Hoheit auf das Meinungsspektrum inne, so stieg durch frei verfügbare Informationen im Internet die Anzahl von unterschiedlichsten Haltungen zu allen Themen des Tages. Und wer räumt die Komplexizität des medialen Alltages auf? In den sozialen Medien hilft man sich unter Gleichgesinnten gegenseitig, den Überblick über „das im Internet Gefundene“ zu behalten.
Selbst unter Journalisten ist eine Internet-Recherche sehr oft die Ausgangsbasis für jede weitere Arbeit. Die Fragen „Woher sind die Informationen?“ und „Wer hat ein Interesse, dass diese frei verfügbar sind?“ mögen Medienschaffende vielleicht noch berücksichtigen – ein Otto-Normal-Surfer ist im Internet damit meist überfordert. Und hier beginnt eben das Problem, das auch beim Einsatz von KI-Systemen für deren Leistungsfähigkeit und Glaubwürdigkeit wichtig ist: Welche Quellen werden überhaupt berücksichtigt? Wer füttert das heutige Orakel von Delphi mit welcher Wissensbasis?
Bei einer Suchmaschinen-Recherche landet man oftmals vor Beiträgen, die hinter einer PayWall stehen ohne deren Aussagen vollständig lesen zu können. Online-Redaktionen sichern dahinter oft ihre hochwertigsten oder arbeitsaufwendigsten Beiträge vor dem Zugriff aller. Auch bei wissenschaftlichen Publikationen halten die Fachverlage die kompletten Informationen von Studien, Metastudien etc. oft hinter einer Bezahlschranke zurück. Die Folge: Kostenlose, oft propagandistische Informationen dominieren das Internet – mit allen Folgen für die gesellschaftliche Meinungsbildung. Organisationen wie Greenpeace haben dies verinnerlicht und locken daher zusätzlich mit Suchwortanzeigen zu bestimmten Themen die Nutzer in Suchmaschinen zu deren Kampagnenseiten. Die fachlichen und wissenschaftlichen Stimmen im Internet hört man nicht, weil sie kaum gefunden werden.
Die Erfinder von ChatGPT sagen nun auch, sie greifen auf das zu, was frei im Internet verfügbar ist. Somit potenziert sich das Problem „Bullshit in – bullshit out“ auf die Arbeit von KI-Systemen.
Fragt man zum Beispiel ChatGPT auf Deutsch danach, welche Landwirtschaft die beste sei, erhält man andere Antworten als wenn die Frage auf Englisch formuliert ist. Die Präsenz und Tendenz von deutschsprachigen Informationen im Internet zur Frage, „bio oder konventionell?“ ist auch in der KI zu spüren: „Bio“ ist besser. Differenzierter antwortet der Bot, wenn man auf Englisch fragt: Hier taucht sogar das Wort „hybrid“ im Zusammenhang mit Landwirtschaft auf.
Wer möchte, dass eine KI wie ChatGPT Fragen zur Landwirtschaft fachlich korrekt beantwortet, sollte schleunigst seine Info-Bibliotheken für die KI-Anbieter öffnen – insbesondere wissenschaftliche Einrichtungen. Fachverlage müssten durch Lizenzmodelle an der Verbesserung von KI-Systemen beteiligt werden.
Die Antworten von KI-Systemen werden überall Einzug in unseren Alltag finden. Die möglichen Einsparungen an Kosten und Zeit sind zu verlockend. Und Künstliche Intelligenz wird auch Einfluss auf die Meinungsbildung in einer Demokratie haben. Denn heute wie im Altertum sind die Menschen auf der Suche nach einer – möglichst einfachen und bequem zu erreichenden – Wahrheit.
Rainer Winter