22:50 17 August 2018
SNA Radio
    Künstliche Intelligenz (Symbolbild)

    Ersetzen Maschinen die Berichterstatter? KI-Forscher klären auf

    © AFP 2018 / GERARD JULIEN
    Wissen
    Zum Kurzlink
    Valentin Raskatov
    419

    Die Nachrichtenwebseite „Knowherenews“ schreibt ihre Artikel eigenen Angaben zufolge mithilfe von künstlicher Intelligenz statt menschlichen Redakteuren. Nach heutigem Technikstand ist das jedoch nur eingeschränkt möglich, berichtigen KI-Forscher. Computer können bisher nur Muster erkennen. Inhaltliches Verständnis gehe ihnen noch ab.

    Ist es bald vorbei mit dem Journalismus? Schreibt bald die gleichgültige Maschine die Berichte für den Leser, ohne jegliche Parteilichkeit in Konflikten, ohne persönliche Vorlieben und frei von Vorurteilen? Die Webseite „Knowherenews“ verspricht genau das: unvoreingenommene Berichterstattung durch künstliche Intelligenz (KI). Da der Mensch nur zu gern Partei ergreift, verzichtet die Seite nach eigenen Angaben genau darauf: auf den unzuverlässigen „Faktor Mensch“.

    Stattdessen zapft das Medium 1000 verschiedene Nachrichtenseiten an, die sich vom extrem rechten bis zum extrem linken Spektrum erstrecken. Computer durchsuchen diese Medien auf ein gemeinsames tagesaktuelles Thema. Die Medien selbst erhalten außerdem „Glaubwürdigkeitswerte“ zugeteilt, die sich daraus zusammensetzen, wie oft den Journalisten des Mediums Fehler unterlaufen. Der Algorithmus führt die so gesammelten Informationen schließlich zu einem Artikel zusammen. Im Nachgang geht ein menschlicher Redakteur an den Text, damit dieser für den Leser lesbarer wird.

    Künstliche Intelligenz kann nur Mustererkennung

    Der programmierte Journalist – geht das heute wirklich schon? Oder verspricht die Webseite da ein bisschen zu viel? „Ich halte das durchaus für realistisch, dass dieses Versprechen eingelöst wird. Man muss sich dabei aber darüber im Klaren sein, dass die heutige Technologie es nicht ermöglicht, hier inhaltlich vorzugehen“, bemerkt Dr. Aljoscha Burchardt, Senior Researcher am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), gegenüber Sputnik. Die Computer könnten Texte nicht verstehen, sie könnten aus Daten nur lernen, oberflächlich mit Wörtern, Begriffen und Paraphrasen zu arbeiten, Muster zu erkennen. „Die Maschine kann auf den Zeilen lesen, aber wir Menschen können zwischen den Zeilen lesen. Wir wissen, wie gewisse Dinge gemeint sind“, formuliert es der Forscher.

    >>Mehr zum Thema: Wenn die Roboter kommen: „Zur Elite werden Menschen gehören, die…“

    Der Mensch kann alles anders sehen

    Bei der Mustererkennung werden nur Ähnlichkeiten erkannt, bemerkt auch der Kollege Reinhard Karger vom DFKI. Als Beispiel führt er einen Stuhl an: „Wenn jetzt jemand einen Stuhl erfinden würde, der überhaupt nicht aussieht wie ein Stuhl, dann erkennen Sie den auch nicht als Stuhl.“ Mit der Mustererkennung kann also nur bereits Bekanntes wiedergefunden werden.

    Beim Verstehen dagegen arbeite der Mensch mit dem Begriff des „Vorzeichens“, das weit über äußerliche Ähnlichkeit hinausgeht. „Wir haben eine Sicht auf die Welt, die sich von jetzt auf gleich grundsätzlich ändern kann. Und wir werden uns immer noch in dieser Welt zurechtfinden. Wir werden mit der Welt keine Probleme haben, aber wir werden alles anders sehen“, so Karger. Als Beispiel führt er etwa Fälle wie eine plötzliche Alienlandung oder den Reaktorunfall in Fukushima an. Auf solche Ereignisse hin ändert sich sowohl die Einstellung zur Welt als auch das Handeln darin, ohne das der Mensch zuvor je mit solchen Ereignissen konfrontiert gewesen wäre. Das könne Mustererkennung nicht leisten.

    Weitere Beispiele Kargers lauten: „Unsere Haltung dem Vereinten Königreich gegenüber hat sich komplett geändert durch den Brexit, von einem Tag auf den anderen. Unsere emotionale Haltung zu den USA hat sich von einem Tag auf den anderen geändert durch Trump. Und hätte Marine Le Pen die Wahl gewonnen, hätten wir auch Frankreich ganz anders gesehen.“

    Maschinen warten auf Menschen

    Um ein so komplexes Verstehen von Zusammenhängen der Maschine zu ermöglichen, müssten vorher „massiv Daten“ gesammelt werden. In unerwarteten Fällen müsste also die Maschine warten, bis der Mensch die Situation einordnet, die entsprechenden Daten in die Maschine eingibt und diese aus den Daten ein Muster ableitet.

    Beim Menschen ist das anders: „Der Mensch schafft es, in drei Sekunden alles anders zu sehen“, sagt der Forscher. „Das sind wahnsinnige Unterschiede.“ Diese Unterschiede gelt es unbedingt zu begreifen, weil der Eindruck die Runde mache, als wäre der Mensch bald überflüssig.

    KI ist wie ein Hammer

    Deswegen gilt für beide Forscher: Künstliche Intelligenz ist bis auf weiteres und wohl auf lange Sicht nur eins: ein Hilfsmittel. „Es gibt den Hammer und es gibt die Hand. Und die Hand wurde nicht dadurch überflüssig, dass der Hammer, wenn er zuschlägt, deutlich mehr Kraft auf einen Nagel ausübt als die Hand. Das hat die Hand nicht überflüssig gemacht“, betont Karger.

    >>Mehr zum Thema: „Transformer“ als Heilmittel: Forscher töten Krebszellen mit Nano-Robotern

    Übertragen auf „Knowherenews“ heißt das: Künstliche Intelligenz kann den Journalisten und seine Entscheidungen nicht ersetzen. Deswegen gibt es auch weiterhin die Redakteure bei „Knowherenews“. In anderen Worten: „Das Versprechen wird nur teilweise eingelöst, da wir auch nicht wissen, wie hoch der menschliche Anteil noch ist. Das werden sie uns nicht sagen“, so Burchardt.

    „Was ist objektiv?“ – Stichwort Vertrauenswürdigkeit

    Aber auch der „Vertrauenswürdigkeitswert“ (engl. „trustworthiness“) bei „Knowherenews“ ist ein Problem. Die Maschine könnte zwar lernen, verschiedene Formulierungen, wie sie auf linken, rechten oder liberalen Webseiten geläufig sind, umzuformulieren, damit sie neutraler werden. Sie könnte also die „Tonalität der Berichterstattung“ in eine andere Tonalität übertragen. Aber: „Die Frage stellt sich natürlich: Was ist eigentlich wahrhaftig oder objektiv?“, betont Burchardt. Es gebe Themen wie die Klimaerwärmung oder internationale Konflikte, bei denen keine „absolute Wahrheit“ vorliege.

    Es gehe in diesen Bereichen vor allem um Einschätzungen und Einzelmeinungen, und diese könnten sogar innerhalb einer einzigen Zeitung stark voneinander abweichen. Für solche Fälle sei ein „Vertrauenslabel“ nicht differenziert genug. Deswegen müssten auch Redakteure die Nachrichten nachbearbeiten und „die wirklichen Entscheidungen treffen“. Wie weit diese Bearbeitung geht, das werden die Schöpfer von „Knowherenews“ wahrscheinlich nicht offenlegen. Zumindest haben sie sich auf Sputnik-Anfrage bislang nicht gemeldet.

    Das komplette Interview mit Aljoscha Burchardt zum Nachhören:

    Zum Thema:

    Dieser Roboter geht Bier holen – VIDEO
    Mensch kämpft mit Roboterhund – VIDEO
    Von Robotern gejagt und unterstützt: U-Boote im Visier
    Tags:
    Roboter, Daten, Menschheit, Technologien, Journalismus, künstliche Intelligenz
    GemeinschaftsstandardsDiskussion
    via Facebook kommentierenvia Sputnik kommentieren