Widgets Magazine
23:21 20 August 2019
SNA Radio
    Hackerangriff (Symbolbild)

    Schlimmer als Atombombe: Wozu brauchen Terroristen künstliche Intelligenz?

    CC0 / Pixabay / Wilfried Pohnke
    Politik
    Zum Kurzlink
    5226

    Russische Forscher haben diverse Gefahren bei der Verwendung der künstlichen Intelligenz (KI) analysiert, die für die internationale Sicherheit entstehen könnten. Die Ergebnisse der Studie wurden im Fachmagazin „Russia in Global Affairs“ veröffentlicht.

    Besonders gefährlich wäre es ihnen zufolge, wenn Terroristen aus dem so genannten „Islamischen Staat“ künstliche Intelligenz in die Hände bekommen würden.

    Gefahr schädlicher KI-Verwendung

    Über die potenzielle Gefahr einer schädlichen KI-Verwendung haben schon etliche Schriftsteller geschrieben – auch heutzutage ist das eine der am meisten diskutierten Fragen, die mit der wissenschaftlich-technischen Entwicklung verbunden sind. Zwar wurde eine KI, die richtig stark wäre und ihr eigenes Selbstbewusstsein und ihren eigenen Willen hätte, noch nicht kreiert, aber auch die so genannte „schwache KI“ ist inzwischen in der Lage, Aufgaben zu erfüllen, die noch vor zehn Jahren völlig fantastisch klangen. Eine solche KI-Verwendung ist zweifelsohne sehr nützlich. Aber wenn sie in die Hände von Terroristen oder Kriminellen geraten sollte, könnten diese Technologien unter Umständen noch schlimmer als Atomwaffen werden.

    Experten aus verschiedenen Ländern befassen sich intensiv mit Gefahren, die bei KI-Verwendung schlimme Folgen für die Gesellschaft im Allgemeinen oder für einzelne Gebiete der menschlichen Aktivität (Politik, Wirtschaft, Militärwesen usw.) hätten. Allerdings wurden potenzielle Gefahren für die internationale Informations- und Psycho-Sicherheit vorerst nicht in einen speziellen Bereich ausgesondert. Dabei könnte KI offensichtlich zwecks Destabilisierung der internationalen Beziehungen verwendet werden, wobei Menschen mit High-Tech-Mitteln einem psychologischen Druck ausgesetzt werden.

    Die Autoren der Studie stuften unterschiedliche Arten von Gefahren in Übereinstimmung mit bestimmten Kriterien ein: Eroberung von Territorien, Verbreitungsintensität und -form, usw. Unter Berücksichtigung dieser Kriterien könnten Wege zum Widerstand gegen potenzielle Gefahren entwickelt werden.

    >>>Mehr zum Thema: „Um sich auf künftigen Schlachtfeldern durchzusetzen“ – US-Militär setzt auf KI<<<

    „Künftig werden die KI-Technologien billiger, dadurch könnte die Gefahr von prinzipiell neuen Terroranschlägen entstehen“, meint Professorin Darja Basarkina vom Lehrstuhl für internationale Sicherheit und außenpolitische Aktivitäten der Russischen Akademie der Volkswirtschaft und des Staatsdienstes:

    „Es könnten beispielsweise Chat-Bots eingesetzt werden, die Veranstaltungen ankündigen würden, die es gar nicht gibt, und potenzielle Opfer zu solchen Veranstaltungen einladen. Um das zu verhindern, sollte die Gesellschaft über solche neuen Gefahren informiert werden. Menschen sollten sich vorsichtig verhalten, wenn sie mit jemandem fern kontaktieren, den sie persönlich nicht kennen“, so die Expertin gegenüber RIA Novosti. „Ein Ausweg wäre wohl die Zertifizierung von öffentlichen Veranstaltungen, wobei entsprechende Informationen offiziell bestätigt werden müssten. Natürlich sollte das technische Personal sich um den Schutz von entsprechenden Datenbanken kümmern.“

    „Fake people“- und „Deepfake“-Technologien für internationale Provokationen

    Die US-amerikanische High-Tech-Firma IVIDIA veröffentlichte kürzlich die Arbeitsergebnisse eines Systems, das selbstständig Menschenerscheinungen generieren kann („Fake people“). Dieses Neuronetz kreiert binnen von wenigen Sekunden hochaufgelöste Bilder von Menschen, die es nicht gibt, und kann sie mit verschiedenen kulturellen oder ethnischen Besonderheiten, Emotionen usw. vervollkommnen. Dabei stützt es sich auf eine quasi grenzenlose Sammlung von Gesichtern realer Menschen. Künftig könnten auch andere Entwickler ähnliche Systeme schaffen. Dabei könnten Verbrecher solche Bilder zwecks Provokationen ausnutzen, die nur von einer solchen Gesellschaft enttarnt werden könnten, die über systematische polytechnische Kenntnisse verfüge.

    „Die ‚Deepfake‘-Technologie kann menschliche Bilder und Stimmen synthetisieren. Sie wird bereits zwecks Entwicklung von Videobildern der führenden Weltpolitiker (darunter von US-Präsident Donald Trump und dem russischen Staatschef Wladimir Putin) verwendet“, sagte seinerseits Jewgeni Paschenzew vom Institut für akute internationale Probleme bei der Diplomatischen Akademie des russischen Außenministeriums. „‚Deepfake‘-Videos können mit größeren Zielgruppen manipulieren und daher in einem Informations-Psycho-Kampf eingesetzt werden, um Finanzpanik oder auch einen Krieg zu provozieren“, so der Experte.

    Bei der Tonwert-Analyse handelt es sich um eine Klasse von Methoden zur Inhaltsanalyse in der Computerlinguistik. Die Tonwert-Analyse ist für die automatische Entdeckung emotional betonter Wörter im Text bestimmt. Dabei können Texte aus ganz unterschiedlichen Quellen bewertet werden: aus Blogs, Foren, Umfragen, usw. Das könnte ein sehr effizientes Instrument des Informations-Psycho-Kampfes sein. Davon zeugt beispielsweise das große Interesse des US-amerikanischen Spezialeinsatzkommandos (United States Special Operations Command SOCOM) daran.

    „Prognosen-Waffe“: Menschliches Verhalten anhand von Daten aus sozialen Netzwerken vorhersagen

    2012 hatte die US-amerikanische Forschungsagentur IARPA (Intelligence Advanced Research Projects Activity) das EMBERS-Programm (Early Model Based Event Recognition using Surrogates) gestartet. Als Ziel galt die Prognostizierung von Massenunruhen mithilfe von KI, wobei unter anderem das Datum, der Ort und die Bevölkerungsgruppe bestimmt werden sollten, die gegen etwas protestierte.

    Das System bearbeitet Informationen aus Massenmedien und sozialen Netzwerken sowie diverse wirtschaftliche Daten. Wenn Terroristen solche Programme in ihre Hände kriegen würden, wäre das enorm gefährlich. In diesem Fall wären große Anschläge bei umfassenden sozialen Auftritten möglich. Ein zusätzliches Kriterium könnte der Grad der sozialen bzw. psychologischen Spannungen in diesen oder jenen Regionen werden.

    Die Autoren der Studie meinen, dass staatliche bzw. internationale Gremien selbst auf „Prognosen-Analysen“ zurückgreifen könnten, um soziale Spannungen zu verhindern (beispielsweise um rechtzeitig soziale, wirtschaftliche und politische Maßnahmen zwecks langfristiger Stabilisierung der Situation zu treffen).

    Nicht auszuschließen sei auch, dass terroristische Gruppierungen im Laufe von politischen Kampagnen Computerroboter einsetzen und dadurch gewissen Politikern Imageschäden zufügen könnten. Auch könnten sie auf diese Weise neue Anhänger auf ihre Seite ziehen oder auch Morde an Politikern organisieren.

    Eroberung von Drohnen und robotisierten Infrastrukturobjekten

    Selbstlernende Verkehrssysteme, die mithilfe KI gelenkt werden, könnten „passende“ Objekte für „hochtechnologische“ terroristische Angriffe werden. Sollten Terroristen das Verkehrskontrollsystem in einer Großstadt unter ihre Kontrolle nehmen, könnte das zu zahlreichen Menschenopfern führen, Panik provozieren und ein negatives „Psycho-Klima“ auslösen, das ihnen neue kriminelle Aktionen ermöglichen könnte.

    Unter anderem könnten unbemannte Fluggeräte und andere automatische Verkehrsmittel für die Zustellung von Sprengstoffen und für die Organisation von großen Havarien eingesetzt werden. Wenn eine Serie solcher aufsehenerregenden Verbrechen verübt und von den Massenmedien beleuchtet werden sollte, würde das der Informations-Psycho-Sicherheit wesentlich schaden.

    Forscher der Russischen Akademie der Volkswirtschaft und des Staatsdienstes und der Diplomatischen Akademie haben solche Szenarien modelliert und in dem Buch „Terrorismus und führende Technologien im Informations-Psycho-Kampf: Neue Risiken, neue Möglichkeiten zur Vorbeugung der Terrorgefahr“ beschrieben, an dem auch der Experte Greg Simons von der schwedischen Universität zu Upsala mitwirkte. An der Studie nahmen Kollegen aus insgesamt elf Ländern teil.

    >>>Mehr zum Thema: Kunsthirn drückt Atomknopf. Neues Wettrüsten droht der Welt<<<

    Auf Initiative der russischen Forscher wird das Problem der Rolle der künstlichen Intelligenz im Kontext von Gefahren für die internationale Informations-Psycho-Sicherheit auf diversen internationalen Konferenzen und Seminaren intensiv diskutiert. Eine solche Konferenz fand vor wenigen Tagen im russischen Chanty-Manssijsk statt, und für Anfang Oktober ist ein weiteres Forum in St. Petersburg angesetzt. Bisher traten die Autoren der Studie auf ähnlichen Veranstaltungen in Argentinien, Uruguay, Brasilien, Südafrika und Italien auf.

    Nach Einschätzung der russischen Experten ist es äußerst wichtig, in Russland langfristige gezielte Programme zu entwickeln, denn die Probleme der künstlichen Intelligenz und der Informations-Psycho-Sicherheit könnten schon in absehbarer Zeit entstehen.

    GemeinschaftsstandardsDiskussion
    via Facebook kommentierenvia Sputnik kommentieren
    Tags:
    Gefahr, Atomwaffen, Terrorismus, künstliche Intelligenz