Wissenschaft im Trend: Künstliche Intelligenz, Fluch oder Segen? Experten fordern Maßnahmen, um Sicherheitsbedrohungen zu begegnen

Künstliche Intelligenz (KI) könnte von Schurkenstaaten, Terroristen und Kriminellen ausgenutzt werden, wenn sich die Menschheit nicht gegen den potentiellen Missbrauch wappnet, warnen Experten.

Die Angst vor Maschinenintelligenz wird seit Jahrzehnten von Science-Fiction-Geschichten durch unzählige Darstellungen der selbstzerstörerischen Kraft der Menschheit aufgegriffen. Das Aufkommen von KI führte allgemein allerdings zu gegensätzlichen Meinungen. Die Frage, ob KI eher Fluch oder Segen ist, hängt dabei ganz von der Sichtweise des Betrachters ab.

Obwohl das Konzept schon seit den 1950er Jahren bekannt ist, haben KI und maschinelle Lerntechnologien erst kürzlich an Bedeutung gewonnen. Dank ihrer schnell voranschreitenden Entwicklung werden sie jetzt in verschiedenen Anwendungen eingesetzt, dazu gehören automatische Spracherkennung, maschinelle Übersetzung, Suchmaschinen, digitale Assistenten, Drohnen und selbstfahrende Fahrzeuge.

Durch ihr Potenzial, bahnbrechende Fortschritte in Bereichen wie Gesundheitswesen, Landwirtschaft, Bildung und Verkehr zu erzielen, wird der Einsatz solcher Systeme als äußerst vorteilhaft angesehen, da dies ebenfalls das Leben der Menschen aktiv verbessern sowie weltweit positive Veränderungen mit sich bringen würde. So spielt KI bereits heute zum Beispiel in der täglichen Praxis der medizinischen Bilderfassung, -verarbeitung und -auswertung eine wichtige Rolle. Dennoch betont ein wachsender Chor von Experten, darunter der Physiker Stephen Hawking und der Unternehmer Elon Musk, immer wieder die Notwendigkeit, sich auf die potenziellen Risiken von KI einzustellen und diese, wenn möglich, zu vermeiden.

Der neue Bericht, „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation“, eines aus Forschern verschiedener Universitäten, Denkfabriken und gemeinnützigen Organisationen bestehenden Teams gab ähnliche Befürchtungen wieder. Im Fokus standen mögliche Sicherheitsbedrohungen, die entstehen könnten, wenn KI in die falschen Hände gerät. Dabei geht es vor allem um drei Bereiche: digital, physisch und politisch. Der Bericht wies darauf hin, dass KI böswilligen Akteuren dabei helfen könnte, schwere, zielgenaue und hocheffiziente Anschläge durchzuführen.

Shahar Avin vom Centre for the Study of Existential Risk (CSER) der Universität Cambridge erklärte der BBC, dass sich der Bericht auf die Bereiche der KI konzentrierte, die momentan verfügbar waren oder wahrscheinlich innerhalb von fünf Jahren verfügbar sein werden, anstatt in eine weiter entfernt liegende Zukunft zu blicken.

In Bezug auf die Verwendung von KI als Technologie mit doppeltem Verwendungszweck für die militärische und zivile Nutzung „sowohl hilfreicher als auch schädlicher Natur“, hieß es in dem Bericht: „Da KI-Funktionen immer mächtiger werden und eine breitere Akzeptanz finden, gehen wir davon aus, dass der zunehmende Einsatz von KI-Systemen zur ... Erweiterung bestehender Bedrohungen, ... der Einführung neuer Bedrohungen ... [und einer] Änderung des typischen Charakters von Bedrohungen führen wird.“

In einer schriftlichen Erklärung erklärte Dr. Seán Ó hÉigeartaigh, Vorstandsmitglied bei CSER und einer der Mitverfasser:

„Wir leben in einer Welt, die durch den Missbrauch von KI mit Gefahren im Alltag behaftet werden könnte, und wir müssen die Verantwortung für die Probleme übernehmen – weil die Risiken durchaus real sind. Es gibt Entscheidungen, die wir jetzt treffen müssen, weshalb wir durch unseren Bericht Regierungen, Institutionen und Einzelpersonen auf der ganzen Welt zum Handeln aufrufen wollen.“

Die Autoren rechnen mit neuartigen Cyber-Angriffen wie automatisiertes Hacken, Sprachsynthese zum Identitätswechsel, zielgerichtete Spam-E-Mails durch Informationen aus sozialen Medien oder die Ausnutzung der Schwachstellen von KI-Systemen selbst, zum Beispiel durch Adversarial Examples und Data Poisoning. Der Bericht wies auch auf die Möglichkeit hin, dass Drohnen und computergestützte physische Systeme für böswillige Handlungen eingesetzt werden könnten, wie zum Beispiel zur Übernahme der Kontrolle über autonome Fahrzeuge oder zur Bewaffnung von „Drohnenschwärmen“, um bestimmte Mitglieder von Menschenmengen mithilfe von Gesichtserkennungstechnologie zu töten. Gefälschte Videos, die die öffentliche Meinung manipulieren sollen, oder die Verwendung von automatisierten Überwachungsplattformen durch autoritäre Staaten zur Unterdrückung von Dissens gehören zu den Bedrohungen für die politische Sicherheit, die ebenfalls in dem Bericht aufgeführt wurden.

Obwohl der Bericht vor den unmittelbaren Bedrohungen durch KI warnte, wurden keine spezifischen Vorbeugungsmaßnahmen gegen den Missbrauch dieser Technologien genannt. Der Bericht stellte aber auch fest, dass zwischen den Mitverfassern selbst und anderen Experten auf diesem Gebiet noch viele Meinungsverschiedenheiten bestehen. „Wir analysieren, aber verharren nicht ausschließlich auf der Frage, wie ein langfristiges Gleichgewicht zwischen Angreifern und Verteidigern aussehen könnte. Stattdessen konzentrieren wir uns darauf, mit welchen Arten von Angriffen wir uns wahrscheinlich bald konfrontiert sehen werden, sollten keine adäquaten Abwehrmechanismen entwickelt werden“, schlussfolgerten die Autoren.

Datum der letzten Änderung: 2018-03-02 17:15:01
Kommentare


Privacy Policy