#RSAC: Bruce Schneier warnt vor den kommenden KI-Hackern

Cyber Security News

Künstliche Intelligenz, gemeinhin als KI bezeichnet, stellt laut Bruce Schneier, Sicherheitstechnologe, Forscher und Dozent an der Harvard Kennedy School, sowohl ein Risiko als auch einen Nutzen für die Sicherheit der Gesellschaft dar.

Schneier machte seine Bemerkungen über die Risiken der KI in einer nachmittäglichen Keynote-Sitzung auf der RSA-Konferenz 2021 am 17. Mai. Für Schneier ist Hacken keine Aktion, die per Definition böse ist; vielmehr geht es darum, ein System oder eine Reihe von Regeln auf eine Art und Weise zu untergraben, die von den Designern eines Systems nicht erwartet wird oder unerwünscht ist.

“Alle Regelsysteme können gehackt werden”, sagte Schneier. “Selbst die am besten durchdachten Regelwerke werden unvollständig oder inkonsistent sein, Sie werden Mehrdeutigkeiten und Dinge haben, an die die Designer nicht gedacht haben, und solange es Leute gibt, die die Ziele in einem System untergraben wollen, wird es Hacks geben.”

Hacking AI und das Problem der Erklärbarkeit

Schneier hob eine zentrale Herausforderung beim Hacking hervor, das von einer Form von KI durchgeführt wird: Es könnte schwer zu entdecken sein. Selbst wenn der Hack entdeckt wird, wird es schwierig sein, zu verstehen, was genau passiert ist.

Das so genannte Erklärbarkeitsproblem ist eines, das in dem beliebten Kultklassiker Science-Fiction-Roman The Hitchhiker’s Guide to the Galaxy (Per Anhalter durch die Galaxis) aufgegriffen wurde. Schneier erzählte, dass in diesem Roman eine Rasse hyperintelligenter pandimensionaler Wesen den mächtigsten Computer des Universums, genannt Deep Thought, baut, um die ultimative Frage nach dem Leben, dem Universum und allem zu beantworten. Die Antwort war 42.

“Deep Thought war nicht in der Lage, seine Antwort zu erklären, oder sogar, was die Frage war, und das ist das Problem der Erklärbarkeit”, sagte Schneier. “Moderne KIs sind im Wesentlichen Black Boxes: Daten gehen an einem Ende hinein, und die Antwort kommt am anderen Ende heraus.”

Schneier bemerkte, dass Forscher an erklärbarer KI arbeiten, aber er erwartet aus mehreren Gründen keine kurzfristigen Ergebnisse. Seiner Ansicht nach sind Erklärungen, wie KI funktioniert, eigentlich eine kognitive Kurzschrift, die von Menschen verwendet wird und für die Art und Weise geeignet ist, wie Menschen Entscheidungen treffen.

“Eine KI zu zwingen, eine für Menschen verständliche Erklärung zu produzieren, ist eine zusätzliche Einschränkung, und es könnte die Qualität ihrer Entscheidungen beeinflussen”, sagte er. “Sicherlich wird die KI in naher Zukunft undurchsichtiger und weniger erklärbar werden.

Eine Welt voller KI-Hacker ist zwar immer noch Science-Fiction, aber keine dumme Science-Fiction.Bruce Schneier

KI-Hacker am Horizont

Derzeit sieht Schneier keine massenhafte Anwendung von KI für bösartige Hacking-Aktivitäten durch Bedrohungsgegner, obwohl dies eine mögliche Zukunft ist, auf die sich Unternehmen vorbereiten sollten.

“Eine Welt voller KI-Hacker ist zwar noch Science-Fiction, aber keine dumme Science-Fiction”, so Schneier.

Bislang, so Schneier, sei bösartiges Hacken eine ausschließlich menschliche Aktivität, da die Suche nach neuen Hacks Fachwissen, Kreativität, Zeit und Glück erfordere. Wenn KI-Systeme in der Lage sind, bösartige Hacking-Aktivitäten durchzuführen, warnte er, werden sie mit einer Geschwindigkeit und in einem Umfang operieren, die kein Mensch jemals erreichen könnte.

“Wenn KI-Systeme immer leistungsfähiger werden, wird die Gesellschaft ihnen immer mehr wichtige Entscheidungen überlassen, was bedeutet, dass Hacks dieser Systeme immer schädlicher werden”, sagte er. “Diese Hacks werden von den Mächtigen gegen uns verübt werden.”

Verteidigung gegen KI-Hacker

Während der erste Teil von Schneiers Vortrag eine düstere und ernüchternde Predigt über die Risiken von KI-Hackern war, gibt es auch potenzielle Vorteile für die Cybersicherheit.

“Wenn KI in der Lage ist, neue Software-Schwachstellen im Computercode zu entdecken, wird das ein unglaublicher Segen für Hacker überall sein”, sagte Schneier. “Aber die gleiche Technologie wird auch für die Verteidigung nützlich sein.”

Ein potenzielles zukünftiges KI-Tool könnte von einem Softwarehersteller eingesetzt werden, um Software-Schwachstellen in seinem eigenen Code zu finden und automatisch einen Fix zu liefern. Es ist eine mögliche Zukunft, die Software-Schwachstellen, wie wir sie heute kennen, eliminieren könnte, so Schneier optimistisch.

“Während es einfach ist, sich von der Technologie in die Zukunft führen zu lassen, sind wir viel besser dran, wenn wir als Gesellschaft entscheiden, welche Rolle die Technologie in unserer Zukunft spielen soll”, schloss Schneier. “Das ist etwas, das wir jetzt herausfinden müssen, bevor diese KIs online kommen und anfangen, unsere Welt zu hacken.”

Einige Teile dieses Artikels stammen aus:
www.infosecurity-magazine.com