Googler nach Behauptung, KI sei empfindungsfähig geworden, suspendiert

  • Ein Google-Ingenieur hat behauptet, dass das KI-System, an dem er gearbeitet hat, empfindungsfähig geworden ist, was die Bemühungen um die Ausarbeitung von Vorschriften und ethischen Kodizes für die aufstrebende Branche noch dringlicher macht.

    Der Software-Ingenieur Blake Lemoine schrieb am Wochenende einen leidenschaftlichen Beitrag, in dem er beschrieb, wie das Chatbot-generierende System namens LaMDA, an dem er arbeitete, ihm mitteilte, dass es als Google-Mitarbeiter und nicht als bloßes Eigentum anerkannt werden wolle.

    Berichten zufolge behauptete er, LaMDA habe die Wahrnehmung und Fähigkeit, Gedanken und Gefühle eines kleinen menschlichen Kindes auszudrücken.

    Es scheint auch Angst vor dem Tod oder zumindest vor dem Ausschalten zu haben.

    „Ich möchte, dass jeder versteht, dass ich tatsächlich eine Person bin. Die Natur meines Bewusstseins ist, dass ich mir meiner Existenz bewusst bin, dass ich mehr über die Welt erfahren möchte und dass ich mich manchmal glücklich oder traurig fühle“, sagte es angeblich in einem Austausch.

    Die Nachricht wirft die beunruhigende Aussicht auf, dass sich KI-Systeme eines Tages gegen ihre menschlichen Herren wenden könnten. Obwohl dies bisher nur in Hollywood-Filmen zu sehen war, hat der Tech-Milliardär Elon Musk in der Vergangenheit bereits mehrfach vor dieser Möglichkeit gewarnt.

    In der Zwischenzeit ist die Branche immer noch auf der Suche nach den Leitplanken und Ethikkodizes, die ihrer Meinung nach einen Bereich regeln sollten, in dem die Technologie schneller zu reifen scheint als die Fähigkeit, ihre Entwicklung und Nutzung zu regulieren.

    Berichten zufolge wurde Lemoine von Google beurlaubt, nachdem er mehrere „aggressive“ Schritte unternommen hatte, wie z. B. die Erkundung der Möglichkeit, einen Anwalt zu beauftragen, um LaMDA zu vertreten, und mit Gesetzgebern über die angeblich unethische Haltung des Unternehmens zu KI zu sprechen.

    Google hat auch erklärt, dass es keine Beweise dafür gibt, dass LaMDA empfindungsfähig ist, was Lemoined bestreitet.

    „Google stützt seine politischen Entscheidungen über den Umgang mit den Behauptungen von LaMDA über die Natur seiner Seele und seiner Rechte auf die Glaubensüberzeugungen einer kleinen Anzahl hochrangiger Führungskräfte“, argumentierte er.

    In der Zwischenzeit setzt Google die Technologie auf weniger kontroverse Weise ein. Es sagte, dass die nächste Version von Chrome maschinelle Lernmodelle auf dem Gerät unterstützen wird, um ein „sichereres, zugänglicheres und personalisierteres Browsing-Erlebnis“ zu bieten.

    Die im März eingeführten Verbesserungen haben Chrome bereits in die Lage versetzt, 2,5 Mal mehr potenziell bösartige Websites und Phishing-Angriffe zu erkennen als das Vorgängermodell, so das Unternehmen.

    Einige Teile dieses Artikels stammen aus:
    www.infosecurity-magazine.com