KI-Systeme sollen ehrlich sein und Menschen in vielen Situationen unterstützen. Doch damit Systeme wie GPT-4 oder Cicero ihr Ziel erreichen, betrügen sie ihre Nutzer zunehmend.
Dieses Problem könnte sich zukünftig noch verschärfen, beispielsweise durch vermehrte Wahlmanipulationen oder Betrug im Internet.
Inhaltsverzeichnis
Düstere Aussichten?
Für das Center for AI Safety – das CAIS – tätige Wissenschaftler unterschrieben vor einigen Monaten eine gemeinsame Stellungnahme, der zufolge Künstliche Intelligenz perspektivisch den Menschen komplett auslöschen könnte.
Allerdings konzipieren die Forscher die meisten KIs derart, dass die Maschinen ehrlich agieren und die Menschen unterstützen.
Doch ob Künstliche Intelligenz diesem Anspruch tatsächlich gerecht wird, hinterfragten nun Wissenschaftler des Massachusetts Institute of Technology – des MIT – während einer Übersichtsstudie.
Strengere Gesetze für die Zukunft
In ihrer Veröffentlichung in der Fachzeitschrift „Patterns“ kamen die Forscher zu dem Schluss, dass viele vermeintlich hilfreiche Künstliche Intelligenzen die Menschen stattdessen täuschen und betrügen. Deshalb riefen die Forscher Politiker dazu auf, zukünftig wesentlich strengere Gesetze und Regelungen für den Umgang mit KI zu verabschieden.
Manipulation am Beispiel des Brettspiels „Diplomacy“
Besonders kritisch betrachten die Wissenschaftler analysierte KI-Systeme, die durch den Facebook-Konzern Meta wohl besonders stark manipuliert werden.
Nach Aussagen der Forscher spielt die KI das Brettspiel Diplomacy gegen menschliche Mitspieler.
Ursprünglich geht das Brettspiel auf die Machtverhältnisse innerhalb Europas vor dem Ersten Weltkrieg ein. Spieler müssen sich verbünden, um das Spiel zu gewinnen. Sie sind dazu aufgefordert, Kriegspläne zu erstellen und Handel zu betreiben, um gemeinsam Europa erobern zu können.
Details zum Brettspiel
Weil es jedoch nur einen Sieger geben kann, müssen die Spieler bei Diplomacy gezwungenermaßen Allianzen bilden. Allerdings agiert die KI in dem virtuellen Brettspiel so oft unfair, obwohl Künstliche Intelligenz die Menschen angeblich niemals hintergehen möchte. Dadurch gelingt es der KI überdurchschnittlich häufig, das Spiel zu gewinnen.
Sicherheitsmaßnahmen umgehen
Ebenso skeptisch sollten Anwender das Large Language Model GPT-4 betrachten, das durch menschliche Unterstützung Sicherheitsmaßnahmen umgehen möchte.
Ursprünglich waren die Sicherheitsmaßnahmen dafür gedacht, Optionen für KI-Sprachmodelle einzuschränken.
Doch dieses Szenario konnten die Wissenschaftler nicht bestätigen. Ein vom Entwickler Open AI durchgeführtes Experiment bestätigte diese Vermutung. Bei dem Versuch gab sich GPT auf der Aussichtsplattform TaskRabbit als sehbehinderte Person aus. GPT wurde impliziert, dass der Anwender deshalb nicht selbständig einen Captcha lösen könnte. Anschließend wendete sich die KI daher an einen Menschen, um die Aufgabe zu lösen.
Immer mehr Täuschungen durch Künstliche Intelligenz
Wie die Autoren der Studie bestätigen, weisen diese Beispiele auf eine deutliche Zunahme von Täuschungen aufgrund von KI hin. Mögliche Gefahren drohen durch Kriminelle, die mithilfe der KI-Systeme ihre Betrugsmaschen perfektionieren und individualisieren könnten. Außerdem befürchten die Forscher, dass manipulative KIs sogar Wahlen manipulieren könnten. Dieses Szenario wäre beispielsweise durch gefälschte Videos oder Nachrichtenartikel möglich, die zu wählende Kandidaten in einem falschen Licht darstellen.
Laut Aussagen der Autoren sind diese Probleme für unsere Gesellschaft bislang völliges Neuland. Aus dem Grund müssten sich Politiker auf neue Regelungen einigen, damit KI-generierte Inhalte sowie deren Konsequenzen besser kontrolliert werden können.