An der Beurteilung Künstlicher Intelligenz scheiden sich die Geister, eins jedoch dürfte sicher sein, es handelt sich dabei nicht um eine vorübergehende Modeerscheinung. Abzuwarten bleibt jedoch, inwieweit der Einsatz von KI überwiegend positive oder negative Auswirkungen auf die Gesellschaft haben wird. Manche Experten warnen davor, der Technologie – im Guten wie im Schlechten – alles zuzutrauen.
„KI hat ihr Potenzial bereits unter Beweis gestellt und besitzt die Möglichkeit, viele Bereiche wie das Gesundheitswesen, das Finanzwesen, das Transportwesen und vieles mehr zu revolutionieren. KI könnte uns auch dabei helfen, komplexe Probleme zu lösen, bessere Entscheidungen zu treffen, menschliche Fehler zu reduzieren oder gefährliche Aufgaben wie die Entschärfung einer Bombe, Flüge ins All oder die Erforschung der Ozeane zu bewältigen. Gleichzeitig sehen wir aber auch einen massiven Einsatz von KI-Technologien zur Entwicklung von Cyber-Bedrohungen,“ sagt etwa Marco Eggerling, CISO EMEA beim Sicherheitsanbieter Check Point, und spielt damit offensichtlich auch auf den von Cyberkriminellen für die Entwicklung von Malware genutzten Chatbot ChatGPT an.
Künstliche Intelligenz hat durchaus das Potenzial zu einer transformativen Technologie, die möglicherweise auch unser tägliches Leben erheblich beeinflussen kann; zahlreiche Experten mahnen allerdings gesetzliche Regelungen an, die den ethischen Einsatz und eine verantwortungsvolle Weiterentwicklung der Technologie sicherstellen. „Um die mit fortgeschrittener KI verbundenen Risiken zu mindern, ist es wichtig, dass Regierungen, Unternehmen und Aufsichtsbehörden zusammenarbeiten, um robuste Sicherheitsmechanismen zu entwickeln, ethische Grundsätze festzulegen und die Transparenz und Rechenschaftspflicht bei der KI-Entwicklung zu fördern“, so etwa der Sicherheitsexperte Eggerling. „Derzeit gibt es nur ein Minimum an Regeln und Vorschriften.“
Dass eine Regulierung notwendig ist, zeigt auch die Art und Weise wie Cyber-Kriminelle die KI einsetzen, um Schwachstellen in Codes zu erkennen oder um Cyber-Attacken zu verfeinern, indem sie fortschrittliche Malware entwickeln lassen, die ihren Code ändern kann und sich so der Enttarnung entzieht. KI wird derzeit schon dafür missbraucht, gezieltere Phishing-Kampagnen zu erstellen oder überzeugende Fälschungen von Audio- und Videoaufnahmen zu produzieren. Der wirtschaftliche Schaden ist bereits enorm und politische Manipulation oder gar das Fälschen von Beweisen, um einer Strafverfolgung zu entgehen, ist nicht ausgeschlossen.
„In letzter Zeit wurden auch verschiedene Verbote und Einschränkungen für KI diskutiert. Im Fall von ChatGPT beziehen sich die Bedenken hauptsächlich auf den Datenschutz, da es bereits zu Datenlecks gekommen ist. Die Sperrung ähnlicher Dienste hat jedoch nur eine begrenzte Wirkung, da gewieftere Nutzer die Sperre z. B. durch die Verwendung eines VPN umgehen können und zudem ein reger Handel mit gestohlenen Premium-Konten besteht. Das Problem ist, dass die meisten Nutzer nicht wissen, dass die in ChatGPT eingegebenen sensiblen Informationen sehr wertvoll sind, wenn sie nach außen dringen, und für gezielte Marketingzwecke verwendet werden könnten. Wir sprechen hier von potenzieller sozialer Manipulation in einem noch nie dagewesenen Ausmaß,“ betont Check Point CISO EMEA Eggerling.