Cyberkriminalität und künstliche Intelligenz: Entdecken Sie aktuelle Bedrohungen und Zukunftsperspektiven!
Cyberkriminelle und KI: eine wachsende Bedrohung
Der Einsatz künstlicher Intelligenz (KI) durch Cyberkriminelle nimmt immer mehr zu. Letztere nutzen tatsächlich die Vorteile der generativen KI, um effektivere und glaubwürdigere Angriffe durchzuführen. Tools wie der Chatbot ChatGPT haben diesen Einsatz von KI in der Welt der Cyberkriminalität populär gemacht. Jetzt profitieren Phishing, Ransomware, Betrug und sogar Präsidentenbetrug von diesen neuen Technologien, die von Kriminellen eingesetzt werden.
Eine Demokratisierung der KI unter Cyberkriminellen
Laut Jean-Jacques Latour, Leiter für Cybersicherheitsexpertise bei Cybermalveillance.gouv.fr, verbreitet sich KI unter Cyberkriminellen immer weiter, was sie bei ihren Angriffen effektiver und glaubwürdiger macht. Die Methoden dieser Kriminellen ändern sich nicht, das Ausmaß der Angriffe und ihre Überzeugungskraft nehmen jedoch deutlich zu.
Immer ausgefeiltere Phishing-Angriffe
Phishing, bei dem betrügerische E-Mails mit Gratisgeschenken oder Rabatten verschickt werden, wird immer raffinierter. Betrüger vermeiden jetzt grobe Syntax- oder Rechtschreibfehler, um ihre Nachrichten glaubwürdiger zu machen. Sie passen die verwendete Sprache an ihre Zielgruppe an und nutzen geeignete Kontexte, um sie davon zu überzeugen, auf fragwürdige Links oder Seiten zu klicken.
Generative KI zur Erstellung benutzerdefinierter Malware
Generative KI wird von Cyberkriminellen missbraucht, um individuelle Malware zu erstellen. Diese Programme nutzen bekannte Schwachstellen in Computerprogrammen aus und machen die Angriffe dadurch noch effektiver. Programme wie ThreatGPT, WormGPT und FraudGPT nehmen im Darknet zu und werden bei böswilligen Akteuren immer beliebter.
KI dient zum Sortieren und Minen von Daten
Hacker nutzen KI auch, um Datenmengen zu sortieren und auszunutzen, nachdem sie in ein Computersystem eingedrungen sind. Durch den Einsatz von KI können sie ihre Gewinne maximieren, indem sie auf die relevantesten Informationen abzielen.
Der Präsidentenbetrug und Deepfake-Audiogeneratoren
Auch beim Präsidentenbetrug kommt KI zum Einsatz. Hacker sammeln Informationen über Unternehmensleiter, um betrügerische Überweisungen zu genehmigen. Dank „Deepfake“-Audiogeneratoren können sie die Stimmen von Managern bei der Erteilung von Transferaufträgen perfekt imitieren.
Auch Ransomware und Vishing sind betroffen
Unternehmen und Krankenhäuser sind leider mit Ransomware konfrontiert, die bereits KI nutzt, um ihren Code zu ändern und der Erkennung durch Sicherheitstools zu entgehen. Darüber hinaus könnte auch die Vishing-Technik, bei der ein gefälschter Bankier eine Geldüberweisung anfordert, mithilfe von KI verbessert werden.
Bereits erfasste Fälle und verbleibende Zweifel
Die britische Polizei hat bereits Fälle gemeldet, in denen synthetische KI-generierte Inhalte zur Täuschung, Belästigung oder Erpressung von Opfern verwendet wurden. Obwohl die ersten Fälle in Frankreich noch nicht offiziell registriert wurden, bestehen weiterhin Zweifel am Einsatz von KI durch Kriminelle.
Die „Zero Trust“-Regel soll diesen Bedrohungen entgegenwirken
Angesichts dieser neuen Bedrohungen ist es unerlässlich, die „Zero Trust“-Regel anzuwenden. Das bedeutet, dass man in Sachen Cybersicherheit und KI nichts von vornherein vertrauen sollte. Die aktivsten Hacker sind im Allgemeinen gut organisierte Netzwerke aus Osteuropa, aber staatliche Hacker aus marginalisierten Ländern sollten nicht übersehen werden.
Abschluss
Zusammenfassend lässt sich sagen, dass KI-gestützte Cyberkriminalität eine wachsende Bedrohung darstellt. Cyberkriminelle nutzen zunehmend KI, um ihre Techniken zu verbessern und glaubwürdigere Angriffe durchzuführen. Es ist wichtig, wachsam zu bleiben und geeignete Schutzmaßnahmen zu ergreifen, um diesen Bedrohungen zu begegnen.
