Gemeinsam mit Microsoft hat die Entwicklerfirma von ChatGPT, OpenAI, am Mittwoch fünf Hacker-Gruppen das Handwerk gelegt. Hacker nutzen die KI, um ihre Attacken zu automatisieren. Dabei übersetzten sie technische Dokumentationen, suchten nach Informationen im Netz und schrieben sogar täuschend echte Phishing-E-Mails, um an Login-Daten zu gelangen. Dabei locken sie ihre Opfer auf gefälschte Websites, wo sie ihre sensiblen Daten preisgeben sollen.

OpenAI und Microsoft betonen: Die KI-Technologie sei nur begrenzt für Cyberangriffe geeignet. Es gebe noch keine Berichte über neue, innovative Angriffe mit KI.

Hype um KI-Chatbot

Vor rund einem Jahr löste ChatGPT einen Hype um künstliche Intelligenz aus. Diese KI-Chatbots werden mit riesigen Datenmengen trainiert und können Texte in menschenähnlichem Sprachstil verfassen, Software-Code schreiben und Informationen zusammenfassen.