{"id":15721,"date":"2026-02-06T08:13:22","date_gmt":"2026-02-06T08:13:22","guid":{"rendered":"https:\/\/newestek.com\/?p=15721"},"modified":"2026-02-06T08:13:22","modified_gmt":"2026-02-06T08:13:22","slug":"ki-als-aws-angriffsturbo","status":"publish","type":"post","link":"https:\/\/newestek.com\/?p=15721","title":{"rendered":"KI als AWS-Angriffsturbo"},"content":{"rendered":"<div>\n<div id=\"remove_no_follow\">\n<div class=\"grid grid--cols-10@md grid--cols-8@lg article-column\">\n<div class=\"col-12 col-10@md col-6@lg col-start-3@lg\">\n<div class=\"article-column__content\">\n<section class=\"wp-block-bigbite-multi-title\">\n<div class=\"container\"><\/div>\n<\/section>\n<div class=\"extendedBlock-wrapper block-coreImage undefined\">\n<figure class=\"wp-block-image size-large\"><figcaption class=\"wp-element-caption\">Kriminelle Hacker haben ihre Angriffe auf AWS-Umgebungen mit KI beschleunigt.<\/figcaption><\/figure>\n<p class=\"imageCredit\"> khunkornStudio \u2013 shutterstock.com<\/p>\n<\/div>\n<p>Forscher des Sicherheitsanbieters Sysdig haben einen Angriff aufgedeckt, bei dem kriminelle Angreifer eine AWS-Umgebung in weniger als acht Minuten vollst\u00e4ndig kompromittieren konnten. Laut den Threat-Spezialisten nutzten die Bedrohungsakteure dabei eine Cloud-Fehlkonfiguration mit der Hilfe von Large Language Models (LLMs) aus, um den gesamten Angriffs-Lebenszyklus zu komprimieren \u2013 von Stunden auf wenige Minuten.<\/p>\n<p>\u201eSich gegen Angriffe dieser Art zu verteidigen, erfordert KI-fokussierte Technologien, die in der Lage sind Schlussfolgerungen zu ziehen und es erm\u00f6glichen, auf automatisierte Attacken mit der n\u00f6tigen Geschwindigkeit zu reagieren\u201c, meint <a href=\"https:\/\/www.acalvio.com\/authors\/ram-varadarajan\/\" data-type=\"link\" data-id=\"https:\/\/www.acalvio.com\/authors\/ram-varadarajan\/\" target=\"_blank\" rel=\"noreferrer noopener\">Ram Varadarajan<\/a>, CEO beim Plattformanbieter Acalvio.<\/p>\n<h2 class=\"wp-block-heading\" id=\"vom-public-bucket-zur-privilege-escalation\">Vom Public Bucket zur Privilege Escalation<\/h2>\n<p>Initial konnten sich die Cyberkriminellen laut den Sicherheitsforschern Zugriff verschaffen, indem sie g\u00fcltige AWS-Anmeldedaten nutzten, die zuvor in \u00f6ffentlichen <a href=\"https:\/\/www.csoonline.com\/article\/4095199\/aws-s3-buckets-im-visier-von-ransomware-banden.html\" data-type=\"link\" data-id=\"https:\/\/www.csoonline.com\/article\/4095199\/aws-s3-buckets-im-visier-von-ransomware-banden.html\" target=\"_blank\">S3Buckets<\/a> offengelegt wurden. Diese enthielten auch KI-bezogene Daten, etwa Berechtigungen f\u00fcr die Interaktion mit Lambda und eingeschr\u00e4nkten Zugriff auf Amazon Bedrock.<\/p>\n<p>\u201eDieser Benutzer wurde wahrscheinlich mit der Intention erstellt, Bedrock-Tasks mit Lambda-Funktionen in der gesamten Umgebung zu automatisieren\u201c, erkl\u00e4ren die Sysdig-Forscher.<\/p>\n<p>Mit Lesezugriff auf die gesamte Umgebung hatten die Angreifer dann auch leichtes Spiel damit, sich einen \u00dcberblick \u00fcber alle verf\u00fcgbaren AWS-Dienste zu verschaffen und ihre Berechtigungen zu erweitern, indem sie eine existierende Lambda-Funktion modifizierten. \u00a0<\/p>\n<p>Wie die Analyse der Sicherheitsforscher zeigt, weist der Lambda-Code Anzeichen auf, die darauf hindeuten, dass er per LLM generiert wurde , darunter ein umfassendes Exception Handling iterative Targeting-Logik und nicht-englische Kommentare.<\/p>\n<h2 class=\"wp-block-heading\" id=\"laterale-bewegung-llmjacking-und-gpu-missbrauch\">Laterale Bewegung, LLMjacking und GPU-Missbrauch<\/h2>\n<p>Nachdem sich die Angreifer administrativen Zugriff verschafft hatten, bewegten sie sich lateral \u00fcber 19 verschiedene AWS-Principals und erstellten neue Benutzerkonten, um ihre Aktivit\u00e4ten auf verschiedene Identit\u00e4ten zu verteilen. Dieser Ansatz erm\u00f6glichte den Angreifern Persistenz und erschwerte parallel die Detection, wie die Forscher in ihrem Bericht festhalten.<\/p>\n<p>Anschlie\u00dfend verlagerten die Hacker ihren Fokus auf Amazon Bedrock, ermittelten die verf\u00fcgbaren Modelle und deaktivierten die Protokollierung von Modellaufrufen. Laut den Forschern wurden dann mehrere Foundation-Modelle aufgerufen , entsprechend dem Muster von \u201e<a href=\"https:\/\/www.csoonline.com\/article\/3560005\/hacker-zielen-auf-llm-zugange.html\" target=\"_blank\">LLMjacking<\/a>\u201c. Zudem verwies der Code in Teilen auch auf nicht existierende Repositories und Ressourcen, was Sysdig auf LLM-Halluzinationen zur\u00fcckf\u00fchrt.<\/p>\n<p>Im Anschluss missbrauchten die Angreifer schlie\u00dflich auch noch Ressourcen. Demnach versuchten die Angreifer, High-End-GPU-Instanzen f\u00fcr Machine-Learning-Workloads zu starten. W\u00e4hrend das bei den meisten Instanzen aufgrund von Kapazit\u00e4tsbeschr\u00e4nkungen fehlschlug, konnten die Cyberkriminellen allerdings eine besonders kostspielige GPU-Instanz starten \u2013 inklusive Skripten, um CUDA zu installieren, Trainings-Frameworks bereitzustellen und ein \u00f6ffentliches JupyterLab-Interface zu exponieren.<\/p>\n<p>Experten zufolge ist das Beunruhigendste an diesem Angriff nicht, dass\u00a0 KI eine neue Angriffstechnik erm\u00f6glicht hat.<\/p>\n<p>\u00a0\u201eWenn man diesen Angriff auf das Wesentliche reduziert, ist das bahnbrechende nicht die Technik\u201c, betont etwa <a href=\"https:\/\/www.keepersecurity.com\/blog\/it\/author\/shane\/\" data-type=\"link\" data-id=\"https:\/\/www.keepersecurity.com\/blog\/it\/author\/shane\/\" target=\"_blank\" rel=\"noreferrer noopener\">Shane Barney<\/a>, CISO bei Keeper Security. \u201eEntscheidend ist die geringe Widerstandsf\u00e4higkeit der Umgebung, sobald der Angreifer legitimen Zugriff erhalten hat.\u201c Der Sicherheitsentscheider warnt davor, dass KI Reconnaissance, \u00a0Privilege Testing und laterale Bewegungen durch das Netzwerk in einer besonders schnellen Sequenz komprimiert. Hierdurch werde die Pufferzeit, auf die sich die Verteidiger bislang traditionell verlassen h\u00e4tten, eliminiert.<\/p>\n<p>Um das Risiko solcher Attacken zu verringern, empfehlen die Sysdig-Forscher, das Least-Privilege-Prinzip konsequent auf s\u00e4mtliche IAM-Benutzer- und Lambda-Execution-Rollen anzuwenden. Dar\u00fcber hinaus sollten sensible S3-Buckets niemals \u00f6ffentlich zug\u00e4nglich sein, warnt Sysdig.<\/p>\n<p>Die Research-Experten legen Unternehmen au\u00dferdem ans Herz<\/p>\n<ul class=\"wp-block-list\">\n<li>die Lambda-Versionierung zu nutzen,<\/li>\n<li>die Protokollierung der Modellaufrufe in Bedrock zu aktivieren, und<\/li>\n<li>verd\u00e4chtige, gro\u00dfangelegte Enumeration-Aktivit\u00e4ten kritisch zu \u00fcberpr\u00fcfen.<\/li>\n<\/ul>\n<p>\u00a0(jm\/fm)<\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Kriminelle Hacker haben ihre Angriffe auf AWS-Umgebungen mit KI beschleunigt. khunkornStudio \u2013 shutterstock.com Forscher des Sicherheitsanbieters Sysdig haben einen Angriff aufgedeckt, bei dem kriminelle Angreifer eine AWS-Umgebung in weniger als acht Minuten vollst\u00e4ndig kompromittieren konnten. Laut den Threat-Spezialisten nutzten die Bedrohungsakteure dabei eine Cloud-Fehlkonfiguration mit der Hilfe von Large Language Models (LLMs) aus, um den gesamten Angriffs-Lebenszyklus zu komprimieren \u2013 von Stunden auf wenige Minuten&#8230;. <\/p>\n<p class=\"more\"><a class=\"more-link\" href=\"https:\/\/newestek.com\/?p=15721\">Read More<\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-15721","post","type-post","status-publish","format-standard","hentry","category-uncategorized","is-cat-link-borders-light is-cat-link-rounded"],"_links":{"self":[{"href":"https:\/\/newestek.com\/index.php?rest_route=\/wp\/v2\/posts\/15721","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/newestek.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/newestek.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/newestek.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/newestek.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=15721"}],"version-history":[{"count":0,"href":"https:\/\/newestek.com\/index.php?rest_route=\/wp\/v2\/posts\/15721\/revisions"}],"wp:attachment":[{"href":"https:\/\/newestek.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=15721"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/newestek.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=15721"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/newestek.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=15721"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}