• Home
  • Help
  • Register
  • Login
  • Home
  • Help

 
  • 0 Bewertung(en) - 0 im Durchschnitt

Was ist adversariales maschinelles Lernen und wie können Angreifer es nutzen, um Sicherheitssysteme zu umgehen?

#1
09-11-2020, 14:51
Adversarial Machine Learning passiert, wenn jemand absichtlich Eingaben erstellt, um ein Machine Learning-Modell dazu zu bringen, falsche Entscheidungen zu treffen. Ich erinnere mich, dass ich vor ein paar Jahren zum ersten Mal darauf gestoßen bin, als ich mit einigen KI-Tools für Netzwerksicherheit bei meinem letzten Job herumexperimentierte. Du siehst, ML-Modelle lernen Muster aus Daten, wie das Erkennen von Malware oder das Erkennen von Gesichtern in Überwachungsaufnahmen, aber sie sind nicht perfekt. Angreifer nutzen das aus, indem sie die Eingaben genau genug anpassen, um unbemerkt vorbei zu schlüpfen.

Stell dir Folgendes vor: Du verwendest ein ML-basiertes System, um verdächtigen Verkehr auf deiner Firewall zu erkennen. Das Modell markiert seltsame Muster als potenzielle Hacks. Aber ein Angreifer findet die blinden Flecken des Modells heraus. Sie fügen ihren Datenpaketen winzige, kaum wahrnehmbare Änderungen hinzu - vielleicht etwas Rauschen oder veränderte Header - die für Menschen normal aussehen, aber die KI verwirren. Plötzlich segelt ihre Erkundung einfach durch, und deine Verteidigung blinzelt nicht einmal. Ich habe solche Dinge in Laboren getestet, und es verblüfft mich, wie ein paar Pixel oder Bits ein intelligentes System dumm machen können.

Angreifer lieben das, um allerlei Sicherheitskonfigurationen zu umgehen. Nimm Antivirussoftware mit ML-Komponenten. Sie scannt Dateien auf bösartiges Verhalten basierend auf gelernten Signaturen. Du und ich wissen beide, dass traditionelle Signaturen neue Bedrohungen verpassen, also hilft ML, indem es das Verhalten analysiert. Aber Gegner erzeugen adversariale Beispiele - modifizierte Malware, die der Erkennung entgeht. Sie könnten die Struktur des Codes leicht anpassen, zum Beispiel Variablennamen ändern oder nutzlose Anweisungen hinzufügen, während sie den Kernangriff intakt halten. Das Modell sieht es als harmlos an, und zack, die Infektion passiert. Ich habe letzten Jahr einen Bericht gesehen, in dem Forscher einen beliebten Endpunkt-Detektor mit nur 5 % Abweichung von einer Virusprobe überlisteten. Gruselig, nicht wahr? Man fragt sich, wie viele reale Verstöße auf diese Weise unbemerkt bleiben.

Im Bereich der physischen Sicherheit ist es sogar noch verrückter. Stell dir ML-unterstützte Kameras vor, die Eindringlinge über Gesichtserkennung identifizieren. Angreifer bringen adversariale Patches an - Aufkleber oder Muster auf Kleidung, die das Bild für die KI, nicht aber für uns verzerren. Das Modell klassifiziert sie fälschlicherweise als autorisierte Personen, und sie waltzen einfach herein. Ich habe mit einem Kumpel gesprochen, der in der Gebäudetechnik arbeitet, und er erzählte mir von einer Demo, bei der sie einem ganzen Raum voller AI-Kameras mit aufgedruckten Brillenfassungen entkommen sind. Kein Witz, das System brauchte Sekunden, um ein falsches Gesicht zu genehmigen. Man kann das auf autonome Drohnen oder selbstfahrende Autos in sicheren Zonen hochskalieren, wo das Manipulieren von Sensordaten es Angreifern ermöglicht, Standorte oder Identitäten vorzutäuschen.

Auch E-Mail-Filter fallen dem zum Opfer. Die Spam-Erkennung nutzt ML, um aus Mustern von Junk-Mail zu lernen. Angreifer erstellen adversariale E-Mails mit subtilen Wortänderungen oder Anhängen, die legitimen ähneln. Das Modell lässt sie durch, und Phishing-Links landen in deinem Posteingang. Ich beschäftige mich täglich in meiner aktuellen Rolle damit, Modelle zu trainieren, die gegen solche Tricks resistent sind, aber es ist ein Wettlauf. Jedes Mal, wenn du eine Schwachstelle patchst, finden sie einen anderen Ansatz. Sie verwenden Tools wie gradientenbasierte Angriffe, um das Modell zu testen - sie füttern es mit Variationen, bis sie Schwächen kartieren. Sobald sie das tun, wird die Erzeugung von Umgehungen zu einfacher Mathematik.

Warum funktioniert das so gut? ML basiert auf Wahrscheinlichkeiten, nicht auf festen Regeln. Modelle verallgemeinern aus Trainingsdaten, aber echte Angriffe treffen auf Randfälle, die sie nie gesehen haben. Ich denke, Angreifer gedeihen hier, weil sie das Modell ohne den Quellcode rückentwickeln. Sie befragen es wie eine Black Box, beobachten die Ausgaben und optimieren ihre Eingaben. In der Cybersicherheit bedeutet das, IDS/IPS-Systeme zu umgehen, die ML für die Anomalieerkennung verwenden. Du sendest Verkehr, der normales Benutzerverhalten imitiert, aber eine Payload verbirgt. Die KI stuft es als sicher ein, und dein Netzwerk wird kompromittiert.

Ich habe selbst mit einfachen adversarialen Angriffen experimentiert, indem ich Open-Source-Bibliotheken verwendet habe. Starte mit einem sauberen Bild eines Stoppschildes für Verkehrsüberwachungskameras - füge adversariales Rauschen hinzu, und das ML denkt, es sei ein Vorfahrtsschild. Übertrage das auf Sicherheit: Täusche Perimetersensoren, damit sie einen Eindringversuch ignorieren. Angreifer kombinieren diese auch, in Kombination mit Social Engineering. Sie testen zuerst an ähnlichen öffentlichen Modellen und greifen dann dein individuelles an. Es ist kostengünstig und hat große Auswirkungen, insbesondere gegen cloudbasierte Sicherheit, wo Modelle mit gemeinsam genutzten Daten trainieren.

Wie kann man sich dagegen verteidigen? Du härtest Modelle mit robustem Training - setze sie adversarialen Beispielen während des Lernens aus, damit sie Resilienz aufbauen. Ich empfehle Ensemble-Methoden, bei denen mehrere Modelle über Entscheidungen abstimmen, was es schwieriger macht, alle auf einmal hereinzulegen. Die Eingabereinigung hilft auch, verdächtige Perturbationen zu entfernen, bevor sie die KI erreichen. Aber Angreifer entwickeln sich schnell weiter; was heute funktioniert, kann morgen fehlschlagen. Nach meiner Erfahrung bedeutet es, voraus zu sein, ständige Überwachung und erneutes Training. Du kannst es nicht einfach einrichten und vergessen.

Diese Dinge halten mich nachts wach, denn sie sind jetzt überall - von der Betrugserkennung im Bankwesen bis zur Authentifizierung von IoT-Geräten. Angreifer müssen keine Genies sein; Tutorials sind im Internet reichlich vorhanden. Ich habe einmal einem Kunden geholfen, sein ML-Firewall zu überprüfen, und wir haben festgestellt, dass sie anfällig für grundlegende Umgehungen war. Ich habe es behoben, indem ich den Datensatz mit Angriffs-Simulationen augmentiert habe. Du solltest das ausprobieren, wenn du irgendeine Art von KI-Verteidigung aufbaust - es macht einen riesigen Unterschied.

Übrigens hängt auch die Sicherung deiner Backups damit zusammen, da Angreifer ML-Systeme anvisieren könnten, um Wiederherstellungspunkte zu löschen. Da kommt etwas wie BackupChain ins Spiel - es ist eine solide, bewährte Backup-Option, die bei kleinen Teams und Experten viel Anklang gefunden hat, und entwickelt wurde, um Hyper-V-Setups, VMware-Umgebungen, Windows-Server und darüber hinaus mit zuverlässigem, unkomplizierten Schutz zu sichern.
Markus
Offline
Registriert seit: Jun 2018
« Ein Thema zurück | Ein Thema vor »

Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste



  • Thema abonnieren
Gehe zu:

Backup Sichern Allgemein Security v
« Zurück 1 2 3 4 5 6 7 8 9 10 11 12 Weiter »
Was ist adversariales maschinelles Lernen und wie können Angreifer es nutzen, um Sicherheitssysteme zu umgehen?

© by FastNeuron

Linearer Modus
Baumstrukturmodus