Unentdeckte Web-Scraping-Bots

Bots beherrschen das Internet

Bot

Akamai Technologies veröffentlicht einen neuen „State of the Internet“-Bericht. „Web-Scraper im E-Commerce: Die Gefahr für Ihr Geschäft“ beschreibt Sicherheitsrisiken und Geschäftsbedrohungen, denen Unternehmen durch die Verbreitung von Web-Scraping-Bots ausgesetzt sind.

Die Studie zeigt, dass Bots 42 Prozent des gesamten Webtraffics ausmachen, und dass 65 Prozent dieser Bots schädlich sind.

Anzeige

Der E-Commerce-Sektor ist am stärksten von riskantem Bot-Traffic betroffen. Das liegt an der Abhängigkeit dieses Sektors von umsatzgenerierenden Webanwendungen. Während einige Bots für Unternehmen von Vorteil sind, werden Web-Scraper-Bots für Informationsgewinnung über Mitbewerber und Spionage, Bestandsmanipulation, die Erstellung von gefälschten Websites und andere Kampagnen eingesetzt. Diese wirken sich negativ auf das Geschäft und das Kundenerlebnis aus. Es gibt keine Gesetze, die die Verwendung von Scraper-Bots verbieten. Aufgrund der Zunahme von KI-Botnets sind sie nur schwer zu erkennen. Trotzdem gibt es einige Möglichkeiten damit umzugehen.

Wichtige Erkenntnisse aus dem Bericht:

  • KI-Botnets können unstrukturierte Daten und Inhalte in einem weniger konsistenten Format oder an einem weniger konsistenten Ort erkennen und verarbeiten. Darüber hinaus können sie mithilfe von Geschäftsinformationen den Entscheidungsfindungsprozess durch Erfassen, Extrahieren und die anschließende Verarbeitung von Daten verbessern.
  • Mit Scraper-Bots können Angreifer zudem komplexere Phishing-Kampagnen generieren. Dazu erfassen sie Produktbilder, Beschreibungen und Preisinformationen und erstellen gefälschte Schaufenster oder Phishing-Websites. Diese zielen darauf ab, Anmeldedaten oder Kreditkarteninformationen zu stehlen.
  • Bots können eingesetzt werden, um die missbräuchliche Erstellung von Konten zu erleichtern. Dies macht nach aktuellen Untersuchungen bis zu 50 Prozent der Verluste durch Betrug aus.
  • Es gibt vielfältige technische Auswirkungen, denen Unternehmen durch Scraping ausgesetzt sind – unabhängig davon, ob das Scraping mit schädlichen oder guten Absichten durchgeführt wurde. Dazu gehören eine Verschlechterung der Website-Performance, eine Verwässerung der Website-Metriken, Angriffe mit kompromittierten Anmeldedaten von Phishing-Websites, erhöhte Rechenkosten und vieles mehr.

Der aktuelle SOTI von Akamai zeigt Abwehrstrategien gegen Scraper-Bots auf und enthält eine Fallstudie, die erklärt, weshalb Websites schneller und effizienter funktionieren, sobald Abwehrmechanismen gegen diese Bots implementiert wurden. Darüber hinaus behandelt die Studie Compliance-Themen, die angesichts dieser zunehmenden Angriffe zu berücksichtigen sind.

(ds/Akamai)

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.