Akamai hat die Veröffentlichung von Content Protector bekannt gegeben. Die Lösung, wehrt Scraping-Angriffe ab, ohne guten Traffic zu blockieren, den Unternehmen für ihr Business benötigen.
Scraper-Bots sind ein wichtiger und oft produktiver Teil des Handelsökosystems. Die Bots suchen nach neuen Inhalten, markieren Produkte auf Vergleichsseiten und sammeln aktualisierte Produktinformationen zur Weitergabe an Kunden. Leider werden Scraper auch für schädliche Zwecke eingesetzt, wie das Erlangen von Wettbewerbsvorteilen durch Preisunterbietung, die Überwachung zur Vorbereitung auf Inventory-Hoarding-Angriffe und das Fälschen von Waren oder Websites. Scraper pingen Websites zudem rund um die Uhr an, wenn sie nicht gestoppt werden. Dadurch können sie die Performance einer Website beeinträchtigen. Dies wiederum frustriert die Verbraucher und führt dazu, dass sie die Seite verlassen. Darüber hinaus sind Scraper in den letzten Jahren raffinierter geworden und treten mit zunehmend besserer Tarnung auf.
Akamai Content Protector unterstützt Websitenbetreiber dabei, auch die am besten getarnten Scraper zu erkennen und abzuwehren, wenn diese das Ziel verfolgen, Inhalte für böswillige Zwecke zu stehlen. Die Lösung sorgt für eine verbesserte Websiteperformance, Verbesserungen beim Nutzererlebnis und beim Schutz geistigen Eigentums. Sie ermöglicht gleichzeitig eine deutlich bessere Erkennung bei weniger False Negatives, ohne die Zahl der False Positives zu erhöhen. Das Produkt wurde für Unternehmen entwickelt, die ihre Reputation und ihr Umsatzpotenzial schützen müssen, und bietet unter anderem folgende individuelle Erkennungsmechanismen:
- Bewertung auf Protokollebene: Per Protokoll-Fingerprinting wird überprüft, wie sich Besucher mit der Website verbinden. So wird sichergestellt, dass sie legitim sind. Es bewertet, wie der Client die Verbindung zum Server auf den verschiedenen Ebenen des OSI-Modells (Open Systems Interconnection) herstellt. Dabei wird überprüft, ob die vereinbarten Parameter mit denen übereinstimmen, die von den gängigsten Webbrowsern und mobilen Anwendungen erwartet werden.
- Bewertung auf Anwendungsebene: Die Lösung beurteilt, ob der Client eine in JavaScript geschriebene Geschäftslogik ausführen kann. Wenn der Client JavaScript ausführt, erfasst Content Protectordie Geräte- und Browsereigenschaften sowie Nutzereinstellungen. Diese verschiedenen Datenpunkte werden verglichen und zur Überprüfung der Konsistenz mit den Daten auf Protokollebene referenziert.
- Nutzerinteraktion: Die Lösung analysiert Nutzerinteraktionen, um zwischen menschlichem und Bot-Traffic zu unterscheiden. Dabei wird bewertet, wie Nutzer mit Geräten wie Touchscreens, Tastaturen und Mäusen interagieren. Bots werden durch mangelnde Interaktion oder ungewöhnliche Nutzungsmuster identifiziert.
- Nutzerverhalten: Content Protector überwacht das Besucherverhalten auf Ihrer Website, um ungewöhnliche Muster zu identifizieren, die auf Bots hinweisen.
- Risikoklassifizierung: Das Produkt bietet eine deterministische und umsetzbare Traffic-Klassifizierung mit niedrigem, mittlerem oder hohem Risiko, die auf den bei der Bewertung festgestellten Anomalien basiert.
www.akamai.com/de