信息安全研究公司Sucuri發現據一些網站站長反應,他們在清理被垃圾式感染的網站(Spam-Infected Website)垃圾文件后,谷歌的網頁抓取機器人Googlebot有時候會誤對其發動DDoS攻擊。Sucuri正在討論如何應對此問題,并警告和敦促網站站長在進行網頁文件的垃圾信息清理之前,需要對其站點管理工具Google Search Console進行合理的設置,以免遭到Googlebot的DDos攻擊。
Sucuri員工發現最近的一起大規模垃圾信息活動感染了許多網站,并且留下了大量垃圾網頁文件。這些文件會讓用戶重定位至危險站點,在被感染的站點攻擊者會在多個目錄中留下數以萬計的垃圾文件,這些垃圾網頁文件會互相鏈接至其他被感染的網頁。惡性地提高SEO排名,讓谷歌搜索結果靠前。
當站長發現服務器被感染之后,站長們需要注意遵循一定的步驟刪除垃圾文件,而非一次性刪除。不然會造成以下兩種負面影響:
首先,一次性不當刪除全部垃圾文件會導致網站的谷歌排名快速驟降,由于不當刪除產生了大量404無法訪問的頁面。
其次,如果之前未在站點管理工具Google Search Console進行合理的設置就進行垃圾文件的清理,在某些情況下這個清理行為會導致谷歌的網頁抓取機器人Googlebot對其發動DDoS攻擊。