有很多恶意机器人喜欢扫描别人的服务器,喜欢扫描端口想对入侵服务器,通过改变默认端口和BasicAuth认证,可以有效防止机器人扫描,文件也是很多恶意机器人爱扫描的,这些机器人喜欢把这些文件下下来,给那些恶意的人使用,通过添加Nginx规则,重写文件定向,让机器人下载超大文件,撑爆这个该死的机器人。
rewrite \.asp/?$ http://speedtest.tele2.net/1000GB.zip permanent; rewrite \.zip/?$ http://speedtest.tele2.net/1000GB.zip permanent; rewrite \.gz/?$ http://speedtest.tele2.net/1000GB.zip permanent; rewrite \.7z/?$ http://speedtest.tele2.net/1000GB.zip permanent; rewrite \.sql/?$ http://speedtest.tele2.net/1000GB.zip permanent; rewrite \.rar/?$ http://speedtest.tele2.net/1000GB.zip permanent; rewrite \.tar/?$ http://speedtest.tele2.net/1000GB.zip permanent;
上面的代码是当访问网站上.asp/zip/gz/7z/sql/rar/tar格式的文件,就自动跳访问一个1000G大小的zip链接。让他自己去爬吧。把这些规则写在网站的Nginx配置文件里就行,让这些该死的机器人撑爆吧。
暂无评论