宝塔服务器内某个网站的robots文件被篡改,在对应网站的文件夹内无法找到robots文件,宝塔关闭网站,被篡改的robots文件竟然依然能被访问
我们的公司使用的是宝塔服务器
假设我们公司出问题的网站域名为:xxx.yyyyy.com
在谷歌搜索:site:xxx.yyyyy.com
发现results竟然只有4条(原本有上千条)
然后我们发现网站的robots.txt被篡改了(对应网址:https://xxx.yyyyy.com/robots.txt)
但是我在宝塔对应的网站文件夹目录里面,没有找到这个robots.txt这个文件。
上传一个我自己写的robots.txt,然后再使用https://xxx.yyyyy.com/robots.txt 这个地址,显示的依然是被篡改的信息。
在宝塔关闭了这个网站,然后访问“https://xxx.yyyyy.com/”这个域名,网站已经无法显示了。
但是在这种情况下访问“https://xxx.yyyyy.com/robots.txt”,被篡改的robots信息竟然依然能够显示。
该如何解决这个问题