
解決辦法:
1、后臺打上最新的補丁文件,有更新的點更新一下。
2、處理robots.txt 文件,禁止收錄,修改如下:
User-agent: *
Disallow: /admin/*
Disallow: /skin/
Disallow: /template/
Disallow: /static/*
Disallow: /api/*
Disallow: /?*
Disallow: /app*/
Disallow: /app

???????如果長期內robots無法生效,可嘗試將收錄的鏈接提交給百度刪除。
【網站聲明】本站部分內容來源于互聯網,旨在幫助大家更快的解決問題,如果有圖片或者內容侵犯了您的權益,請聯系我們刪除處理,感謝您的支持!