流之星 @ 2019-04-06 22:32 采纳率: 0%
浏览 709

为什么用爬虫登陆网站时出现Forbidden, Please turn off CC?

初学爬虫,想要登陆一个网站,可是总是出现这个情况,啊啊啊,弄了好久了,感jio要爆炸了,求救求救
图片说明

代码如下

import requests
data = {'pwuser':'**', 'pwpwd':'**'}
r = requests.post("http://www.sulanfund.com/bbs/login.php?", data=data)
print(r.text)

不知道怎么回事,去百度也找不到,求救~~~~~

  • 写回答

2条回答 默认 最新

  • threenewbee 2019-04-06 23:51
    关注

    对照浏览器的抓包结果看下,特别注意user-agent、cookie是否正确。如果浏览器也不行了,那么就是服务器有反爬的限制。

    评论

报告相同问题?

悬赏问题

  • ¥15 ubuntu子系统密码忘记
  • ¥15 信号傅里叶变换在matlab上遇到的小问题请求帮助
  • ¥15 保护模式-系统加载-段寄存器
  • ¥15 电脑桌面设定一个区域禁止鼠标操作
  • ¥15 求NPF226060磁芯的详细资料
  • ¥15 使用R语言marginaleffects包进行边际效应图绘制
  • ¥20 usb设备兼容性问题
  • ¥15 错误(10048): “调用exui内部功能”库命令的参数“参数4”不能接受空数据。怎么解决啊
  • ¥15 安装svn网络有问题怎么办
  • ¥15 vue2登录调用后端接口如何实现