• 全部
  • 关注
  • 有问必答
  • 等你来答

排行榜

  • 用户榜
  • 标签榜
  • 冲榜分奖金

频道

  • 编程语言
  • 后端
  • Python
  • Java
  • 前端
最新最热精华悬赏待回答 筛选
  • 0

    回答

其他类型有网络能抓到抖音无网络,手机ios系统求大佬指点一二

  • 2

    回答

本来我是打算得到十个最火的图片 但是在加粗的地方出现了问题,得到的是空的数组(大概),我不太清楚应该怎么改,欢迎各位指正 def main(): baseurl = "https://stoc

回答 dmc2003040
采纳率0%
  • 2

    回答

需求:深圳证监会政府公开页面http://www.csrc.gov.cn/shenzhen/ ... gk.shtml?tab=zdgkml爬取主动公开目录-证监局文种体裁-行政监管措施的842条数据

  • 6

    回答

需要对一个搜索网站进行批量搜索,要求是shell脚本或者python脚本搜索网站:https://blast.ncbi.nlm.nih.gov/Blast.cgi?PROGRAM=tblastn&PA

回答 bigben446
采纳率33.3%
  • 1

    回答

问题遇到的现象和发生背景 问题相关代码,请勿粘贴截图 运行结果及报错内容 我的解答思路和尝试过的方法 我想要达到的结果 import requests import re import os if

回答 阳54
采纳率100%
  • 1

我这样写的方式有错误吗?,该填的参数都填了,不知道为什么会报这个错误。 def get_admin_sanction(self): url = 'https://credi

回答 a971386334
采纳率100%
  • 2

我在爬虫的时候遇到了这样的乱码,太原本应该是中文 来看看这个是什么意思他出现的乱码都是些 \u5361 \u5206 的?

回答 刘锦城ljc
采纳率100%
  • 2

    回答

问题遇到的现象和发生背景 本人出于兴趣开始了python的相关学习,在跟着网课学习爬虫的过程遇到了一些问题 问题相关代码,请勿粘贴截图 def get_text(url):...if r =

回答 D244700
采纳率0%
  • 1

    回答

问题遇到的现象和发生背景 在使用selenium模拟登录12306时,滑块一枝滑动验证失败 问题相关代码,请勿粘贴截图 import time from selenium import webdriv

  • 2

import requests import json if __name__ == '__main__' : start_url = 'http://scxk.nmpa.gov.cn:81

回答 阳54
采纳率100%
  • 1

    回答

问题遇到的现象和发生背景 我通过requests和etree得到了一个图片的url列表,然后我把列表里的每一个值都放到我创建的队列里面去然后我写一个download方法,这个download方法就负责

回答 Unjx.
采纳率88%
  • 0

    回答

我正在通过浏览器的f12功能下载m3u8和key文件,再使用python进行解析。但是挨个视频获取这两类文件的过程效率太低,在python中可以使用什么方式或者什么库获取它们? 我对Requests

  • 1

    回答

问题遇到的现象和发生背景 学习python执行爬虫代码 问题相关代码,请勿粘贴截图 import urllib.request import re # 请求头信息,字段名:字段值 格式:heade

回答 yaoyifan22
采纳率0%
  • 0

    回答

import urllib.request import re # 请求头信息,字段名:字段值 格式:header = {"user-agent",具体用户代理值} headers = {"Us

回答 yaoyifan22
采纳率0%
  • 1

    回答

问题遇到的现象和发生背景 def main(ID, pages): global movie_name for i in tqdm(range(0, pages)): # 豆瓣只开放500条评论

  • 1

已经添加请求头了 httpGet.setHeader("User-Agent","Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.

回答 球进了
采纳率66.7%
  • 0

    回答

每次scrapy框架爬虫结束以后,都会有如下显示,请问这些产生的结束数据,都代表了什么意思?请各位CSDN论坛大咖解释一下。

回答 m0_56550331
采纳率0%
  • 1

    回答

print("开始执行") op = webdriver.Chrome(r'C:\Program Files\Google\Chrome\Application\chromedriver.exe')

回答 m0_63430316
采纳率0%
  • 1

    回答

下面的数据是不对的,mvdate也就是上映日期,有些电影他没有写上映日期,我需要让所有数据的对应索引是一样的,但是现在如果他找不到对应的元素值,仍然继续写入,这样的话,数据顺序是错误的,到后面会报索引

GAO_A
采纳率66.7%
  • 1

    回答

命令行运行pyspider all时,出现报错C:\Users\lenovo>pyspider allf:\anaconda\lib\site-packages\pyspider\libs\ut

回答 zxx3Z
采纳率0%
  • 3

这个出来的结果是None,想知道怎么回事,就是简单的爬取一个页面的评论

回答 m0_61488091
采纳率100%
  • 0

    回答

爬取大众点评:北京美食,按人气排名,要有团购的店铺;要店铺名字,星级,人均,地址,团购菜和团购价格,只要120个就可以

  • 2

以前打开过的网页,会有js_r['model']['in']属性 ,没手动打开过得js_r['model']是空的。下图是打开手动网页看到的。没点开过的用爬虫获取发现都是空的,这种怎么办? 网址:ht

sinat_39294068
采纳率100%
  • 1

    回答

###### 问题遇到的现象和发生背景 ef start_requests(self): login_url = 'https://antispider7.scrape.center/

回答 王太歌
采纳率0%
  • 4

这是我的Chrome版本和Chromedriver版本 这是我的代码,能打开浏览器,但是报错 运行之后就在报错

回答 . 終末
采纳率100%
  • 2

用夜神模拟器安装贝壳找房app 然后用charls抓包 只能抓到一些图片 模拟器是Android7 64位本来想换Android5试一下 结果这app只能在64上装 ,有抓过贝壳app的知道怎么弄吗

回答 杉杉锅锅
采纳率100%
  • 2

    回答

正常都是填完参数后就能进行网页获取但是如果我想把该网页的url也保存下来,如果不填参数全填url的话,url会显得很臃肿而且代码也不好看,能不能提取出正在获取的网页的url呢

回答 a971386334
采纳率100%
  • 1

    回答

每次都要修改代码里的这个cookie才能继续执行程序,应该是登录这个网页是进行了重定向,然后有没有一个好的方法可以解决这个问题,或者是我怎么去获取网页登录之后GET包里面的cookie

  • 1

问题遇到的现象和发生背景 爬到第二页就提示没有获得元素,第一页都是可以获取的,是怎么回事呢 问题相关代码,请勿粘贴截图 import time from selenium import webdriv

回答 binggo6656
采纳率71.4%
  • 1

    回答

大家都知道爬虫抓取网页元素,利用正则匹配规则截取想要的数据,例如我用scrapy,但是它不具备JS渲染,所以我加上了Splash,但真正的困难来了,网页其它都没问题,这些在抓取常规网站是完全没问题的,

回答 SiriBen
采纳率0%