• 全部
  • 关注
  • 有问必答
  • 等你来答

排行榜

  • 用户榜
  • 标签榜
  • 冲榜分奖金

频道

  • 编程语言
  • 后端
  • Python
  • Java
  • 前端

活动

  • C站认证
  • 大咖来了
  • 悦读时间
最新最热悬赏待回答 筛选
  • 1

    回答

  • 9

    浏览

现在初学数据爬取软件Gooseeker,卡在了第一步。自己用的是mac电脑,安装需要购买付费(windows不用),不想买付费版本,是不是可以先安装windows虚拟机再下载软件?

回答 Fantasu_dan
采纳率0%
2021-09-22 13:32
  • 1

    回答

  • 19

    浏览

拿出来单独测试又可以提取,试了很多次好像是异步那里有问题可改来改去还是这样而且这个网站每个视频有的有iframe有的没有过段时间又有,本拿来练手感觉入坑了。。。 from lib2to3.pgen2

回答 qq_31573703
采纳率0%
2021-09-21 20:38
  • 2

    回答

  • 62

    浏览

content = div_tag.* 后面不管怎么用改一直都是这样。刚开始用的是text,但是一直提示乱码

  • 1

    回答

  • 8

    浏览

United States of America: WHO Coronavirus Disease (COVID-19) Dashboard With Vaccinat

回答 Lakersnewbee
采纳率0%
2021-09-21 12:36
  • 1

    回答

  • 16

    浏览

在自学爬虫,想尝试一下爬取小说网站,第一次成功了但发现是乱码。在查完资料之后发现网页是经过gzip压缩的,试了好多方法。但都会有问题。所以想请教一下大家这种gzip网页该怎么处理呢? for

回答 qq_50729264
采纳率66.7%
2021-09-20 21:07
  • 1

  • 27

    浏览

import pymongo import requests from lxml import etree import time import re headers = { 'User

回答 小清高class
采纳率100%
2021-09-19 15:55
  • 1

    回答

  • 9

    浏览

在用appium自动模拟抖音滑动视频时,为了避免页面尚未加载出来就进行滑动操作,在滑动前加了句time.sleep(10)来休眠10秒让抖音加载目标页面,但发现程序休眠了页面也停止了加载,直接显示搜索

回答 qq_46085559
采纳率0%
2021-09-19 14:38
  • 0

    回答

  • 9

    浏览

使用requests跟我云端的splash发送请求的时候,如何在里面加入代理ip?

回答 weixin_54686435
采纳率66.7%
2021-09-18 17:05
  • 1

  • 63

    浏览

批量爬取B站视频,已找到接口:接口中的参数:想知道包含这几个参数的JS文件是那个以及参数写法的文件在哪里找。已经卡了一个月了,希望各位有识之士能不吝赐教,不胜感激。

回答 m0_57965808
采纳率100%
2021-09-18 08:21
  • 2

  • 37

    浏览

html=''' <dd> <i class="board-index board-index-1">1</i>

回答 橙舟A
采纳率100%
2021-09-17 21:21
  • 2

  • 33

    浏览

我现在想将爬虫下来的数据存储到mysql中,想根据url来判断是否存在。如果存在就不插入,一开始数据量比较少还可以遍历查询,现在数据量大了,每次遍历查询都需要很久,这个能优化吗?减少我的sql查询时间

回答 weixin_54686435
采纳率66.7%
2021-09-17 15:40
  • 7

    回答

  • 121

    浏览

代码是直接复制粘贴教程的,查百度说要下载requests,但下完还是报错 ''' author:Kilter.wang time:2019/4/29 function:爬取笔趣阁的部分小说 '''

回答 屁儿擦爽a
采纳率95.5%
2021-09-17 01:46
  • 2

    回答

  • 22

    浏览

URL: https://www.cma-cgm.com/ebusin

回答 tim2046
采纳率66.7%
2021-09-15 17:25
  • 2

    回答

  • 43

    浏览

最近写爬虫,爬取微信小程序,发现有些小程序使用了wx.login方法返回code,该方法不需要参数,使用fiddler抓包也没有发现有网络请求。生成的 code 特点:长度固定32位,5分钟失效,不同

回答 wf13265
采纳率0%
2021-09-15 16:46
  • 2

  • 25

    浏览

刚刚学完bs4想试一下爬取网络小说,但试了好久都是那两个错误,实在找不到什么原因一个就是输出标签的时候中文乱码还有一个: File "", line 27, in <module>

回答 qq_50729264
采纳率66.7%
2021-09-15 13:49
  • 4

  • 42

    浏览

输出 "月入过万"用以下语句 得到的输出却是[ ]在网页中输入这条路径,定位到的却又是这条文本,为什么打印输出却是空的呢?

非一般的少年
采纳率100%
2021-09-14 11:27
  • 1

    回答

  • 26

    浏览

进行播放ppt的时候发现其中有ajax请求,但是内容就是ppt的一个个组件,怎么爬出整个ppt,站友有方法吗?

平芜尽处外。
采纳率81.8%
2021-09-14 10:59
  • 1

  • 23

    浏览

刚学爬虫,这是一段爬取的论文代码但是为什么储存的时候出现了问题?

m0_52213009
采纳率100%
2021-09-13 22:35
  • 1

    回答

  • 14

    浏览

基于python,利用webdriver.chorme,全程click方法,对NCBI网站进行批量操作,但进行了几次后便被反爬机制识别,设置了time.sleep()也不行。想请问各位,针对webdr

回答 东97
采纳率0%
2021-09-13 19:58
  • 1

  • 28

    浏览

练习用文本引用网址: 举报投诉电话邮箱大全 中央国务院各部委举报投诉电话邮箱国家信访局网站信访指南http: www gjxfj gov

迷茫中奋斗
采纳率100%
2021-09-13 15:23
  • 1

    回答

  • 7

    浏览

  • 2

  • 24

    浏览

爬取网页可以查看正常输出,但我用想获取更准确的内容时,并进行查看时,无法输出 代码如下 soup = BeautifulSoup(html,"html.parser") for item

wunerya
采纳率100%
2021-09-11 14:26
  • 1

    回答

  • 28

    浏览

通过selenium.webdriver的click方法,批量访问了NCBI上的目标基因序列,但爬了几个下来后就爬不了了,我知道是反爬虫机制生效,可怎么设置对抗反爬虫,恳请各位朋友解答🌹

回答 东97
采纳率0%
2021-09-10 20:39
  • 1

    回答

  • 15

    浏览

with open("top250.txt","w",encoding="gb2312") as f: for href in child_list: child_resp

回答 OooWee
采纳率62.5%
2021-09-09 16:37
  • 1

  • 31

    浏览

f.write(result3.group("movie")) f.write(result3.group("download"))

OooWee
采纳率62.5%
2021-09-09 16:20
  • 3

  • 25

    浏览

怎么爬取一个网站(qxb),发现被反爬了,因为网站必须登录之后才可以获取我想要的数据,结果网页解析还没写完,就发现爬取的内容成了乱序的乱码,我自己手动登录网站也是乱码的,刷新一下还变一次,后面了解这是

回答 m0_61589498
采纳率100%
2021-09-08 19:39
  • 2

  • 23

    浏览

本人小白用爬虫爬取辽宁省政府招标信息的代码如下: import requests import datetime agent = "Mozilla/5.0 (Windows NT 10.0; Win

Frozennnn
采纳率100%
2021-09-08 11:50
  • 2

  • 47

    浏览

import requests import re import os html = requests.get('https://www.kanunu8.com/book/5874/').conten

studier_li
采纳率100%
2021-09-08 07:35
  • 8

  • 265

    浏览

想跳过,抓包拦截修改试了不行,拦截请求改为常用设备id会弹出网络异常不知道是什么原因

z212123123
采纳率100%
2021-09-08 01:09