Chainguys 2021-08-16 17:14 采纳率: 93.6%
浏览 48
已结题

哪里错了,为什么抓不出url?


from selenium import webdriver
from lxml import etree
from bs4 import BeautifulSoup
import time
import pandas as pd

urls = ["https://solana.com/ecosystem"]

wd = webdriver.Chrome()
wd.get(urls[0])

time.sleep(30)

resp =wd.page_source
html = BeautifulSoup(resp,"lxml")
temp = html.find_all("div", class_="link-unstyled d-inline-block")
urls=[]
for i in temp:
    url = i['href']
    print(url)
    urls.append(url)
print(urls)
  • 写回答

2条回答 默认 最新

  • 江天暮雪丨 2021-08-16 17:45
    关注

    首先你这个网站似乎是需要开国外代理才能访问到的,然后我查了一下,class_="link-unstyled d-inline-block" 有这个样式的是a标签而不是div。
    因此,应该是

    temp = html.find_all("a", class_="link-unstyled d-inline-block")
    
    
    
    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 系统已结题 8月31日
  • 已采纳回答 8月23日
  • 创建了问题 8月16日

悬赏问题

  • ¥15 公交车和无人机协同运输
  • ¥15 stm32代码移植没反应
  • ¥15 matlab基于pde算法图像修复,为什么只能对示例图像有效
  • ¥100 连续两帧图像高速减法
  • ¥15 组策略中的计算机配置策略无法下发
  • ¥15 如何绘制动力学系统的相图
  • ¥15 对接wps接口实现获取元数据
  • ¥20 给自己本科IT专业毕业的妹m找个实习工作
  • ¥15 用友U8:向一个无法连接的网络尝试了一个套接字操作,如何解决?
  • ¥30 我的代码按理说完成了模型的搭建、训练、验证测试等工作(标签-网络|关键词-变化检测)