Chainguys 2021-08-16 17:14 采纳率: 95.7%
浏览 48
已结题

哪里错了,为什么抓不出url?


from selenium import webdriver
from lxml import etree
from bs4 import BeautifulSoup
import time
import pandas as pd

urls = ["https://solana.com/ecosystem"]

wd = webdriver.Chrome()
wd.get(urls[0])

time.sleep(30)

resp =wd.page_source
html = BeautifulSoup(resp,"lxml")
temp = html.find_all("div", class_="link-unstyled d-inline-block")
urls=[]
for i in temp:
    url = i['href']
    print(url)
    urls.append(url)
print(urls)
  • 写回答

2条回答

      报告相同问题?

      相关推荐 更多相似问题

      问题事件

      • 系统已结题 8月31日
      • 已采纳回答 8月23日
      • 创建了问题 8月16日

      悬赏问题

      • ¥15 使用DWY100k数据集对UEA进行测试,出现报错:IndexError: index 125000 is out of bounds for axis 0 with size 95500
      • ¥15 前端vue实现根据图片url生成pdf文件
      • ¥15 RfidReader资源Q个
      • ¥20 user-agent是否是唯一的,有没有可能相同
      • ¥15 关于#开会#的问题,如何解决?(语言-c++)
      • ¥15 关于#二十四点问题#的问题
      • ¥15 运行kitex的demon出错(求大家解决)
      • ¥15 开发一个类似 typora 这样的软件需要多少钱?
      • ¥15 clearcase7.0安装包
      • ¥15 断点回归模型月度核密度检验不连续