from selenium import webdriver
from lxml import etree
from bs4 import BeautifulSoup
import time
import pandas as pd
urls = ["https://solana.com/ecosystem"]
wd = webdriver.Chrome()
wd.get(urls[0])
time.sleep(30)
resp =wd.page_source
html = BeautifulSoup(resp,"lxml")
temp = html.find_all("div", class_="link-unstyled d-inline-block")
urls=[]
for i in temp:
url = i['href']
print(url)
urls.append(url)
print(urls)
哪里错了,为什么抓不出url?
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
2条回答
相关推荐 更多相似问题
点击登录
提问题
悬赏问题
- ¥15 使用DWY100k数据集对UEA进行测试,出现报错:IndexError: index 125000 is out of bounds for axis 0 with size 95500
- ¥15 前端vue实现根据图片url生成pdf文件
- ¥15 RfidReader资源Q个
- ¥20 user-agent是否是唯一的,有没有可能相同
- ¥15 关于#开会#的问题,如何解决?(语言-c++)
- ¥15 关于#二十四点问题#的问题
- ¥15 运行kitex的demon出错(求大家解决)
- ¥15 开发一个类似 typora 这样的软件需要多少钱?
- ¥15 clearcase7.0安装包
- ¥15 断点回归模型月度核密度检验不连续