python+selenium如何抓取diplay:none的标签内容? 10C

图片说明
如图 我抓取到的页面里面由于这几个标签是displaynone 导致抓不到 代码如下
from selenium import webdriver
url = "http://t.shuqi.com/#!/ct/read/bid/6584515/cid/639384"
driver = webdriver.PhantomJS(executable_path='G:/phantomjs/bin/phantomjs.exe')
driver.get(url)
js = 'document.getElementsByClassName("read-body")[0].getElementsByTagName("div")[3].style.display="block";'
driver.execute_script(js)
contentText = driver.find_element_by_id('read_in').text

w = open('G:/python/pytxt/dynamic/1.txt','w')
w.write(contentText)
driver.quit()

3个回答

对了 上面那个js 数组里面的两个 【3】 都改成0 其实主要是我抓的话 那4个div都是displaynone所以不显示 而这个由于浏览器的原因显示了两个

正则表达式
/

((.*?))*/

正则表达式

 /<div.*?class="read-body".*?>(<div.*?height:733px.*?>(.*?)</div>)*</div>/
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
python+selenium如何抓取diplay:none的标签内容?
![图片说明](https://img-ask.csdn.net/upload/201711/23/1511436782_235289.png) 如图 我抓取到的页面里面由于这几个标签是displaynone 导致抓不到 代码如下 from selenium import webdriver url = "http://t.shuqi.com/#!/ct/read/bid/6584515/cid/639384" driver = webdriver.PhantomJS(executable_path='G:/phantomjs/bin/phantomjs.exe') driver.get(url) js = 'document.getElementsByClassName("read-body")[0].getElementsByTagName("div")[3].style.display="block";' driver.execute_script(js) contentText = driver.find_element_by_id('read_in').text w = open('G:/python/pytxt/dynamic/1.txt','w') w.write(contentText) driver.quit()
Python selenium自动化定位不到元素,该如何解决?
Python selenium自动化定位不到元素,该如何解决?
Python selenium 中如何使用 JavaScript 直接选择下拉框的某个选项呢?
有这样一段代码下拉框,选择分类: ``` <div class="widgets-selects direction-horizontal"> <div class="widgets-selects_container">选择分类<i class=""></i></div> <div class="widgets-selects_select_container" style="display: none;"> <a href="javascript:;" class="">社会</a> <a href="javascript:;" class="">国内</a> <a href="javascript:;" class="">国际</a> <a href="javascript:;" class="">体育</a> <a href="javascript:;" class="">科技</a> <a href="javascript:;" class="">娱乐</a> <a href="javascript:;" class="">军事</a> </div> </div> </div> ``` 选择了第一个分类“社会”后,代码变成了这样: ``` <div class="widgets-selects direction-horizontal"> <div class="widgets-selects_container" data-spm-anchor-id="a2s0i.db_video_write.content.i2.4a603caaqY4ZC8">社会<i class=""></i></div> <div class="widgets-selects_select_container" style="display: none;"> <a href="javascript:;" class="selected" data-spm-anchor-id="a2s0i.db_video_write.content.6">社会</a> <a href="javascript:;" class="" data-spm-anchor-id="a2s0i.db_video_write.content.7">国内</a> <a href="javascript:;" class="" data-spm-anchor-id="a2s0i.db_video_write.content.8">国际</a> <a href="javascript:;" class="" data-spm-anchor-id="a2s0i.db_video_write.content.9">体育</a> <a href="javascript:;" class="" data-spm-anchor-id="a2s0i.db_video_write.content.10">科技</a> <a href="javascript:;" class="" data-spm-anchor-id="a2s0i.db_video_write.content.11">娱乐</a> <a href="javascript:;" class="" data-spm-anchor-id="a2s0i.db_video_write.content.12">军事</a> </div> </div> </div> ``` 之前我用python selenium的操作是用click()命令点击一下“选择分类”,弹出下拉框,再在其中click()点击选择某个分类。 但我很希望能在python中用driver.execute_script()命令直接调用JavaScript实现选择某分类,可惜弄了半天也没琢磨出来,望大神来帮帮我呀,感激不尽。
如何利用python selenium 判断某个网页是否加载完毕
1、个人想利用python selenium(webdriver) 去拨测一些域名,域名不同,然后将这些域名返回的网页完全加载出来,再进行截图。 2、现在是利用selenium自动化访问无法判断每个页面是否完全加载出来,因为不同网页的元素与标签都不尽相同;若用“显示等待”发现这个条件个人设置不好,因为不是判断加载指定的一个元素。 例如:显示等待导入类如下 from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC 问题:现在就是想知道用这种方面如何判断将页面完全加载出来,谢谢! 利如百度、知乎、360域名等等
python+selenium自动化,怎么获取到网页提示的元素???
python+selenium自动化,怎么获取到网页提示的元素???
python selenium获取标签属性的部份如何实现呢
目标网站 http://www.gov-cg.org.cn/LuceneSearch.aspx?kwd=&filter=b-0-0-keyword-30 点击到第二页 用selenium chrome 模拟点击 下一页 已知标签名 a href="javascript:_doPost('2')">下一页</a selenium获取标签属性的部份如何实现呢
python selenium与js 的数据交互问题
通过selenium的executeScrpit()可以执行js代码, 我用js代码获取数据后把它存到cookie中,然后通过python再获取cookie的值,但是值取不到,也不打印,但是也没有报错,代码如下,请高手指点一下,谢谢! 用python获取cookie的代码如下: ![图片说明](https://img-ask.csdn.net/upload/201804/13/1523606717_614291.png) ``` #!/usr/bin/env python # -*- coding: utf-8 -*- from selenium import webdriver import time import urllib import http.cookiejar import requests from urllib import request from http import cookiejar def capture(url, save_fn="capture.png"): browser = webdriver.Chrome() # Get local session of firefox browser.set_window_size(1200, 900) browser.get(url) # Load page browser.execute_script(""" (function () { var y = 0; var step = 100; window.scroll(0, 0); var height = document.body.scrollHeight; document.cookie = "scrollHeight="+height; function f() { if (y < document.body.scrollHeight) { y += step; window.scroll(0, y); setTimeout(f, 50); } else { window.scroll(0, 0); document.title += "scroll-done"; } } setTimeout(f, 1000); })(); """) for i in range(30): if "scroll-done" in browser.title: break time.sleep(1) cookie = cookiejar.CookieJar() #利用urllib.request库的HTTPCookieProcessor对象来创建cookie处理器,也就CookieHandler handler=request.HTTPCookieProcessor(cookie) #通过CookieHandler创建opener opener = request.build_opener(handler) #此处的open方法打开网页 #response = opener.open('http://www.jb51.net') #打印cookie信息 for item in cookie: print('Name = %s' % item.name) print('Value = %s' % item.value) browser.save_screenshot(save_fn) browser.close() if __name__ == "__main__": capture("http://www.jb51.net") ```
python 安装selenium出现错误
**以下为报错内容_**_ C:\Python27\lib\site-packages\pip-7.1.2-py2.7.egg\pip\_vendor\requests\packages\urllib3\util\ssl_.py:90: InsecurePlatformWarning: A true SSLContext object is not available. This prevents urllib3 from configuring SSL appropriately and may cause certain SSL connections to fail. For more information, see https://urllib3.readthedocs.org/en/latest/security.html#insecureplatformwarning. InsecurePlatformWarning C:\Python27\lib\site-packages\pip-7.1.2-py2.7.egg\pip\_vendor\requests\packages\urllib3\util\ssl_.py:90: InsecurePlatformWarning: A true SSLContext object is not available. This prevents urllib3 from configuring SSL appropriately and may cause certain SSL connections to fail. For more information, see https://urllib3.readthedocs.org/en/latest/security.html#insecureplatformwarning. InsecurePlatformWarning Could not find a version that satisfies the requirement selenium (from versions: ) No matching distribution found for selenium C:\Python27\lib\site-packages\pip-7.1.2-py2.7.egg\pip\_vendor\requests\packages\urllib3\util\ssl_.py:90: InsecurePlatformWarning: A true SSLContext object is not available. This prevents urllib3 from configuring SSL appropriately and may cause certain SSL connections to fail. For more information, see https://urllib3.readthedocs.org/en/latest/security.html#insecureplatformwarning. InsecurePlatformWarning
想利用Python selenium 获取某个标签的文本值,但是为什么返回结果不是?求帮助,谢谢
想利用Python selenium 获取某个标签的文本值,但是为什么返回结果不是? 代码如下: page = WebDriverWait(browser, 10).until(EC.presence_of_element_located((By.CSS_SELECTOR, '#pageid2 > table > tbody > tr > td:nth-child(3) > a.current'))) print(page.text) 请见截图:想获取 11839 这个值,为什么返回结果是 1 ![图片说明](https://img-ask.csdn.net/upload/201904/27/1556372469_33324.jpg) 进度:知道为什么返回是1 了,但是还是不知如何提取 11839 这个值, 返回 1 的原因: page1 = browser.find_element_by_class_name('current').get_attribute('innerHTML') print(page1) ![图片说明](https://img-ask.csdn.net/upload/201904/28/1556382192_796077.jpg)
python selenium 如何获取网页页面所有可以点击的元素
如果selenium 满足不了,那有什么方法可以获取页面上所有可以点击的元素,比如说:广告 、导航、也就是说只要这个页面可以点击的,我都要获取到,我应该如何操作或者有没有什么学习文档。有大佬可以指点下吗 ?感谢!!! 就拿百度首页这个页面做例子,比如说百度首页所有可以点击的元素。
Python selenium Firefox 模拟F5按键无效
版本:python3.7 ``` # -*- utf-8 -*- """ 测试一些浏览器的模拟点击事件 """ import requests from selenium import webdriver from selenium.webdriver.common.action_chains import ActionChains from selenium.webdriver.common.keys import Keys import time print("启动浏览器") driver = webdriver.Firefox() driver.get("https://cn.bing.com") time.sleep(10) print('准备按键') driver.find_element_by_id('sb_form_q').send_keys('selenium') time.sleep(2) driver.find_element_by_id('sb_form_q').send_keys(Keys.CONTROL,'a') time.sleep(2) driver.find_element_by_id('sb_form_q').send_keys(Keys.CONTROL,'x') action = ActionChains(driver) # driver.find_element_by_class_name('article-title-box').key_down(Keys.F5).perform() action.key_down(Keys.F12).key_up(Keys.F12).perform() print('已经按键') time.sleep(10) print('准备按键1') action = ActionChains(driver) action.key_down(Keys.F5).perform() print('已经按键1') ``` 使用Ctrl+a Ctrl+x 都是有用的。就使用按键无效
python selenium,初学,打开Firefox后就没有反应了,这个是为什么?
代码: # coding = utf-8 from selenium import webdriver browser = webdriver.Firefox() browser.get("http://www.baidu.com") browser.find_element_by_id("kw").send_keys("selenium") browser.find_element_by_id("su").click() browser.quit() 报错: C:\Users\Administrator\AppData\Local\Programs\Python\Python35\python.exe C:/Users/Administrator/PycharmProjects/untitled/webtest/test_1.py Traceback (most recent call last): File "C:/Users/Administrator/PycharmProjects/untitled/webtest/test_1.py", line 3, in <module> browser = webdriver.Firefox() File "C:\Users\Administrator\AppData\Local\Programs\Python\Python35\lib\site-packages\selenium\webdriver\firefox\webdriver.py", line 154, in __init__ keep_alive=True) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python35\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 140, in __init__ self.start_session(desired_capabilities, browser_profile) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python35\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 229, in start_session response = self.execute(Command.NEW_SESSION, parameters) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python35\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 297, in execute self.error_handler.check_response(response) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python35\lib\site-packages\selenium\webdriver\remote\errorhandler.py", line 194, in check_response raise exception_class(message, screen, stacktrace) selenium.common.exceptions.WebDriverException: Message: connection refused
python中如何抓取动态页面的表格里的内容
比如这个网址http://gs.amac.org.cn/amac-infodisc/res/pof/manager/index.html 我想拿到对应表格里面公司点进去之后的URL。。。 用了bs4和parse什么的去做,结果爬下来的页面只是框架,不含表格里的内容的 结果我post去做,不知道如何返回这些表格的内容,在chrome的network分析里面看到的就是在response里的content的内容,这是我想要的,好难啊 或者大神们教我用selenium来模拟点击下一页什么的。。。
python selenium 3调用firefox浏览器获取所有静态资源文件链接
我见过一篇讲谷歌浏览器的文章: [python3+selenium获取页面加载的所有静态资源文件链接](https://blog.csdn.net/qq_32201423/article/details/91419523 "") 但这是谷歌浏览器的,我用的是火狐浏览器,怎么才能用火狐浏览器获取所有静态资源文件链接呢?求大神帮帮我!感谢!
python selenium 调用class Login(Page)和class Insure(Page),如何共用窗口呢?
python selenium 在def start里调用class Login(Page)和class Insure(Page),Login打开了一个窗口,到了Insure也打开了一个窗口,咋样呢才能让Insure继续使用Login已经打开得窗口呢? 谢谢各位大佬解答问题。
Python selenium —— 文件下载,设置不弹出窗口以及设置指定路径 —失败
如题:本人依照了标题为 “Python selenium —— 文件下载,不弹出窗口,直接下载到指定路径” 一文 ,学习如何 设置下载不弹窗,然而结果无效 测试的url :'http://sahitest.com/demo/saveAs.htm' 程序代码如下: ![图片说明](https://img-ask.csdn.net/upload/201908/20/1566311417_998337.png) 代码没有报错,然而运行代码时,下载文件的窗口依旧弹出,如下图所示: ![图片说明](https://img-ask.csdn.net/upload/201908/20/1566311539_611595.png) 求大虾指导,为什么设置了下载不弹窗以及下载路径后,结果不生效,也不报错,问题出在哪里?
python 加 selenium 测试自动化 怎么抓取即时更新的元素
![图片说明](https://img-ask.csdn.net/upload/201910/11/1570787623_357053.png)
python+selenium用文本内容定位元素时,如何用精确定位定位到元素?
![图片说明](https://img-ask.csdn.net/upload/201908/26/1566809955_900196.png) ``` driver.find_element_by_xpath('//td[text()="KPI"]) 定位不到 ``` ``` driver.find_element_by_xpath('//td[contains(text(),"KPI")]) 成功定位到 ``` python+selenium用文本内容定位元素时,精确定位定位不到,用模糊定位可以定位到,原因可能是含有空格,想知道如何用第一种方式能定位到元素
python+selenium下载网页
python+selenium下载完整的一个html,包括标签 内容 把.text改下就好了 怎么改? content = browser.find_element_by_id("").text print "d" filename = company_name+'.json' print content f3=codecs.open(filename,mode='wb',encoding='utf-8') f3.write(content) f3.close() browser.close()
Python selenium 打开chrome error【10054】被强行关闭,请问如何解决?
``` from selenium import webdriver import sys sys.path.insert(0,'F:\浏览器\chome\Google\Chrome\Application') options = webdriver.ChromeOptions() options.add_experimental_option("excludeSwitches", ["ignore-certificate-errors"]) driver = webdriver.Chrome(chrome_options=options) driver.get('https://www.baidu.com') driver.find_element_by_id('kw').send_keys('selenium') driver.find_element_by_id('su').click() with open('9.html','wb') as f: f.write(driver.page_source.encode('utf-8')) f.close() driver.close() ``` 运行后出现浏览器:这样的情况 ![图片说明](https://img-ask.csdn.net/upload/201707/17/1500264595_668338.png) 后代码报错: ``` Traceback (most recent call last): File "28baidu.py", line 12, in <module> driver.get('https://www.baidu.com') File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 268, in get self.execute(Command.GET, {'url': url}) File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 254, in execute response = self.command_executor.execute(driver_command, params) File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\site-packages\selenium\webdriver\remote\remote_connection.py", line 464, in execute return self._request(command_info[0], url, body=data) File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\site-packages\selenium\webdriver\remote\remote_connection.py", line 488, in _request resp = self._conn.getresponse() File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\http\client.py", line 1331, in getresponse response.begin() File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\http\client.py", line 297, in begin version, status, reason = self._read_status() File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\http\client.py", line 258, in _read_status line = str(self.fp.readline(_MAXLINE + 1), "iso-8859-1") File "C:\Users\linqing\AppData\Local\Programs\Python\Python36-32\lib\socket.py", line 586, in readinto return self._sock.recv_into(b) ConnectionResetError: [WinError 10054] 远程主机强迫关闭了一个现有的连接。 ``` 没想到在此入坑,折腾一天无果,请大神帮帮忙
终于明白阿里百度这样的大公司,为什么面试经常拿ThreadLocal考验求职者了
点击上面↑「爱开发」关注我们每晚10点,捕获技术思考和创业资源洞察什么是ThreadLocalThreadLocal是一个本地线程副本变量工具类,各个线程都拥有一份线程私...
《奇巧淫技》系列-python!!每天早上八点自动发送天气预报邮件到QQ邮箱
将代码部署服务器,每日早上定时获取到天气数据,并发送到邮箱。 也可以说是一个小人工智障。 思路可以运用在不同地方,主要介绍的是思路。
面试官问我:什么是消息队列?什么场景需要他?用了会出现什么问题?
你知道的越多,你不知道的越多 点赞再看,养成习惯 GitHub上已经开源 https://github.com/JavaFamily 有一线大厂面试点脑图、个人联系方式和人才交流群,欢迎Star和完善 前言 消息队列在互联网技术存储方面使用如此广泛,几乎所有的后端技术面试官都要在消息队列的使用和原理方面对小伙伴们进行360°的刁难。 作为一个在互联网公司面一次拿一次Offer的面霸...
8年经验面试官详解 Java 面试秘诀
作者 |胡书敏 责编 | 刘静 出品 | CSDN(ID:CSDNnews) 本人目前在一家知名外企担任架构师,而且最近八年来,在多家外企和互联网公司担任Java技术面试官,前后累计面试了有两三百位候选人。在本文里,就将结合本人的面试经验,针对Java初学者、Java初级开发和Java开发,给出若干准备简历和准备面试的建议。 Java程序员准备和投递简历的实...
究竟你适不适合买Mac?
我清晰的记得,刚买的macbook pro回到家,开机后第一件事情,就是上了淘宝网,花了500元钱,找了一个上门维修电脑的师傅,上门给我装了一个windows系统。。。。。。 表砍我。。。 当时买mac的初衷,只是想要个固态硬盘的笔记本,用来运行一些复杂的扑克软件。而看了当时所有的SSD笔记本后,最终决定,还是买个好(xiong)看(da)的。 已经有好几个朋友问我mba怎么样了,所以今天尽量客观...
MyBatis研习录(01)——MyBatis概述与入门
MyBatis 是一款优秀的持久层框架,它支持定制化 SQL、存储过程以及高级映射。MyBatis原本是apache的一个开源项目iBatis, 2010年该项目由apache software foundation 迁移到了google code并改名为MyBatis 。2013年11月MyBatis又迁移到Github。
程序员一般通过什么途径接私活?
二哥,你好,我想知道一般程序猿都如何接私活,我也想接,能告诉我一些方法吗? 上面是一个读者“烦不烦”问我的一个问题。其实不止是“烦不烦”,还有很多读者问过我类似这样的问题。 我接的私活不算多,挣到的钱也没有多少,加起来不到 20W。说实话,这个数目说出来我是有点心虚的,毕竟太少了,大家轻喷。但我想,恰好配得上“一般程序员”这个称号啊。毕竟苍蝇再小也是肉,我也算是有经验的人了。 唾弃接私活、做外...
Python爬虫爬取淘宝,京东商品信息
小编是一个理科生,不善长说一些废话。简单介绍下原理然后直接上代码。 使用的工具(Python+pycharm2019.3+selenium+xpath+chromedriver)其中要使用pycharm也可以私聊我selenium是一个框架可以通过pip下载 pip installselenium -ihttps://pypi.tuna.tsinghua.edu.cn/simple/ ...
阿里程序员写了一个新手都写不出的低级bug,被骂惨了。
这种新手都不会范的错,居然被一个工作好几年的小伙子写出来,差点被当场开除了。
Java工作4年来应聘要16K最后没要,细节如下。。。
前奏: 今天2B哥和大家分享一位前几天面试的一位应聘者,工作4年26岁,统招本科。 以下就是他的简历和面试情况。 基本情况: 专业技能: 1、&nbsp;熟悉Sping了解SpringMVC、SpringBoot、Mybatis等框架、了解SpringCloud微服务 2、&nbsp;熟悉常用项目管理工具:SVN、GIT、MAVEN、Jenkins 3、&nbsp;熟悉Nginx、tomca...
Python爬虫精简步骤1 获取数据
爬虫,从本质上来说,就是利用程序在网上拿到对我们有价值的数据。 爬虫能做很多事,能做商业分析,也能做生活助手,比如:分析北京近两年二手房成交均价是多少?广州的Python工程师平均薪资是多少?北京哪家餐厅粤菜最好吃?等等。 这是个人利用爬虫所做到的事情,而公司,同样可以利用爬虫来实现巨大的商业价值。比如你所熟悉的搜索引擎——百度和谷歌,它们的核心技术之一也是爬虫,而且是超级爬虫。 从搜索巨头到人工...
Python绘图,圣诞树,花,爱心 | Turtle篇
每周每日,分享Python实战代码,入门资料,进阶资料,基础语法,爬虫,数据分析,web网站,机器学习,深度学习等等。 公众号回复【进群】沟通交流吧,QQ扫码进群学习吧 微信群 QQ群 1.画圣诞树 import turtle screen = turtle.Screen() screen.setup(800,600) circle = turtle.Turtle()...
作为一个程序员,CPU的这些硬核知识你必须会!
CPU对每个程序员来说,是个既熟悉又陌生的东西? 如果你只知道CPU是中央处理器的话,那可能对你并没有什么用,那么作为程序员的我们,必须要搞懂的就是CPU这家伙是如何运行的,尤其要搞懂它里面的寄存器是怎么一回事,因为这将让你从底层明白程序的运行机制。 随我一起,来好好认识下CPU这货吧 把CPU掰开来看 对于CPU来说,我们首先就要搞明白它是怎么回事,也就是它的内部构造,当然,CPU那么牛的一个东...
破14亿,Python分析我国存在哪些人口危机!
一、背景 二、爬取数据 三、数据分析 1、总人口 2、男女人口比例 3、人口城镇化 4、人口增长率 5、人口老化(抚养比) 6、各省人口 7、世界人口 四、遇到的问题 遇到的问题 1、数据分页,需要获取从1949-2018年数据,观察到有近20年参数:LAST20,由此推测获取近70年的参数可设置为:LAST70 2、2019年数据没有放上去,可以手动添加上去 3、将数据进行 行列转换 4、列名...
web前端javascript+jquery知识点总结
1.Javascript 语法.用途 javascript 在前端网页中占有非常重要的地位,可以用于验证表单,制作特效等功能,它是一种描述语言,也是一种基于对象(Object)和事件驱动并具有安全性的脚本语言 ...
Python实战:抓肺炎疫情实时数据,画2019-nCoV疫情地图
今天,群里白垩老师问如何用python画武汉肺炎疫情地图。白垩老师是研究海洋生态与地球生物的学者,国家重点实验室成员,于不惑之年学习python,实为我等学习楷模。先前我并没有关注武汉肺炎的具体数据,也没有画过类似的数据分布图。于是就拿了两个小时,专门研究了一下,遂成此文。
听说想当黑客的都玩过这个Monyer游戏(1~14攻略)
第零关 进入传送门开始第0关(游戏链接) 请点击链接进入第1关: 连接在左边→ ←连接在右边 看不到啊。。。。(只能看到一堆大佬做完的留名,也能看到菜鸡的我,在后面~~) 直接fn+f12吧 &lt;span&gt;连接在左边→&lt;/span&gt; &lt;a href="first.php"&gt;&lt;/a&gt; &lt;span&gt;←连接在右边&lt;/span&gt; o...
在家远程办公效率低?那你一定要收好这个「在家办公」神器!
相信大家都已经收到国务院延长春节假期的消息,接下来,在家远程办公可能将会持续一段时间。 但是问题来了。远程办公不是人在电脑前就当坐班了,相反,对于沟通效率,文件协作,以及信息安全都有着极高的要求。有着非常多的挑战,比如: 1在异地互相不见面的会议上,如何提高沟通效率? 2文件之间的来往反馈如何做到及时性?如何保证信息安全? 3如何规划安排每天工作,以及如何进行成果验收? ...... ...
作为一个程序员,内存和磁盘的这些事情,你不得不知道啊!!!
截止目前,我已经分享了如下几篇文章: 一个程序在计算机中是如何运行的?超级干货!!! 作为一个程序员,CPU的这些硬核知识你必须会! 作为一个程序员,内存的这些硬核知识你必须懂! 这些知识可以说是我们之前都不太重视的基础知识,可能大家在上大学的时候都学习过了,但是嘞,当时由于老师讲解的没那么有趣,又加上这些知识本身就比较枯燥,所以嘞,大家当初几乎等于没学。 再说啦,学习这些,也看不出来有什么用啊!...
渗透测试-灰鸽子远控木马
木马概述 灰鸽子( Huigezi),原本该软件适用于公司和家庭管理,其功能十分强大,不但能监视摄像头、键盘记录、监控桌面、文件操作等。还提供了黑客专用功能,如:伪装系统图标、随意更换启动项名称和表述、随意更换端口、运行后自删除、毫无提示安装等,并采用反弹链接这种缺陷设计,使得使用者拥有最高权限,一经破解即无法控制。最终导致被黑客恶意使用。原作者的灰鸽子被定义为是一款集多种控制方式于一体的木马程序...
Python:爬取疫情每日数据
前言 目前每天各大平台,如腾讯、今日头条都会更新疫情每日数据,他们的数据源都是一样的,主要都是通过各地的卫健委官网通报。 以全国、湖北和上海为例,分别为以下三个网站: 国家卫健委官网:http://www.nhc.gov.cn/xcs/yqtb/list_gzbd.shtml 湖北卫健委官网:http://wjw.hubei.gov.cn/bmdt/ztzl/fkxxgzbdgrfyyq/xxfb...
这个世界上人真的分三六九等,你信吗?
偶然间,在知乎上看到一个问题 一时间,勾起了我深深的回忆。 以前在厂里打过两次工,做过家教,干过辅导班,做过中介。零下几度的晚上,贴过广告,满脸、满手地长冻疮。 再回首那段岁月,虽然苦,但让我学会了坚持和忍耐。让我明白了,在这个世界上,无论环境多么的恶劣,只要心存希望,星星之火,亦可燎原。 下文是原回答,希望能对你能有所启发。 如果我说,这个世界上人真的分三六九等,...
B 站上有哪些很好的学习资源?
哇说起B站,在小九眼里就是宝藏般的存在,放年假宅在家时一天刷6、7个小时不在话下,更别提今年的跨年晚会,我简直是跪着看完的!! 最早大家聚在在B站是为了追番,再后来我在上面刷欧美新歌和漂亮小姐姐的舞蹈视频,最近两年我和周围的朋友们已经把B站当作学习教室了,而且学习成本还免费,真是个励志的好平台ヽ(.◕ฺˇд ˇ◕ฺ;)ノ 下面我们就来盘点一下B站上优质的学习资源: 综合类 Oeasy: 综合...
雷火神山直播超两亿,Web播放器事件监听是怎么实现的?
Web播放器解决了在手机浏览器和PC浏览器上播放音视频数据的问题,让视音频内容可以不依赖用户安装App,就能进行播放以及在社交平台进行传播。在视频业务大数据平台中,播放数据的统计分析非常重要,所以Web播放器在使用过程中,需要对其内部的数据进行收集并上报至服务端,此时,就需要对发生在其内部的一些播放行为进行事件监听。 那么Web播放器事件监听是怎么实现的呢? 01 监听事件明细表 名...
3万字总结,Mysql优化之精髓
本文知识点较多,篇幅较长,请耐心学习 MySQL已经成为时下关系型数据库产品的中坚力量,备受互联网大厂的青睐,出门面试想进BAT,想拿高工资,不会点MySQL优化知识,拿offer的成功率会大大下降。 为什么要优化 系统的吞吐量瓶颈往往出现在数据库的访问速度上 随着应用程序的运行,数据库的中的数据会越来越多,处理时间会相应变慢 数据是存放在磁盘上的,读写速度无法和内存相比 如何优化 设计...
Python新型冠状病毒疫情数据自动爬取+统计+发送报告+数据屏幕(三)发送篇
今天介绍的项目是使用 Itchat 发送统计报告 项目功能设计: 定时爬取疫情数据存入Mysql 进行数据分析制作疫情报告 使用itchat给亲人朋友发送分析报告 基于Django做数据屏幕 使用Tableau做数据分析 来看看最终效果 目前已经完成,预计2月12日前更新 使用 itchat 发送数据统计报告 itchat 是一个基于 web微信的一个框架,但微信官方并不允许使用这...
作为程序员的我,大学四年一直自学,全靠这些实用工具和学习网站!
我本人因为高中沉迷于爱情,导致学业荒废,后来高考,毫无疑问进入了一所普普通通的大学,实在惭愧???? 我又是那么好强,现在学历不行,没办法改变的事情了,所以,进入大学开始,我就下定决心,一定要让自己掌握更多的技能,尤其选择了计算机这个行业,一定要多学习技术。 在进入大学学习不久后,我就认清了一个现实:我这个大学的整体教学质量和学习风气,真的一言难尽,懂的人自然知道怎么回事? 怎么办?我该如何更好的提升自...
粒子群算法求解物流配送路线问题(python)
1.Matlab实现粒子群算法的程序代码:https://www.cnblogs.com/kexinxin/p/9858664.html matlab代码求解函数最优值:https://blog.csdn.net/zyqblog/article/details/80829043 讲解通俗易懂,有数学实例的博文:https://blog.csdn.net/daaikuaichuan/article/...
教你如何编写第一个简单的爬虫
很多人知道爬虫,也很想利用爬虫去爬取自己想要的数据,那么爬虫到底怎么用呢?今天就教大家编写一个简单的爬虫。 下面以爬取笔者的个人博客网站为例获取第一篇文章的标题名称,教大家学会一个简单的爬虫。 第一步:获取页面 #!/usr/bin/python # coding: utf-8 import requests #引入包requests link = "http://www.santostang....
前端JS初级面试题二 (。•ˇ‸ˇ•。)老铁们!快来瞧瞧自己都会了么
1. 传统事件绑定和符合W3C标准的事件绑定有什么区别? 传统事件绑定 &lt;div onclick=""&gt;123&lt;/div&gt; div1.onclick = function(){}; &lt;button onmouseover=""&gt;&lt;/button&gt; 注意: 如果给同一个元素绑定了两次或多次相同类型的事件,那么后面的绑定会覆盖前面的绑定 (不支持DOM事...
相关热词 c# 识别回车 c#生成条形码ean13 c#子控制器调用父控制器 c# 写大文件 c# 浏览pdf c#获取桌面图标的句柄 c# list反射 c# 句柄 进程 c# 倒计时 线程 c# 窗体背景色
立即提问