python scrapy 导入第三方库的问题 20C

之前做别的项目时,创建了这个虚拟环境,下载了selenium

然后再这个虚拟环境中创建了scrapy 项目,在项目里导入selenium,报错了
说没有这个模块,这是为什么

图片说明
图片说明

应该如何解决

3个回答

写一个最简单的程序
import selenium
如果报错,就是selenium没有装

如果没有装,检查下你是不是有多个虚拟环境,你装selenium的那个是不是现在用的。

再不行,用pip或者conda安装下selenium

路径最好不要有中文。

在cmd窗口中提示符后输入:pip3 install selenium (如果是python3)或pip install selenium(如果是python2)实现selenium的安装。
注意:python的路径必须在系统环境中设置好了,这样使用如上命令即可。
还得注意网络必须连通才可。

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
用Python安装scrapy第三方库时安装失败怎么办
ERROR: Command errored out with exit status 1: command: 'c:\program files\python37\python.exe' -u -c 'import sys, setuptools, tokenize; sys.argv[0] = '"'"'C:\\Users\\22348\\AppData\\Local\\Temp\\pip-install-s_hynvin\\Twisted\\setup.py'"'"'; __file__='"'"'C:\\Users\\22348\\AppData\\Local\\Temp\\pip-install-s_hynvin\\Twisted\\setup.py'"'"';f=getattr(tokenize, '"'"'open'"'"', open)(__file__);code=f.read().replace('"'"'\r\n'"'"', '"'"'\n'"'"');f.close();exec(compile(code, __file__, '"'"'exec'"'"'))' bdist_wheel -d 'C:\Users\22348\AppData\Local\Temp\pip-wheel-4c5rcjky' --python-tag cp37 cwd: C:\Users\22348\AppData\Local\Temp\pip-install-s_hynvin\Twisted\ Complete output (943 lines): running bdist_wheel running build running build_py creating build creating build\lib.win-amd64-3.7 creating build\lib.win-amd64-3.7\twisted copying src\twisted\copyright.py -> build\lib.win-amd64-3.7\twisted copying src\twisted\plugin.py -> build\lib.win-amd64-3.7\twisted copying src\twisted\_version.py -> build\lib.win-amd64-3.7\twisted copying src\twisted\__init__.py -> build\lib.win-amd64-3.7\twisted copying src\twisted\__main__.py -> build\lib.win-amd64-3.7\twisted creating build\lib.win-amd64-3.7\twisted\application copying src\twisted\application\app.py -> build\lib.win-amd64-3.7\twisted\application copying src\twisted\application\internet.py -> build\lib.win-amd64-3.7\twisted\application copying src\twisted\application\reactors.py -> build\lib.win-amd64-3.7\twisted\application copying src\twisted\application\service.py -> build\lib.win-amd64-3.7\twisted\application copying src\twisted\application\strports.py -> build\lib.win-amd64-3.7\twisted\application copying src\twisted\application\__init__.py -> build\lib.win-amd64-3.7\twisted\application creating build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\avatar.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\checkers.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\endpoints.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\error.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\interfaces.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\ls.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\manhole.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\manhole_ssh.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\manhole_tap.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\mixin.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\recvline.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\stdio.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\tap.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\telnet.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\ttymodes.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\unix.py -> build\lib.win-amd64-3.7\twisted\conch copying src\twisted\conch\__init__.py -> build\lib.win-amd64-3.7\twisted\conch creating build\lib.win-amd64-3.7\twisted\cred copying src\twisted\cred\checkers.py -> build\lib.win-amd64-3.7\twisted\cred copying src\twisted\cred\credentials.py -> build\lib.win-amd64-3.7\twisted\cred copying src\twisted\cred\error.py -> build\lib.win-amd64-3.7\twisted\cred copying src\twisted\cred\portal.py -> build\lib.win-amd64-3.7\twisted\cred copying src\twisted\cred\strcred.py -> build\lib.win-amd64-3.7\twisted\cred copying src\twisted\cred\_digest.py -> build\lib.win-amd64-3.7\twisted\cred copying src\twisted\cred\__init__.py -> build\lib.win-amd64-3.7\twisted\cred creating build\lib.win-amd64-3.7\twisted\enterprise copying src\twisted\enterprise\adbapi.py -> build\lib.win-amd64-3.7\twisted\enterprise copying src\twisted\enterprise\__init__.py -> build\lib.win-amd64-3.7\twisted\enterprise creating build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\abstract.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\address.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\asyncioreactor.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\base.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\cfreactor.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\default.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\defer.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\endpoints.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\epollreactor.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\error.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\fdesc.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\gireactor.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\glib2reactor.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\gtk2reactor.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\gtk3reactor.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\inotify.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\interfaces.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\kqreactor.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\main.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\pollreactor.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\posixbase.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\process.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\protocol.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\pyuisupport.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\reactor.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\selectreactor.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\serialport.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\ssl.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\stdio.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\task.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\tcp.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\threads.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\tksupport.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\udp.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\unix.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\utils.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\win32eventreactor.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\wxreactor.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\wxsupport.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_baseprocess.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_dumbwin32proc.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_glibbase.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_idna.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_newtls.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_pollingfile.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_posixserialport.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_posixstdio.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_producer_helpers.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_resolver.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_signals.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_sslverify.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_threadedselect.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_win32serialport.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\_win32stdio.py -> build\lib.win-amd64-3.7\twisted\internet copying src\twisted\internet\__init__.py -> build\lib.win-amd64-3.7\twisted\internet creating build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\_buffer.py -> build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\_file.py -> build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\_filter.py -> build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\_flatten.py -> build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\_format.py -> build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\_global.py -> build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\_io.py -> build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\_json.py -> build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\_legacy.py -> build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\_levels.py -> build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\_logger.py -> build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\_observer.py -> build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\_stdlib.py -> build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\_util.py -> build\lib.win-amd64-3.7\twisted\logger copying src\twisted\logger\__init__.py -> build\lib.win-amd64-3.7\twisted\logger creating build\lib.win-amd64-3.7\twisted\mail copying src\twisted\mail\imap4.py -> build\lib.win-amd64-3.7\twisted\mail copying src\twisted\mail\interfaces.py -> build\lib.win-amd64-3.7\twisted\mail copying src\twisted\mail\pop3.py -> build\lib.win-amd64-3.7\twisted\mail copying src\twisted\mail\pop3client.py -> build\lib.win-amd64-3.7\twisted\mail copying src\twisted\mail\protocols.py -> build\lib.win-amd64-3.7\twisted\mail copying src\twisted\mail\relay.py -> build\lib.win-amd64-3.7\twisted\mail copying src\twisted\mail\smtp.py -> build\lib.win-amd64-3.7\twisted\mail copying src\twisted\mail\_cred.py -> build\lib.win-amd64-3.7\twisted\mail copying src\twisted\mail\_except.py -> build\lib.win-amd64-3.7\twisted\mail copying src\twisted\mail\__init__.py -> build\lib.win-amd64-3.7\twisted\mail creating build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\authority.py -> build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\cache.py -> build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\client.py -> build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\common.py -> build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\dns.py -> build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\error.py -> build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\hosts.py -> build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\resolve.py -> build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\root.py -> build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\secondary.py -> build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\server.py -> build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\srvconnect.py -> build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\tap.py -> build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\_rfc1982.py -> build\lib.win-amd64-3.7\twisted\names copying src\twisted\names\__init__.py -> build\lib.win-amd64-3.7\twisted\names creating build\lib.win-amd64-3.7\twisted\pair copying src\twisted\pair\ethernet.py -> build\lib.win-amd64-3.7\twisted\pair copying src\twisted\pair\ip.py -> build\lib.win-amd64-3.7\twisted\pair copying src\twisted\pair\raw.py -> build\lib.win-amd64-3.7\twisted\pair copying src\twisted\pair\rawudp.py -> build\lib.win-amd64-3.7\twisted\pair copying src\twisted\pair\testing.py -> build\lib.win-amd64-3.7\twisted\pair copying src\twisted\pair\tuntap.py -> build\lib.win-amd64-3.7\twisted\pair copying src\twisted\pair\__init__.py -> build\lib.win-amd64-3.7\twisted\pair creating build\lib.win-amd64-3.7\twisted\persisted copying src\twisted\persisted\aot.py -> build\lib.win-amd64-3.7\twisted\persisted copying src\twisted\persisted\crefutil.py -> build\lib.win-amd64-3.7\twisted\persisted copying src\twisted\persisted\dirdbm.py -> build\lib.win-amd64-3.7\twisted\persisted copying src\twisted\persisted\sob.py -> build\lib.win-amd64-3.7\twisted\persisted copying src\twisted\persisted\styles.py -> build\lib.win-amd64-3.7\twisted\persisted copying src\twisted\persisted\__init__.py -> build\lib.win-amd64-3.7\twisted\persisted creating build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\cred_anonymous.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\cred_file.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\cred_memory.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\cred_sshkeys.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\cred_unix.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\twisted_conch.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\twisted_core.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\twisted_ftp.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\twisted_inet.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\twisted_names.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\twisted_portforward.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\twisted_reactors.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\twisted_runner.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\twisted_socks.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\twisted_trial.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\twisted_web.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\twisted_words.py -> build\lib.win-amd64-3.7\twisted\plugins copying src\twisted\plugins\__init__.py -> build\lib.win-amd64-3.7\twisted\plugins creating build\lib.win-amd64-3.7\twisted\positioning copying src\twisted\positioning\base.py -> build\lib.win-amd64-3.7\twisted\positioning copying src\twisted\positioning\ipositioning.py -> build\lib.win-amd64-3.7\twisted\positioning copying src\twisted\positioning\nmea.py -> build\lib.win-amd64-3.7\twisted\positioning copying src\twisted\positioning\_sentence.py -> build\lib.win-amd64-3.7\twisted\positioning copying src\twisted\positioning\__init__.py -> build\lib.win-amd64-3.7\twisted\positioning creating build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\amp.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\basic.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\dict.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\finger.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\ftp.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\htb.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\ident.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\loopback.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\memcache.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\pcp.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\policies.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\portforward.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\postfix.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\sip.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\socks.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\stateful.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\tls.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\wire.py -> build\lib.win-amd64-3.7\twisted\protocols copying src\twisted\protocols\__init__.py -> build\lib.win-amd64-3.7\twisted\protocols creating build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\compat.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\components.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\constants.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\context.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\deprecate.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\failure.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\fakepwd.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\filepath.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\formmethod.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\htmlizer.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\lockfile.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\log.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\logfile.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\modules.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\monkey.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\procutils.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\randbytes.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\rebuild.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\reflect.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\release.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\roots.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\runtime.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\sendmsg.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\shortcut.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\syslog.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\systemd.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\text.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\threadable.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\threadpool.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\url.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\urlpath.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\usage.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\util.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\versions.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\win32.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\zippath.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\zipstream.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\_appdirs.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\_inotify.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\_oldstyle.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\_release.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\_setup.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\_shellcomp.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\_textattributes.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\_tzhelper.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\_url.py -> build\lib.win-amd64-3.7\twisted\python copying src\twisted\python\__init__.py -> build\lib.win-amd64-3.7\twisted\python creating build\lib.win-amd64-3.7\twisted\runner copying src\twisted\runner\inetd.py -> build\lib.win-amd64-3.7\twisted\runner copying src\twisted\runner\inetdconf.py -> build\lib.win-amd64-3.7\twisted\runner copying src\twisted\runner\inetdtap.py -> build\lib.win-amd64-3.7\twisted\runner copying src\twisted\runner\procmon.py -> build\lib.win-amd64-3.7\twisted\runner copying src\twisted\runner\procmontap.py -> build\lib.win-amd64-3.7\twisted\runner copying src\twisted\runner\__init__.py -> build\lib.win-amd64-3.7\twisted\runner creating build\lib.win-amd64-3.7\twisted\scripts copying src\twisted\scripts\htmlizer.py -> build\lib.win-amd64-3.7\twisted\scripts copying src\twisted\scripts\trial.py -> build\lib.win-amd64-3.7\twisted\scripts copying src\twisted\scripts\twistd.py -> build\lib.win-amd64-3.7\twisted\scripts copying src\twisted\scripts\_twistd_unix.py -> build\lib.win-amd64-3.7\twisted\scripts copying src\twisted\scripts\_twistw.py -> build\lib.win-amd64-3.7\twisted\scripts copying src\twisted\scripts\__init__.py -> build\lib.win-amd64-3.7\twisted\scripts creating build\lib.win-amd64-3.7\twisted\spread copying src\twisted\spread\banana.py -> build\lib.win-amd64-3.7\twisted\spread copying src\twisted\spread\flavors.py -> build\lib.win-amd64-3.7\twisted\spread copying src\twisted\spread\interfaces.py -> build\lib.win-amd64-3.7\twisted\spread copying src\twisted\spread\jelly.py -> build\lib.win-amd64-3.7\twisted\spread copying src\twisted\spread\pb.py -> build\lib.win-amd64-3.7\twisted\spread copying src\twisted\spread\publish.py -> build\lib.win-amd64-3.7\twisted\spread copying src\twisted\spread\util.py -> build\lib.win-amd64-3.7\twisted\spread copying src\twisted\spread\__init__.py -> build\lib.win-amd64-3.7\twisted\spread creating build\lib.win-amd64-3.7\twisted\tap copying src\twisted\tap\ftp.py -> build\lib.win-amd64-3.7\twisted\tap copying src\twisted\tap\portforward.py -> build\lib.win-amd64-3.7\twisted\tap copying src\twisted\tap\socks.py -> build\lib.win-amd64-3.7\twisted\tap copying src\twisted\tap\__init__.py -> build\lib.win-amd64-3.7\twisted\tap creating build\lib.win-amd64-3.7\twisted\test copying src\twisted\test\crash_test_dummy.py -> build\lib.win-amd64-3.7\twisted\test copying src\twisted\test\iosim.py -> build\lib.win-amd64-3.7\twisted\test copying src\twisted\test\mock_win32process.py -> build\lib.win-amd64-3.7\twisted\test copying src\twisted\test\myrebuilder1.py -> build\lib.win-amd64-3.7\twisted\test copying src\twisted\test\myrebuilder2.py -> build\lib.win-amd64-3.7\twisted\test copying src\twisted\test\plugin_basic.py -> build\lib.win-amd64-3.7\twisted\test copying src\twisted\test\plugin_extra1.py -> build\lib.win-amd64-3.7\twisted\test copying src\twisted\test\plugin_extra2.py -> build\lib.win-amd64-3.7\twisted\test copying src\twisted\test\process_cmdline.py -> build\lib.win-amd64-3.7\twisted\test copying src\twisted\test\process_echoer.py -> build\lib.win-amd64-3.7\twisted\test copying src\twisted\test\process_fds.py -> build\lib.win-amd64-3.7\twisted\test copying src\twisted\test\process_getargv.py -> build\lib.win-amd64-3.7\twisted\test copying src\twisted\test\process_getenv.py -> build\lib.win-amd64-3.7\twisted\test copying src\twisted\test\process_linger.py -> build\lib.win-amd64-3.7\twisted\test
python scrapy 爬虫图片新手求助
求问大神 我这个data她怎么了 报错: 2020-02-07 09:24:55 [scrapy.utils.log] INFO: Scrapy 1.8.0 started (bot: meizitu) 2020-02-07 09:24:55 [scrapy.utils.log] INFO: Versions: lxml 4.5.0.0, libxml2 2.9.5, cssselect 1.1.0, parsel 1.5.2, w3lib 1.21.0, Twisted 19.10.0, Python 3.7.3 (v3.7.3:ef4ec6ed12, Mar 25 2019, 22:22:05) [MSC v.1916 64 bit (AMD64)], pyOpenSSL 19.1.0 (OpenSSL 1.1.1d 10 Sep 2019), cryptography 2.8, Platform Windows-10-10.0.17763-SP0 2020-02-07 09:24:55 [scrapy.crawler] INFO: Overridden settings: {'BOT_NAME': 'meizitu', 'NEWSPIDER_MODULE': 'meizitu.spiders', 'ROBOTSTXT_OBEY': True, 'SPIDER_MODULES': ['meizitu.spiders']} 2020-02-07 09:24:55 [scrapy.extensions.telnet] INFO: Telnet Password: 0936097982b9bcc8 2020-02-07 09:24:55 [scrapy.middleware] INFO: Enabled extensions: ['scrapy.extensions.corestats.CoreStats', 'scrapy.extensions.telnet.TelnetConsole', 'scrapy.extensions.logstats.LogStats'] 2020-02-07 09:24:56 [scrapy.middleware] INFO: Enabled downloader middlewares: ['scrapy.downloadermiddlewares.robotstxt.RobotsTxtMiddleware', 'scrapy.downloadermiddlewares.httpauth.HttpAuthMiddleware', 'scrapy.downloadermiddlewares.downloadtimeout.DownloadTimeoutMiddleware', 'scrapy.downloadermiddlewares.defaultheaders.DefaultHeadersMiddleware', 'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware', 'scrapy.downloadermiddlewares.retry.RetryMiddleware', 'scrapy.downloadermiddlewares.redirect.MetaRefreshMiddleware', 'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware', 'scrapy.downloadermiddlewares.redirect.RedirectMiddleware', 'scrapy.downloadermiddlewares.cookies.CookiesMiddleware', 'scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware', 'scrapy.downloadermiddlewares.stats.DownloaderStats'] 2020-02-07 09:24:56 [scrapy.middleware] INFO: Enabled spider middlewares: ['scrapy.spidermiddlewares.httperror.HttpErrorMiddleware', 'scrapy.spidermiddlewares.offsite.OffsiteMiddleware', 'scrapy.spidermiddlewares.referer.RefererMiddleware', 'scrapy.spidermiddlewares.urllength.UrlLengthMiddleware', 'scrapy.spidermiddlewares.depth.DepthMiddleware'] Unhandled error in Deferred: 2020-02-07 09:24:56 [twisted] CRITICAL: Unhandled error in Deferred: Traceback (most recent call last): File "e:\python3.7\lib\site-packages\scrapy\crawler.py", line 184, in crawl return self._crawl(crawler, *args, **kwargs) File "e:\python3.7\lib\site-packages\scrapy\crawler.py", line 188, in _crawl d = crawler.crawl(*args, **kwargs) File "e:\python3.7\lib\site-packages\twisted\internet\defer.py", line 1613, in unwindGenerator return _cancellableInlineCallbacks(gen) File "e:\python3.7\lib\site-packages\twisted\internet\defer.py", line 1529, in _cancellableInlineCallbacks _inlineCallbacks(None, g, status) --- <exception caught here> --- File "e:\python3.7\lib\site-packages\twisted\internet\defer.py", line 1418, in _inlineCallbacks result = g.send(result) File "e:\python3.7\lib\site-packages\scrapy\crawler.py", line 86, in crawl self.engine = self._create_engine() File "e:\python3.7\lib\site-packages\scrapy\crawler.py", line 111, in _create_engine return ExecutionEngine(self, lambda _: self.stop()) File "e:\python3.7\lib\site-packages\scrapy\core\engine.py", line 70, in __init__ self.scraper = Scraper(crawler) File "e:\python3.7\lib\site-packages\scrapy\core\scraper.py", line 71, in __init__ self.itemproc = itemproc_cls.from_crawler(crawler) File "e:\python3.7\lib\site-packages\scrapy\middleware.py", line 53, in from_crawler return cls.from_settings(crawler.settings, crawler) File "e:\python3.7\lib\site-packages\scrapy\middleware.py", line 34, in from_settings mwcls = load_object(clspath) File "e:\python3.7\lib\site-packages\scrapy\utils\misc.py", line 46, in load_object mod = import_module(module) File "e:\python3.7\lib\importlib\__init__.py", line 127, in import_module return _bootstrap._gcd_import(name[level:], package, level) File "<frozen importlib._bootstrap>", line 1006, in _gcd_import File "<frozen importlib._bootstrap>", line 983, in _find_and_load File "<frozen importlib._bootstrap>", line 967, in _find_and_load_unlocked File "<frozen importlib._bootstrap>", line 677, in _load_unlocked File "<frozen importlib._bootstrap_external>", line 724, in exec_module File "<frozen importlib._bootstrap_external>", line 860, in get_code File "<frozen importlib._bootstrap_external>", line 791, in source_to_code File "<frozen importlib._bootstrap>", line 219, in _call_with_frames_removed builtins.SyntaxError: unexpected EOF while parsing (pipelines.py, line 22) 2020-02-07 09:24:56 [twisted] CRITICAL: Traceback (most recent call last): File "e:\python3.7\lib\site-packages\twisted\internet\defer.py", line 1418, in _inlineCallbacks result = g.send(result) File "e:\python3.7\lib\site-packages\scrapy\crawler.py", line 86, in crawl self.engine = self._create_engine() File "e:\python3.7\lib\site-packages\scrapy\crawler.py", line 111, in _create_engine return ExecutionEngine(self, lambda _: self.stop()) File "e:\python3.7\lib\site-packages\scrapy\core\engine.py", line 70, in __init__ self.scraper = Scraper(crawler) File "e:\python3.7\lib\site-packages\scrapy\core\scraper.py", line 71, in __init__ self.itemproc = itemproc_cls.from_crawler(crawler) File "e:\python3.7\lib\site-packages\scrapy\middleware.py", line 53, in from_crawler return cls.from_settings(crawler.settings, crawler) File "e:\python3.7\lib\site-packages\scrapy\middleware.py", line 34, in from_settings mwcls = load_object(clspath) File "e:\python3.7\lib\site-packages\scrapy\utils\misc.py", line 46, in load_object mod = import_module(module) File "e:\python3.7\lib\importlib\__init__.py", line 127, in import_module return _bootstrap._gcd_import(name[level:], package, level) File "<frozen importlib._bootstrap>", line 1006, in _gcd_import File "<frozen importlib._bootstrap>", line 983, in _find_and_load File "<frozen importlib._bootstrap>", line 967, in _find_and_load_unlocked File "<frozen importlib._bootstrap>", line 677, in _load_unlocked File "<frozen importlib._bootstrap_external>", line 724, in exec_module File "<frozen importlib._bootstrap_external>", line 860, in get_code File "<frozen importlib._bootstrap_external>", line 791, in source_to_code File "<frozen importlib._bootstrap>", line 219, in _call_with_frames_removed File "E:\python_work\爬虫\meizitu\meizitu\pipelines.py", line 22 f.write(data) ^ SyntaxError: unexpected EOF while parsing 代码如下: pipeline ``` import requests class MeizituPipeline(object): def process_item(self, item, spider): print("main_title:",item['main_title']) print("main_image:", item['main_image']) print("main_tags:", item['main_tags']) print("main_meta:", item['main_meta']) print("page:", item['main_pagenavi']) url = requests.get(item['main_image']) print(url) try: with open(item['main_pagenavi'] +'.jpg','wb') as f: data = url.read() f.write(data) ``` image.py ``` import scrapy from scrapy.http import response from ..items import MeizituItem class ImageSpider(scrapy.Spider): #定义Spider的名字scrapy crawl meiaitu name = 'SpiderMain' #允许爬虫的域名 allowed_domains = ['www.mzitu.com/203554'] #爬取的首页列表 start_urls = ['https://www.mzitu.com/203554'] #负责提取response的信息 #response代表下载器从start_urls中的url的到的回应 #提取的信息 def parse(self,response): #遍历所有节点 for Main in response.xpath('//div[@class = "main"]'): item = MeizituItem() #匹配所有节点元素/html/body/div[2]/div[1]/div[3]/p/a content = Main.xpath('//div[@class = "content"]') item['main_title'] = content.xpath('./h2/text()') item['main_image'] = content.xpath('./div[@class="main-image"]/p/a/img') item['main_meta'] = content.xpath('./div[@class="main-meta"]/span/text()').extract() item['main_tags'] = content.xpath('./div[@class="main-tags"]/a/text()').extract() item['main_pagenavi'] = content.xpath('./div[@class="main_pagenavi"]/span/text()').extract_first() yield item new_links = response.xpath('.//div[@class="pagenavi"]/a/@href').extract() new_link =new_links[-1] yield scrapy.Request(new_link,callback=self.parse) ``` setting ``` BOT_NAME = 'meizitu' SPIDER_MODULES = ['meizitu.spiders'] NEWSPIDER_MODULE = 'meizitu.spiders' ROBOTSTXT_OBEY = True #配置默认请求头 DEFAULT_REQUEST_HEADERS = { "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.108 Safari/537.36", 'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8' } ITEM_PIPELINES = { 'meizitu.pipelines.MeizituPipeline':300, } IMAGES_STORE = 'E:\python_work\爬虫\meizitu' IMAGES_MIN_HEIGHT = 1050 IMAGES_MIN_WIDTH = 700 ```
python scrapy爬虫框架数据库数据量无法增加
python 3.6 ,scrapy爬虫框架,mysql数据库,workbench界面。 第一次运行捕获2w条数据,第二次运行的时候,确定可以获取目标网页新的数据,数据库也显示了新的数据库更新时间,但是数据总量却一直不变,新数据无法写入 请问有朋友遇到过这样的问题吗?
python scrapy运行错误
scrapy安装路径为D:\Python soft,已经将D:\Python soft和D:\Python soft\Scripts加入到环境变量中了(win7,64位)。建立一个工程domz,进入到所建立的工程目录下再运行,即D:\Python soft\Scripts\tutorial,然后scrapy crawl domz,出现“scrapy 不是系统内部或外部命令,也不是可运行的程序或批处理文件“错误; 若在D:\Python soft\Scripts目录下运行scrapy crawl domz,结果出错:unknown command crawl。请问怎么解决?多谢
python scrapy 爬取多页合并问题
scrapy学习有几个月了,普通scrapy和crawl都能够实现,现在碰到一个问题: 在使用scrapy爬取多分页后,如何把多分页内容合并写入到一个item[x]内? 我现在使用 yield Request 至 def art_url 来获取分页内容,用append把内容集合后,用 item['image_urls'] = self.art_urls 来接收结果, 但结果一直接收,每篇内容的分页的接收导致很多,请教一下,如何把每篇的分页内容合并写入一项itme? 刚学不到半年,代码凌乱,望包含,主要是想学习如何爬取小说站,把每一章都合并在一起,不要分页搞很多数据,和合适代码推荐下,研究学习,谢谢了 我的代码: ``` art_urls = [] rules = ( Rule(LinkExtractor(allow='wenzhang/',restrict_xpaths=('//table[@id="dlNews"]')), callback='parse_item', follow=True), ) def parse_item(self, response): print(response.url) item = SpiderItem() conn = Redis(host='127.0.0.1', port=6379) item['title'] = response.xpath('//h1/text()').extract_first() ex = conn.sadd('movies_url', response.url) for next_href in response.xpath('//div[@class="pager"]/ul/li/a/@href').extract(): next_url = self.base_url + next_href.replace('../','') if ex == 1: # print('开始解析单页') yield Request(next_url, callback=self.art_url) # yield scrapy.Request(url=next_url, callback=self.parse_detail, meta={'title': title,'img_src':img_src}) else: print("无数据更新!!!") # print(self.art_urls) item['image_urls'] = self.art_urls # print(len(item['image_urls'])) # print(item) yield item def art_url(self, response): art_urls = response.xpath('//div[@id="content"]/div/p/img/@src').extract() for art_url in art_urls: # 开始解析分页 art_url = art_url.replace('../../upload/','') self.art_urls.append(art_url) ```
Python scrapy爬虫问题
初学爬虫,用Chrome浏览器如是xpath(“//span/a/@href”)可以得到想要的所有链接地址。 但是,测试爬虫时候,print response.xpath(“//span/a/@href”)是没有任何数据的,请问这个如何改呢,前段也刚刚在学。 帮帮忙大神们
python scrapy 爬取的数据保存不了
# python scrapy 爬取的数据保存不了 上代码 spider代码: ``` from textsc.items import TextscItem from scrapy.selector import Selector from scrapy.contrib.spiders import CrawlSpider, Rule from scrapy.contrib.linkextractors import LinkExtractor class Baispider(CrawlSpider): name = "Baidu" allowed_domains = ["baidu.com"] start_urls = [ "https://zhidao.baidu.com/list" ] rules = ( Rule(LinkExtractor(allow=('/shop', ), deny=('fr', )), callback='parse_item'), ) def parse_item(self, response): sel= Selector(response) items=[] item=TextscItem() title=sel.xpath('//div[@class="shop-menu"]/ul/li/a/text()').extract() for i in title: items.append(i) item['TitleName'] = items print (item['TitleName']) return item ``` items.py代码 ``` import scrapy import json class TextscItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() TitleName = scrapy.Field() pass ``` scrapy的版本是1.4.0 运行没有报错 但是json文件里面什么都没有 求解答 谢过!..
python scrapy 在cmd下显示 no crawl 命令
我的scrapy安装路径为C:\program files\python2.7,已经将C:\program files\python2.7和C:\program files\python2.7\scripts加入到环境变量中了(win7,64位系统) 我建立scrapy工程的时候只能先进入到scripts中然后用scrapy startproject demo,如果像网上很多教程说的直接CMD下scrapy startproject demo,会出现错误“scrapy 不是系统内部或外部命令,也不是可运行的程序或批处理文件”,不知道是为什么呢? 战战兢兢地建立了一个过程demo,按照教程所说的用scrapy crawl demo结果出错:unknown command crawl 我看到有前辈的经验说是要进入到所建立的工程目录下再运行,所以又进入C:\program files\python2.7\scripts\demo,然后scrapy crawl demo,这回又出现“scrapy 不是系统内部或外部命令,也不是可运行的程序或批处理文件“这样子的错误。 请问这是什么原因呢?麻烦有经验的朋友帮帮忙,先谢过了~
有没有懂python scrapy代理ip的老哥?
一个困扰我好几天的问题:用scrapy写的一个访问58同城的简易爬虫,在中间件里爬了很多有效的代理IP,但是在process____request方法里,代理IP不知道为什么就是不切换,一直使用的是最初成功的那个IP,明明打印的信息是已经更换了新的IP,实际访问的结果来看却还是没有更换。。。 -----这是控制台的打印: ![图片说明](https://img-ask.csdn.net/upload/201909/27/1569590380_292339.png) 这是爬虫文件:xicispider.py name = 'xicispider' allowed_domains = ['58.com'] start_urls = ['https://www.58.com/'] def parse(self, response): reg = r'<title>(.*?)</title>' print(re.search(reg,response.text).group()) yield scrapy.Request(url='https://www.58.com',callback=self.parsep, dont_filter=True) def parsep(self, response): reg = r'<title>(.*?)</title>' print(re.search(reg,response.text).group()) 这是中间件:middleware.py def process_request(self,spider,request): ip = random.choice(self.proxies) print("process_request方法运行了,重新获取的ip是:--------->",ip) request.meta['proxy'] = ip 这是settings.py里的有关配置: DOWNLOADER_MIDDLEWARES = { 'xici.middlewares.XiciDM': 543, }
Python scrapy爬取网页解码问题
尝试爬取淘宝网页,在parse中解析response希望获得解码后的文本 使用response.text 会在log中记录有报错:有无法解码的信息 使用response.body.decode('utf-8','ignore')也会出现同样的问题 使用response.xpath('xxxxxx').extract()可以获取相关信息 但是希望使用正则表达式进行检索,希望大神帮助,如何能过跳过那些不规则的编码获取网页文本
python scrapy框架中from_crawler的问题
from_crawler这个方法有什么作用,文档没翻译明白,我在一些例子中,几乎每个类里都有 @calssmethod 的from_crawler方法 和 from_settings方法,个人理解应该是一个初始化crawler的方法 ,我想知道他是在框架的哪里,什么时候调用的,不写这个方法而在__init__里初始化又有什么区别?初学新手被困扰了很久,看了几天就是没完全理解,,不弄明白感觉看其他地方就特别不顺,希望得到指教。
anaconda安装scrapy库以后无法startproject
anaconda安装scrapy库以后无法运行startproject 错误如下: ![图片说明](https://img-ask.csdn.net/upload/202002/11/1581428103_138628.png) 我之前是装了python以后又装了anaconda,是不是因为它弄不准在哪里建立。如果我把python删除会不会好,但是直接把python删除会不会影响anaconda的作用?
python scrapy爬虫 抓取的内容只有一条,怎么破??
目标URL:http://218.92.23.142/sjsz/szxx/Index.aspx(工作需要) 主要目的是爬取网站中的信件类型、信件主题、写信时间、回复时间、回复状态以及其中链接里面的具体内容,然后保存到excel表格中。里面的链接全部都是POST方法,没有出现一个具体的链接,所以我感觉非常恼火。 目前碰到的问题: 1、 但是我只能抓到第一条的信息,后面就抓不到了。具体是这条:市长您好: 我是一名事... 2、 scrapy运行后出现的信息是: 15:01:33 [scrapy] INFO: Scrapy 1.0.3 started (bot: spider2) 2016-01-13 15:01:33 [scrapy] INFO: Optional features available: ssl, http11 2016-01-13 15:01:33 [scrapy] INFO: Overridden settings: {'NEWSPIDER_MODULE': 'spider2.spiders', 'FEED_URI': u'file:///F:/\u5feb\u76d8/workspace/Pythontest/src/Scrapy/spider2/szxx.csv', 'SPIDER_MODULES': ['spider2.spiders'], 'BOT_NAME': 'spider2', 'USER_AGENT': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_3) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.54 Safari/536.5', 'FEED_FORMAT': 'CSV'} 2016-01-13 15:01:36 [scrapy] INFO: Enabled extensions: CloseSpider, FeedExporter, TelnetConsole, LogStats, CoreStats, SpiderState 2016-01-13 15:01:38 [scrapy] INFO: Enabled downloader middlewares: HttpAuthMiddleware, DownloadTimeoutMiddleware, UserAgentMiddleware, RetryMiddleware, DefaultHeadersMiddleware, MetaRefreshMiddleware, HttpCompressionMiddleware, RedirectMiddleware, CookiesMiddleware, ChunkedTransferMiddleware, DownloaderStats 2016-01-13 15:01:38 [scrapy] INFO: Enabled spider middlewares: HttpErrorMiddleware, OffsiteMiddleware, RefererMiddleware, UrlLengthMiddleware, DepthMiddleware 2016-01-13 15:01:38 [scrapy] INFO: Enabled item pipelines: 2016-01-13 15:01:38 [scrapy] INFO: Spider opened 2016-01-13 15:01:38 [scrapy] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min) 2016-01-13 15:01:38 [scrapy] DEBUG: Telnet console listening on 127.0.0.1:6023 2016-01-13 15:01:39 [scrapy] DEBUG: Crawled (200) <GET http://218.92.23.142/sjsz/szxx/Index.aspx> (referer: None) 2016-01-13 15:01:39 [scrapy] DEBUG: Filtered duplicate request: <GET http://218.92.23.142/sjsz/szxx/Index.aspx> - no more duplicates will be shown (see DUPEFILTER_DEBUG to show all duplicates) 2016-01-13 15:01:39 [scrapy] DEBUG: Crawled (200) <GET http://218.92.23.142/sjsz/szxx/Index.aspx> (referer: http://218.92.23.142/sjsz/szxx/Index.aspx) 2016-01-13 15:01:39 [scrapy] DEBUG: Crawled (200) <POST http://218.92.23.142/sjsz/szxx/Index.aspx> (referer: http://218.92.23.142/sjsz/szxx/Index.aspx) 2016-01-13 15:01:39 [scrapy] DEBUG: Redirecting (302) to <GET http://218.92.23.142/sjsz/szxx/GkResult.aspx?infoid=3160105094757> from <POST http://218.92.23.142/sjsz/szxx/Index.aspx> 2016-01-13 15:01:39 [scrapy] DEBUG: Crawled (200) <GET http://218.92.23.142/sjsz/szxx/GkResult.aspx?infoid=3160105094757> (referer: http://218.92.23.142/sjsz/szxx/Index.aspx) 2016-01-13 15:01:39 [scrapy] DEBUG: Scraped from <200 http://218.92.23.142/sjsz/szxx/GkResult.aspx?infoid=3160105094757> 第一条的信息(太多了,就省略了。。。。) 2016-01-13 15:01:39 [scrapy] DEBUG: Crawled (200) <POST http://218.92.23.142/sjsz/szxx/Index.aspx> (referer: http://218.92.23.142/sjsz/szxx/Index.aspx) ………… 后面的差不多,就不写出来了 2016-01-13 15:01:41 [scrapy] INFO: Stored csv feed (1 items) in: file:///F:/快盘/workspace/Pythontest/src/Scrapy/spider2/szxx.csv 2016-01-13 15:01:41 [scrapy] INFO: Dumping Scrapy stats: {'downloader/request_bytes': 56383, 'downloader/request_count': 17, 'downloader/request_method_count/GET': 3, 'downloader/request_method_count/POST': 14, 'downloader/response_bytes': 118855, 'downloader/response_count': 17, 'downloader/response_status_count/200': 16, 'downloader/response_status_count/302': 1, 'dupefilter/filtered': 120, 'finish_reason': 'finished', 'finish_time': datetime.datetime(2016, 1, 13, 7, 1, 41, 716000), 'item_scraped_count': 1, 'log_count/DEBUG': 20, 'log_count/INFO': 8, 'request_depth_max': 14, 'response_received_count': 16, 'scheduler/dequeued': 17, 'scheduler/dequeued/memory': 17, 'scheduler/enqueued': 17, 'scheduler/enqueued/memory': 17, 'start_time': datetime.datetime(2016, 1, 13, 7, 1, 38, 670000)} 2016-01-13 15:01:41 [scrapy] INFO: Spider closed (finished) 具体的代码如下(代码写的不好,误喷): import sys, copy reload(sys) sys.setdefaultencoding('utf-8') sys.path.append("../") from scrapy.spiders import CrawlSpider from scrapy.http import FormRequest, Request from scrapy.selector import Selector from items import Spider2Item class Domeszxx(CrawlSpider): name = "szxx" allowed_domain = ["218.92.23.142"] start_urls = ["http://218.92.23.142/sjsz/szxx/Index.aspx"] item = Spider2Item() def parse(self, response): selector = Selector(response) # 获得下一页的POST参数 viewstate = ''.join(selector.xpath('//input[@id="__VIEWSTATE"]/@value').extract()[0]) eventvalidation = ''.join(selector.xpath('//input[@id="__EVENTVALIDATION"]/@value').extract()[0]) nextpage = ''.join( selector.xpath('//input[@name="ctl00$ContentPlaceHolder1$GridView1$ctl12$txtGoPage"]/@value').extract()) nextpage_data = { '__EVENTTARGET': 'ctl00$ContentPlaceHolder1$GridView1$ctl12$cmdNext', '__EVENTARGUMENT': '', '__VIEWSTATE': viewstate, '__VIEWSTATEGENERATOR': '9DEFE542', '__EVENTVALIDATION': eventvalidation, 'ctl00$ContentPlaceHolder1$GridView1$ctl12$txtGoPage': nextpage } # 获得抓取当前内容的xpath xjlx = ".//*[@id='ContentPlaceHolder1_GridView1_Label2_" xjzt = ".//*[@id='ContentPlaceHolder1_GridView1_LinkButton5_" xxsj = ".//*[@id='ContentPlaceHolder1_GridView1_Label4_" hfsj = ".//*[@id='ContentPlaceHolder1_GridView1_Label5_" nextlink = '//*[@id="ContentPlaceHolder1_GridView1_cmdNext"]/@href' # 获取当前页面公开答复的行数 listnum = len(selector.xpath('//tr')) - 2 # 获得抓取内容 for i in range(0, listnum): item_all = {} xjlx_xpath = xjlx + str(i) + "']/text()" xjzt_xpath = xjzt + str(i) + "']/text()" xxsj_xpath = xxsj + str(i) + "']/text()" hfsj_xpath = hfsj + str(i) + "']/text()" # 信件类型 item_all['xjlx'] = selector.xpath(xjlx_xpath).extract()[0].decode('utf-8').encode('gbk') # 信件主题 item_all['xjzt'] = str(selector.xpath(xjzt_xpath).extract()[0].decode('utf-8').encode('gbk')).replace('\n', '') # 写信时间 item_all['xxsj'] = selector.xpath(xxsj_xpath).extract()[0].decode('utf-8').encode('gbk') # 回复时间 item_all['hfsj'] = selector.xpath(hfsj_xpath).extract()[0].decode('utf-8').encode('gbk') # 获取二级页面中的POST参数 eventtaget = 'ctl00$ContentPlaceHolder1$GridView1$ctl0' + str(i + 2) + '$LinkButton5' content_data = { '__EVENTTARGET': eventtaget, '__EVENTARGUMENT': '', '__VIEWSTATE': viewstate, '__VIEWSTATEGENERATOR': '9DEFE542', '__EVENTVALIDATION': eventvalidation, 'ctl00$ContentPlaceHolder1$GridView1$ctl12$txtGoPage': nextpage } # 完成抓取信息的传递 yield Request(url="http://218.92.23.142/sjsz/szxx/Index.aspx", callback=self.send_value, meta={'item_all': item_all, 'content_data': content_data}) # 进入页面中的二级页面的链接,必须利用POST方法才能提交,无法看到直接的URL,同时将本页中抓取的item和进入下一页的POST方法进行传递 # yield Request(url="http://218.92.23.142/sjsz/szxx/Index.aspx", callback=self.getcontent, # meta={'item': item_all}) # yield FormRequest(url="http://218.92.23.142/sjsz/szxx/Index.aspx", formdata=content_data, # callback=self.getcontent) # 进入下一页 if selector.xpath(nextlink).extract(): yield FormRequest(url="http://218.92.23.142/sjsz/szxx/Index.aspx", formdata=nextpage_data, callback=self.parse) # 将当前页面的值传递到本函数并存入类的item中 def send_value(self, response): itemx = response.meta['item_all'] post_data = response.meta['content_data'] Domeszxx.item = copy.deepcopy(itemx) yield FormRequest(url="http://218.92.23.142/sjsz/szxx/Index.aspx", formdata=post_data, callback=self.getcontent) return # 将二级链接中值抓取并存入类的item中 def getcontent(self, response): item_getcontent = { 'xfr': ''.join(response.xpath('//*[@id="lblXFName"]/text()').extract()).decode('utf-8').encode('gbk'), 'lxnr': ''.join(response.xpath('//*[@id="lblXFQuestion"]/text()').extract()).decode('utf-8').encode( 'gbk'), 'hfnr': ''.join(response.xpath('//*[@id="lblXFanswer"]/text()').extract()).decode('utf-8').encode( 'gbk')} Domeszxx.item.update(item_getcontent) yield Domeszxx.item return
python Scrapy创建项目出错,执行scrapy startproject test 出错;
Traceback (most recent call last): File "d:\users\july_whj\lib\runpy.py", line 174, in _run_module_as_main "__main__", fname, loader, pkg_name) File "d:\users\july_whj\lib\runpy.py", line 72, in _run_code exec code in run_globals File "D:\Users\July_whj\Scripts\scrapy.exe\__main__.py", line 5, in <module> File "d:\users\july_whj\lib\site-packages\scrapy\cmdline.py", line 9, in <module> from scrapy.crawler import CrawlerProcess File "d:\users\july_whj\lib\site-packages\scrapy\crawler.py", line 7, in <module> from twisted.internet import reactor, defer File "d:\users\july_whj\lib\site-packages\twisted\internet\reactor.py", line 38, in <module> from twisted.internet import default File "d:\users\july_whj\lib\site-packages\twisted\internet\default.py", line 56, in <module> install = _getInstallFunction(platform) File "d:\users\july_whj\lib\site-packages\twisted\internet\default.py", line 50, in _getInstallFunction from twisted.internet.selectreactor import install File "d:\users\july_whj\lib\site-packages\twisted\internet\selectreactor.py", line 18, in <module> from twisted.internet import posixbase File "d:\users\july_whj\lib\site-packages\twisted\internet\posixbase.py", line 18, in <module> from twisted.internet import error, udp, tcp File "d:\users\july_whj\lib\site-packages\twisted\internet\tcp.py", line 28, in <module> from twisted.internet._newtls import ( File "d:\users\july_whj\lib\site-packages\twisted\internet\_newtls.py", line 21, in <module> from twisted.protocols.tls import TLSMemoryBIOFactory, TLSMemoryBIOProtocol File "d:\users\july_whj\lib\site-packages\twisted\protocols\tls.py", line 63, in <module> from twisted.internet._sslverify import _setAcceptableProtocols File "d:\users\july_whj\lib\site-packages\twisted\internet\_sslverify.py", line 38, in <module> TLSVersion.TLSv1_1: SSL.OP_NO_TLSv1_1, AttributeError: 'module' object has no attribute 'OP_NO_TLSv1_1' ![图片说明](https://img-ask.csdn.net/upload/201703/14/1489472404_160732.png)
python命令行用scrapy创建项目的时候总是闪退
python命令行用scrapy创建项目的时候总是闪退 python命令行用scrapy创建项目的时候总是闪退 python命令行用scrapy创建项目的时候总是闪退 python命令行用scrapy创建项目的时候总是闪退
python3 Scrapy报错问题
只要运行与Scrapy相关命令就报错 Error in sitecustomize; set PYTHONVERBOSE for traceback: AttributeError: module 'sys' has no attribute 'setdefaultencoding' 求助一下 怎么解决
python scrapy ip代理访问http网址出错但是https的就可以
![图片说明](https://img-ask.csdn.net/upload/201904/29/1556508652_290600.png) 不用代理都可以,ip代理测试是没问题的
Python scrapy中如何顺序遍历初始url
"http://vip.stock.finance.sina.com.cn/corp/go.php/vMS_MarketHistory/stockid/601988.phtml?year=2015&jidu=4" 像这样的一个初始url,倒序遍历最后的年,季度。。如何做到?小白已经歇菜
关于Python3.7中安装pip install Scrapy出现的问题
我的是WIN10,安装的3.7版的Python,python和pip兼正常,但是我在电脑上安装scrapy,就是pip install scrapy这样,却出现了问题。 但是,跟别人的不一样,我的不是因为环境问题而安装不上去,出现的是下面这样的代码 ERROR: Command "'d:\program files\python37\python.exe' -u -c 'import setuptools, tokenize;__file__='"'"'C:\\Users\\dev\\AppData\\Local\\Temp\\pip-install-6z92nq_l\\Twisted\\setup.py'"'"';f=getattr(tokenize, '"'"'open'"'"', open)(__file__);code=f.read().replace('"'"'\r\n'"'"', '"'"'\n'"'"');f.close();exec(compile(code, __file__, '"'"'exec'"'"'))' install --record 'C:\Users\dev\AppData\Local\Temp\pip-record-vclemy75\install-record.txt' --single-version-externally-managed --compile" failed with error code 1 in C:\Users\dev\AppData\Local\Temp\pip-install-6z92nq_l\Twisted\ 我是真不知道是什么原因了,穷途末路,请各位大神帮帮我吧 *************************** 不好意思大家,一直没看。 后来我弄不好,用电脑自带的恢复出厂设置搞了一下,然后,自此以后装任何东西没有报错过。by the way,备份关键东西很重要
终于明白阿里百度这样的大公司,为什么面试经常拿ThreadLocal考验求职者了
点击上面↑「爱开发」关注我们每晚10点,捕获技术思考和创业资源洞察什么是ThreadLocalThreadLocal是一个本地线程副本变量工具类,各个线程都拥有一份线程私有的数
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过
Linux(服务器编程):15---两种高效的事件处理模式(reactor模式、proactor模式)
前言 同步I/O模型通常用于实现Reactor模式 异步I/O模型则用于实现Proactor模式 最后我们会使用同步I/O方式模拟出Proactor模式 一、Reactor模式 Reactor模式特点 它要求主线程(I/O处理单元)只负责监听文件描述符上是否有事件发生,有的话就立即将时间通知工作线程(逻辑单元)。除此之外,主线程不做任何其他实质性的工作 读写数据,接受新的连接,以及处...
阿里面试官问我:如何设计秒杀系统?我的回答让他比起大拇指
你知道的越多,你不知道的越多 点赞再看,养成习惯 GitHub上已经开源 https://github.com/JavaFamily 有一线大厂面试点脑图和个人联系方式,欢迎Star和指教 前言 Redis在互联网技术存储方面使用如此广泛,几乎所有的后端技术面试官都要在Redis的使用和原理方面对小伙伴们进行360°的刁难。 作为一个在互联网公司面一次拿一次Offer的面霸,打败了...
五年程序员记流水账式的自白。
不知觉已中码龄已突破五年,一路走来从起初铁憨憨到现在的十九线程序员,一路成长,虽然不能成为高工,但是也能挡下一面,从15年很火的android开始入坑,走过java、.Net、QT,目前仍处于android和.net交替开发中。 毕业到现在一共就职过两家公司,目前是第二家,公司算是半个创业公司,所以基本上都会身兼多职。比如不光要写代码,还要写软著、软著评测、线上线下客户对接需求收集...
C语言魔塔游戏
很早就很想写这个,今天终于写完了。 游戏截图: 编译环境: VS2017 游戏需要一些图片,如果有想要的或者对游戏有什么看法的可以加我的QQ 2985486630 讨论,如果暂时没有回应,可以在博客下方留言,到时候我会看到。 下面我来介绍一下游戏的主要功能和实现方式 首先是玩家的定义,使用结构体,这个名字是可以自己改变的 struct gamerole { char n
一文详尽系列之模型评估指标
点击上方“Datawhale”,选择“星标”公众号第一时间获取价值内容在机器学习领域通常会根据实际的业务场景拟定相应的不同的业务指标,针对不同机器学习问题如回归、分类、排...
究竟你适不适合买Mac?
我清晰的记得,刚买的macbook pro回到家,开机后第一件事情,就是上了淘宝网,花了500元钱,找了一个上门维修电脑的师傅,上门给我装了一个windows系统。。。。。。 表砍我。。。 当时买mac的初衷,只是想要个固态硬盘的笔记本,用来运行一些复杂的扑克软件。而看了当时所有的SSD笔记本后,最终决定,还是买个好(xiong)看(da)的。 已经有好几个朋友问我mba怎么样了,所以今天尽量客观
程序员一般通过什么途径接私活?
二哥,你好,我想知道一般程序猿都如何接私活,我也想接,能告诉我一些方法吗? 上面是一个读者“烦不烦”问我的一个问题。其实不止是“烦不烦”,还有很多读者问过我类似这样的问题。 我接的私活不算多,挣到的钱也没有多少,加起来不到 20W。说实话,这个数目说出来我是有点心虚的,毕竟太少了,大家轻喷。但我想,恰好配得上“一般程序员”这个称号啊。毕竟苍蝇再小也是肉,我也算是有经验的人了。 唾弃接私活、做外...
压测学习总结(1)——高并发性能指标:QPS、TPS、RT、吞吐量详解
一、QPS,每秒查询 QPS:Queries Per Second意思是“每秒查询率”,是一台服务器每秒能够相应的查询次数,是对一个特定的查询服务器在规定时间内所处理流量多少的衡量标准。互联网中,作为域名系统服务器的机器的性能经常用每秒查询率来衡量。 二、TPS,每秒事务 TPS:是TransactionsPerSecond的缩写,也就是事务数/秒。它是软件测试结果的测量单位。一个事务是指一...
Python爬虫爬取淘宝,京东商品信息
小编是一个理科生,不善长说一些废话。简单介绍下原理然后直接上代码。 使用的工具(Python+pycharm2019.3+selenium+xpath+chromedriver)其中要使用pycharm也可以私聊我selenium是一个框架可以通过pip下载 pip install selenium -i https://pypi.tuna.tsinghua.edu.cn/simple/ 
阿里程序员写了一个新手都写不出的低级bug,被骂惨了。
这种新手都不会范的错,居然被一个工作好几年的小伙子写出来,差点被当场开除了。
Java工作4年来应聘要16K最后没要,细节如下。。。
前奏: 今天2B哥和大家分享一位前几天面试的一位应聘者,工作4年26岁,统招本科。 以下就是他的简历和面试情况。 基本情况: 专业技能: 1、&nbsp;熟悉Sping了解SpringMVC、SpringBoot、Mybatis等框架、了解SpringCloud微服务 2、&nbsp;熟悉常用项目管理工具:SVN、GIT、MAVEN、Jenkins 3、&nbsp;熟悉Nginx、tomca
2020年,冯唐49岁:我给20、30岁IT职场年轻人的建议
点击“技术领导力”关注∆  每天早上8:30推送 作者| Mr.K   编辑| Emma 来源| 技术领导力(ID:jishulingdaoli) 前天的推文《冯唐:职场人35岁以后,方法论比经验重要》,收到了不少读者的反馈,觉得挺受启发。其实,冯唐写了不少关于职场方面的文章,都挺不错的。可惜大家只记住了“春风十里不如你”、“如何避免成为油腻腻的中年人”等不那么正经的文章。 本文整理了冯
程序员该看的几部电影
##1、骇客帝国(1999) 概念:在线/离线,递归,循环,矩阵等 剧情简介: 不久的将来,网络黑客尼奥对这个看似正常的现实世界产生了怀疑。 他结识了黑客崔妮蒂,并见到了黑客组织的首领墨菲斯。 墨菲斯告诉他,现实世界其实是由一个名叫“母体”的计算机人工智能系统控制,人们就像他们饲养的动物,没有自由和思想,而尼奥就是能够拯救人类的救世主。 可是,救赎之路从来都不会一帆风顺,到底哪里才是真实的世界?
Python绘图,圣诞树,花,爱心 | Turtle篇
每周每日,分享Python实战代码,入门资料,进阶资料,基础语法,爬虫,数据分析,web网站,机器学习,深度学习等等。 公众号回复【进群】沟通交流吧,QQ扫码进群学习吧 微信群 QQ群 1.画圣诞树 import turtle screen = turtle.Screen() screen.setup(800,600) circle = turtle.Turtle()...
作为一个程序员,CPU的这些硬核知识你必须会!
CPU对每个程序员来说,是个既熟悉又陌生的东西? 如果你只知道CPU是中央处理器的话,那可能对你并没有什么用,那么作为程序员的我们,必须要搞懂的就是CPU这家伙是如何运行的,尤其要搞懂它里面的寄存器是怎么一回事,因为这将让你从底层明白程序的运行机制。 随我一起,来好好认识下CPU这货吧 把CPU掰开来看 对于CPU来说,我们首先就要搞明白它是怎么回事,也就是它的内部构造,当然,CPU那么牛的一个东
还记得那个提速8倍的IDEA插件吗?VS Code版本也发布啦!!
去年,阿里云发布了本地 IDE 插件 Cloud Toolkit,仅 IntelliJ IDEA 一个平台,就有 15 万以上的开发者进行了下载,体验了一键部署带来的开发便利。时隔一年的今天,阿里云正式发布了 Visual Studio Code 版本,全面覆盖前端开发者,帮助前端实现一键打包部署,让开发提速 8 倍。 VSCode 版本的插件,目前能做到什么? 安装插件之后,开发者可以立即体验...
破14亿,Python分析我国存在哪些人口危机!
2020年1月17日,国家统计局发布了2019年国民经济报告,报告中指出我国人口突破14亿。 猪哥的朋友圈被14亿人口刷屏,但是很多人并没有看到我国复杂的人口问题:老龄化、男女比例失衡、生育率下降、人口红利下降等。 今天我们就来分析一下我们国家的人口数据吧! 一、背景 1.人口突破14亿 2020年1月17日,国家统计局发布了 2019年国民经济报告 ,报告中指出:年末中国大陆总人口(包括31个
2019年除夕夜的有感而发
天气:小雨(加小雪) 温度:3摄氏度 空气:严重污染(399) 风向:北风 风力:微风 现在是除夕夜晚上十点钟,再有两个小时就要新的一年了; 首先要说的是我没患病,至少现在是没有患病;但是心情确像患了病一样沉重; 现在这个时刻应该大部分家庭都在看春晚吧,或许一家人团团圆圆的坐在一起,或许因为某些特殊原因而不能团圆;但不管是身在何处,身处什么境地,我都想对每一个人说一句:新年快乐! 不知道csdn这...
听说想当黑客的都玩过这个Monyer游戏(1~14攻略)
第零关 进入传送门开始第0关(游戏链接) 请点击链接进入第1关: 连接在左边→ ←连接在右边 看不到啊。。。。(只能看到一堆大佬做完的留名,也能看到菜鸡的我,在后面~~) 直接fn+f12吧 &lt;span&gt;连接在左边→&lt;/span&gt; &lt;a href="first.php"&gt;&lt;/a&gt; &lt;span&gt;←连接在右边&lt;/span&gt; o...
在家远程办公效率低?那你一定要收好这个「在家办公」神器!
相信大家都已经收到国务院延长春节假期的消息,接下来,在家远程办公可能将会持续一段时间。 但是问题来了。远程办公不是人在电脑前就当坐班了,相反,对于沟通效率,文件协作,以及信息安全都有着极高的要求。有着非常多的挑战,比如: 1在异地互相不见面的会议上,如何提高沟通效率? 2文件之间的来往反馈如何做到及时性?如何保证信息安全? 3如何规划安排每天工作,以及如何进行成果验收? ......
作为一个程序员,内存和磁盘的这些事情,你不得不知道啊!!!
截止目前,我已经分享了如下几篇文章: 一个程序在计算机中是如何运行的?超级干货!!! 作为一个程序员,CPU的这些硬核知识你必须会! 作为一个程序员,内存的这些硬核知识你必须懂! 这些知识可以说是我们之前都不太重视的基础知识,可能大家在上大学的时候都学习过了,但是嘞,当时由于老师讲解的没那么有趣,又加上这些知识本身就比较枯燥,所以嘞,大家当初几乎等于没学。 再说啦,学习这些,也看不出来有什么用啊!
2020年的1月,我辞掉了我的第一份工作
其实,这篇文章,我应该早点写的,毕竟现在已经2月份了。不过一些其它原因,或者是我的惰性、还有一些迷茫的念头,让自己迟迟没有试着写一点东西,记录下,或者说是总结下自己前3年的工作上的经历、学习的过程。 我自己知道的,在写自己的博客方面,我的文笔很一般,非技术类的文章不想去写;另外我又是一个还比较热衷于技术的人,而平常复杂一点的东西,如果想写文章写的清楚点,是需要足够...
别低估自己的直觉,也别高估自己的智商
所有群全部吵翻天,朋友圈全部沦陷,公众号疯狂转发。这两周没怎么发原创,只发新闻,可能有人注意到了。我不是懒,是文章写了却没发,因为大家的关注力始终在这次的疫情上面,发了也没人看。当然,我...
这个世界上人真的分三六九等,你信吗?
偶然间,在知乎上看到一个问题 一时间,勾起了我深深的回忆。 以前在厂里打过两次工,做过家教,干过辅导班,做过中介。零下几度的晚上,贴过广告,满脸、满手地长冻疮。 再回首那段岁月,虽然苦,但让我学会了坚持和忍耐。让我明白了,在这个世界上,无论环境多么的恶劣,只要心存希望,星星之火,亦可燎原。 下文是原回答,希望能对你能有所启发。 如果我说,这个世界上人真的分三六九等,...
节后首个工作日,企业们集体开晨会让钉钉挂了
By 超神经场景描述:昨天 2 月 3 日,是大部分城市号召远程工作的第一天,全国有接近 2 亿人在家开始远程办公,钉钉上也有超过 1000 万家企业活跃起来。关键词:十一出行 人脸...
Java基础知识点梳理
Java基础知识点梳理 摘要: 虽然已经在实际工作中经常与java打交道,但是一直没系统地对java这门语言进行梳理和总结,掌握的知识也比较零散。恰好利用这段时间重新认识下java,并对一些常见的语法和知识点做个总结与回顾,一方面为了加深印象,方便后面查阅,一方面为了学好java打下基础。 Java简介 java语言于1995年正式推出,最开始被命名为Oak语言,由James Gosling(詹姆
2020年全新Java学习路线图,含配套视频,学完即为中级Java程序员!!
新的一年来临,突如其来的疫情打破了平静的生活! 在家的你是否很无聊,如果无聊就来学习吧! 世上只有一种投资只赚不赔,那就是学习!!! 传智播客于2020年升级了Java学习线路图,硬核升级,免费放送! 学完你就是中级程序员,能更快一步找到工作! 一、Java基础 JavaSE基础是Java中级程序员的起点,是帮助你从小白到懂得编程的必经之路。 在Java基础板块中有6个子模块的学
B 站上有哪些很好的学习资源?
哇说起B站,在小九眼里就是宝藏般的存在,放年假宅在家时一天刷6、7个小时不在话下,更别提今年的跨年晚会,我简直是跪着看完的!! 最早大家聚在在B站是为了追番,再后来我在上面刷欧美新歌和漂亮小姐姐的舞蹈视频,最近两年我和周围的朋友们已经把B站当作学习教室了,而且学习成本还免费,真是个励志的好平台ヽ(.◕ฺˇд ˇ◕ฺ;)ノ 下面我们就来盘点一下B站上优质的学习资源: 综合类 Oeasy: 综合
相关热词 c# 压缩图片好麻烦 c#计算数组中的平均值 c#获取路由参数 c#日期精确到分钟 c#自定义异常必须继承 c#查表并返回值 c# 动态 表达式树 c# 监控方法耗时 c# listbox c#chart显示滚动条
立即提问