Python 爬虫错误:AttributeError: 'NoneType' object has no attribute 'text'

用Python爬虫出现了题目所述的问题,求大神解答以下,救救小白吧,哭了
代码如下:
Result=Soup.find('div',class_='tip-text ugc-ellipsis fade-text').text.strip()
错误提示:
AttributeError Traceback (most recent call last)
in
----> 1 Result=Soup.find('div',class_='tip-text ugc-ellipsis fade-text').text.strip()

AttributeError: 'NoneType' object has no attribute 'text'

1个回答

我刚刚也碰到这个问题了,我的问题是上一层的进行beautifulSoup的定位标签位置过大,造成在进行循环时,找不到对应的的标签,抛出异常。

你可以打印一下可迭代对象的大小,跟预期是否一致

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
出现AttributeError: 'NoneType' object has no attribute 'text'错误,无法解决....能答否?

今天在做爬虫练习时遇到: Traceback (most recent call last): File "C:\Users\Liangdawang\Desktop\crawler.py", line 7, in <module> print(title.text) AttributeError: 'NoneType' object has no attribute 'text' 本人小白 ,不知道为什么会出现这种错误,希望大佬解答仔细一点,还有就是对这种类型的解释以及类似的错误还有哪些 原代码: ``` from requests_html import HTMLSession session = HTMLSession() r = session.get('https://movie.douban.com/subject/1292052') title = r.html.find('#app > div > div > div.container > div:nth-child(6) > h3:nth-child(26) > b',first=True) print(title.text) ``` 错误截图: ![图片说明](https://img-ask.csdn.net/upload/201909/27/1569590119_512714.jpg)

AttributeError: 'NoneType' object has no attribute 'group'???

![图片说明](https://img-ask.csdn.net/upload/201809/25/1537804947_240118.jpg) 新手,在选择下面这些内容时,报错,不太懂该怎末该??求大佬 ![图片说明](https://img-ask.csdn.net/upload/201809/25/1537805036_376602.jpg) ![图片说明](https://img-ask.csdn.net/upload/201809/25/1537804959_129886.jpg)

python爬虫的一个问题,'NoneType' object has no attribute 'children'

这段代码是模仿嵩天老师的最好大学排名的方法,但是按照这个方法,爬取清博指数的网页数据的时候,就会出现这个错误,求解 import requests from bs4 import BeautifulSoup import bs4,time def getHTMLText(url): header = {'Cookie':'' User-Agent ;} #太长忽略啦 r = requests.get(url) r.raise_for_status() r.encoding = r.apparent_encoding return r.text def getinfo(ulist,html): soup = BeautifulSoup(html,'html.parser') for tr in soup.find('tbody').children: if isinstance(tr,bs4.element.Tag): trs = tr('td') astr=trs[1].find('a') if trs: ulist.append([trs[0].string,astr.string,trs[2].string,trs[3].string,trs[4].string,trs[5].string,trs[6].string,trs[8].string,trs[7].string]) def printinfo(ulist,num): tplt = '{:10}\t{:10}\t{:10}\t{:10}\t{:10}\t{:10}\t{:10}\t{:10}\t{:10}\t{:10}\t' print(tplt.format("排名","微博号","发博/原创","转发数","评论数","原创转发","原创评论","总点赞数","BCI",chr(12288))) for i in range(num): u = ulist[i] print(tplt.format(u[0],u[1],u[2],u[3],u[4],u[5],u[6],u[7],u[8],chr(12288))) def main(): ulist = [] url = 'http://www.gsdata.cn/rank/wbrank?type=day' html = getHTMLText(url) getinfo(ulist,html) printinfo(ulist,10) time.sleep(1) print(type(html)) main()

beautiful soup 爬虫编写问题

使用 python 语言 beautifulsoup库编写爬虫 现在想爬取下图中贴吧代码的页数(下图为2) ![图片说明](https://img-ask.csdn.net/upload/201702/13/1486955802_809332.jpg) 不知道代码该怎么写 现在写了 tag = soup.find('li', attrs={"class": "l_reply_num"})获取到了<li>标签内容 单时不知道怎么往下获取 试了一下 tag.contents 显示错误AttributeError: 'NoneType' object has no attribute 'contents' 求大神指点

请问我的Python爬虫代码 哪里出现了问题?(要求:爬取猫眼电影top100榜单的信息)

代码如下: ``` import requests from requests.exceptions import RequestException import time from bs4 import BeautifulSoup def get_one_page(url): try: headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'} response = requests.get(url,headers=headers) if response.status_code==200: return response.text return None except RequestException: return None def page(offset): url='http://maoyan.com/board/6?offset='+str(offset) return url for j in range(10): html_doc = get_one_page(page(j*10)) soup = BeautifulSoup(html_doc,'lxml') i = 1 for dd in soup.select("dd"): print(dd.find("i","board-index board-index-"+str(i+j*10)).get_text() +dd.find("p","name").get_text() +dd.find("p","star").get_text().strip() +dd.find("p","releasetime").string +dd.find("p","score").get_text()+'\n') i = i + 1 time.sleep(1) ``` 运行反馈结果为: ``` Traceback (most recent call last): File "<ipython-input-8-95f75b1c7bd0>", line 1, in <module> runfile('H:/程序语言学习用文件夹/Spider/beautifulSoup.py', wdir='H:/程序语言学习用文件夹/Spider') File "C:\Users\pc1\Anaconda3\lib\site-packages\spyder\utils\site\sitecustomize.py", line 705, in runfile execfile(filename, namespace) File "C:\Users\pc1\Anaconda3\lib\site-packages\spyder\utils\site\sitecustomize.py", line 102, in execfile exec(compile(f.read(), filename, 'exec'), namespace) File "H:/程序语言学习用文件夹/Spider/beautifulSoup.py", line 29, in <module> soup = BeautifulSoup(html_doc,'lxml') File "C:\Users\pc1\Anaconda3\lib\site-packages\bs4\__init__.py", line 192, in __init__ elif len(markup) <= 256 and ( TypeError: object of type 'NoneType' has no len() ```

用python3爬链家的网页,遇到了AttributeError: 'str' object has no attribute 'select'的报错?

源码: ``` # -*- coding:utf-8 -*- from urllib import request from bs4 import BeautifulSoup import bs4 def get_data(): url = 'https://nj.lianjia.com/ershoufang/gulou/' headers = { 'User_agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36' } req = request.Request(url, headers=headers) response = request.urlopen(req) if response.getcode() == 200: data = response.read() data = str(data, encoding='utf-8') print(data) with open('index.html', mode='w', encoding='utf-8') as f: f.write(data) def parse_data(): with open('index.html', mode='r', encoding='utf-8') as f: html = f.read() bs = BeautifulSoup(html, 'html.parser') # 析HTML文件的时候就是用parser的 divs = bs.find_all(class_='clear LOGCLICKDATA')[0].get_text() for div in divs[0:]: div1 = div.select('.address')[0] print(div1) if __name__ == '__main__': # get_data() parse_data() ``` 报错显示是 div1 = div.select('.address')[0] 这一行出了问题 还请各位帮忙看看是怎么了

输出的结果无法写入txt 文件 显示为nonetype

``` import os a = os.popen('ps axu | grep "jiaoben.py" | grep -v "grep" | wc -l').read() b = int(a) def ceshi(): if b == 1: print('right') else: print('error') c = ceshi() print(c.__class__) f = open('HHHhhw.txt','a+') f.write(c) ``` 我想把结果的 right 和error写入txt文件 但是print出来的c的属性是nonetype error <class 'NoneType'> Traceback (most recent call last): File "jiankong.py", line 12, in <module> f.write(c) 请问大神们应该怎么处理

<AttributeError: 'str' object has no attribute 'decode'>,跪求大神解答。

``` from django.db import models # Create your models here. class Grades(models.Model): gname = models.CharField(max_length=20) gdate = models.DateTimeField() ggirlnum = models.IntegerField() gboynum = models.IntegerField() isDelete = models.BooleanField(default=False) class Students(models.Model): sname = models.CharField(max_length=20) sgender = models.BooleanField(default=True) sage = models.IntegerField() scontend = models.CharField(max_length=20) isDelete = models.BooleanField(default=False) # 关联外键 sgrade = models.ForeignKey(Grades, on_delete=models.CASCADE) ``` Django2.2, python3.7, 执行数据库迁移<python manage.py makemigrations>时报错,<AttributeError: 'str' object has no attribute 'decode'>

爬取网页内容没有结果

![图片说明](https://img-ask.csdn.net/upload/201707/02/1498980000_96331.png) ``` headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.71 Safari/537.36'} search_url = 'http://wenshu.court.gov.cn/List/ListContent' search_data = {'Param' : '' ,'Index' : '1' ,'Page' : '20' ,'Order' : '法院层级' ,'Direction' : 'asc'} ```

在用selenium+chromdriver 解析动态网页时,出现无法解析出网页源码的问题

在写一个爬虫,本来用selenium+chromdriver可以解析出网页源码。今天重新跑爬虫, 发现出现,AttributeError: 'NoneType' object has no attribute '****' 的问题,查看 变量发现网页源码解析出错,想问一下为什么出现这样的问题?

爬虫BeautifulSoup的find().find_all()可以连起来用吗?

``` soup = bs(text, 'lxml') job_list = soup.find(name='div', class_='job-list').find_all(name='li') ``` 报错 AttributeError: 'NoneType' object has no attribute 'find_all' 网上下载了一份代码 运行这儿报错 应该怎么改正?

抓取网页里的链接地址

![图片说明](https://img-ask.csdn.net/upload/201809/20/1537430760_786483.png) 我试图抓取上图的链接可是返回以下错误 > Traceback (most recent call last): File "/Users/euro3/Library/Preferences/PyCharmCE2018.1/scratches/scratch_7.py", line 65, in <module> add_index_url(url,num,file_object) File "/Users/euro3/Library/Preferences/PyCharmCE2018.1/scratches/scratch_7.py", line 51, in add_index_url write_url=get_download_url(html) File "/Users/euro3/Library/Preferences/PyCharmCE2018.1/scratches/scratch_7.py", line 14, in get_download_url url_a=td.find('source') AttributeError: 'NoneType' object has no attribute 'find' 下面是我运行的代码: ``` import sys import urllib2 import os import chardet from bs4 import BeautifulSoup import time reload(sys) sys.setdefaultencoding("utf-8") def get_download_url(broken_html): soup=BeautifulSoup(broken_html,'html.parser') fixed_html=soup.prettify() td=soup.find('video',attrs={'id':'player_html5_api'}) url_a=td.find('source') url_a=url_a['src'] return url_a def get_title(broken_html): soup=BeautifulSoup(broken_html,'html.parser') fixed_html=soup.prettify() title=soup.find('h1') title=title.string return title def url_open(url): req=urllib2.Request(url) req.add_header('User-Agent','Mozilla/5.0') response=urllib2.urlopen(url) html=response.read() return html def add_index_url(url,num,file_object): for i in range(1,num): new_url=url+str(i) print("----------------------start scraping page"+str(i)+"---------------------") html=url_open(new_url) time.sleep(1) soup=BeautifulSoup(html,'html.parser') fixed_html=soup.prettify() a_urls=soup.find_all('div',attrs={'class':'pic'}) host="http://zhs.lxxlxx.com" for a_url in a_urls: a_url=a_url.find('a') a_url=a_url.get('href') a_url=host+a_url print(a_url) html=url_open(a_url) #html=unicode(html,'GBK').encode("utf-8") html=html.decode('utf-8') write_title=get_title(html) write_url=get_download_url(html) file_object.write(write_title+"\n") file_object.write(write_url+"\n") if __name__=='__main__': url="http://zhs.lxxlxx.com/new/" filename="down_load_url.txt" num=int(raw_input("please input the page num you want to download:")) num=num+1 if os.path.exists(filename): file_object=open(filename,'w+') else: os.mknod(filename) file_object=open(filename,'w+') add_index_url(url,num,file_object) print("----------------------scraping finish--------------------------") file_object.close() ``` 有谁可以帮忙修改一下,本人自学python中所以不是很明白哪里出错

如果能重来,我不会选择北漂——初见北京

一个人走的路

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

我说我不会算法,阿里把我挂了。

不说了,字节跳动也反手把我挂了。

2020年大厂Java面试前复习的正确姿势(800+面试题答案解析)

前言 个人觉得面试也像是一场全新的征程,失败和胜利都是平常之事。所以,劝各位不要因为面试失败而灰心、 丧失斗志。也不要因为面试通过而沾沾自喜,等待你的将是更美好的未来,继续加油! 本篇分享的面试题内容包括:Java、MyBatis、ZooKeeper、Dubbo、Elasticsearch、Redis、MySQL、Spring、SpringBoot、SpringCloud、RabbitMQ...

抖音上很火的时钟效果

反正,我的抖音没人看,别人都有几十万个赞什么的。 发到CSDN上来,大家交流下~ 主要用到原生态的 JS+CSS3。 具体不解释了,看注释: &lt;!DOCTYPE html&gt; &lt;html lang="en"&gt; &lt;head&gt; &lt;meta charset="UTF-8"&gt; &lt;title&gt;Title&lt;/tit...

记录下入职中软一个月(外包华为)

我在年前从上一家公司离职,没想到过年期间疫情爆发,我也被困在家里,在家呆着的日子让人很焦躁,于是我疯狂的投简历,看面试题,希望可以进大公司去看看。 我也有幸面试了我觉得还挺大的公司的(虽然不是bat之类的大厂,但是作为一名二本计算机专业刚毕业的大学生bat那些大厂我连投简历的勇气都没有),最后选择了中软,我知道这是一家外包公司,待遇各方面甚至不如我的上一家公司,但是对我而言这可是外包华为,能...

又出事了?网站被攻击了?高中生?

北京时间2020年3月27日9点整,如往常一样来到公司,带开电脑,正准备打开Github网站看一会源代码,再开始手头的工作。哟吼,一直打不开,一直出现如下页面: 我想很多网友也尝到了甜头,各大技术群炸开了锅,据网友反馈有攻击者正在发起大规模的中间人挟持,京东和Github等网站等网站都受到了影响。 什么是中间中间人挟持呢? 简而言之,就是攻击者在数据网络传输的过程中,截获传输过程中的数据并篡改...

培训班出来的人后来都怎么样了?(二)

接着上回说,培训班学习生涯结束了。后面每天就是无休止的背面试题,不是没有头脑的背,培训公司还是有方法的,现在回想当时背的面试题好像都用上了,也被问到了。回头找找面试题,当时都是打印下来天天看,天天背。 不理解呢也要背,面试造飞机,上班拧螺丝。班里的同学开始四处投简历面试了,很快就有面试成功的,刚开始一个,然后越来越多。不知道是什么原因,尝到胜利果实的童鞋,不满足于自己通过的公司,嫌薪水要少了,选择...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

工作八年,月薪60K,裸辞两个月,投简历投到怀疑人生!

近日,有网友在某职场社交平台吐槽,自己裸辞两个月了,但是找工作却让自己的心态都要崩溃了,全部无果,不是已查看无回音,就是已查看不符合。 “工作八年,两年一跳,裸辞两个月了,之前月薪60K,最近找工作找的心态崩了!所有招聘工具都用了,全部无果,不是已查看无回音,就是已查看不符合。进头条,滴滴之类的大厂很难吗???!!!投简历投的开始怀疑人生了!希望 可以收到大厂offer” 先来看看网...

我把华为小米年报放一起,发现华为才是真·手机公司,小米确实不靠卖手机赚钱...

郭一璞 发自 凹非寺量子位 报道 | 公众号 QbitAI国产手机界的两大玩家,华为&amp;小米,昨天在同一天前后脚发布了2019年财报。同行冤家,发财报也碰在了同一天。那我们就对比...

大牛都会用的IDEA调试技巧!!!

导读 前天面试了一个985高校的实习生,问了他平时用什么开发工具,他想也没想的说IDEA,于是我抛砖引玉的问了一下IDEA的调试用过吧,你说说怎么设置断点...

97年世界黑客编程大赛冠军作品(大小仅为16KB),惊艳世界的编程巨作

这是世界编程大赛第一名作品(97年Mekka ’97 4K Intro比赛)汇编语言所写。 整个文件只有4095个字节, 大小仅仅为16KB! 不仅实现了3D动画的效果!还有一段震撼人心的背景音乐!!! 内容无法以言语形容,实在太强大! 下面是代码,具体操作看最后! @echo off more +1 %~s0|debug e100 33 f6 bf 0 20 b5 10 f3 a5...

不要再到处使用 === 了

我们知道现在的开发人员都使用 === 来代替 ==,为什么呢?我在网上看到的大多数教程都认为,要预测 JavaScript 强制转换是如何工作这太复杂了,因此建议总是使用===。这些都...

什么是a站、b站、c站、d站、e站、f站、g站、h站、i站、j站、k站、l站、m站、n站?00后的世界我不懂!

A站 AcFun弹幕视频网,简称“A站”,成立于2007年6月,取意于Anime Comic Fun,是中国大陆第一家弹幕视频网站。A站以视频为载体,逐步发展出基于原生内容二次创作的完整生态,拥有高质量互动弹幕,是中国弹幕文化的发源地;拥有大量超粘性的用户群体,产生输出了金坷垃、鬼畜全明星、我的滑板鞋、小苹果等大量网络流行文化,也是中国二次元文化的发源地。 B站 全称“哔哩哔哩(bilibili...

十个摸鱼,哦,不对,是炫酷(可以玩一整天)的网站!!!

文章目录前言正文**1、Kaspersky Cyberthreat real-time map****2、Finding Home****3、Silk – Interactive Generative Art****4、Liquid Particles 3D****5、WINDOWS93****6、Staggering Beauty****7、Ostagram图片生成器网址****8、全历史网址*...

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

毕业5年,我熬夜整理出了这50个优质的电子书网站,吐血推荐!

大家好,我是武哥,最近经常有小伙伴问我要电子书,都什么年代了,还找不到电子书吗?如果要说原因,那就是你还没遇到武哥我(手动滑稽~)!我今天把这么多年我经常看的电子书网站整理一下给大家,基本上能解决大家的需求。不管是在校生还是已经工作了,相信肯定对你有所帮助! 1.鸠摩搜书 首先给大家推荐的网站是:鸠摩搜书 地址:https://www.jiumodiary.com/ 这个网上非常棒,上面有很多优质...

MySQL性能优化(五):为什么查询速度这么慢

前期回顾: MySQL性能优化(一):MySQL架构与核心问题 MySQL性能优化(二):选择优化的数据类型 MySQL性能优化(三):深入理解索引的这点事 MySQL性能优化(四):如何高效正确的使用索引 前面章节我们介绍了如何选择优化的数据类型、如何高效的使用索引,这些对于高性能的MySQL来说是必不可少的。但这些还完全不够,还需要合理的设计查询。如果查询写的很糟糕,即使表结构再合理、索引再...

大厂的 404 页面都长啥样?最后一个笑了...

每天浏览各大网站,难免会碰到404页面啊。你注意过404页面么?猿妹搜罗来了下面这些知名网站的404页面,以供大家欣赏,看看哪个网站更有创意: 正在上传…重新上传取消 腾讯 正在上传…重新上传取消 网易 淘宝 百度 新浪微博 正在上传…重新上传取消 新浪 京东 优酷 腾讯视频 搜...

自从喜欢上了B站这12个UP主,我越来越觉得自己是个废柴了!

不怕告诉你,我自从喜欢上了这12个UP主,哔哩哔哩成为了我手机上最耗电的软件,几乎每天都会看,可是吧,看的越多,我就越觉得自己是个废柴,唉,老天不公啊,不信你看看…… 间接性踌躇满志,持续性混吃等死,都是因为你们……但是,自己的学习力在慢慢变强,这是不容忽视的,推荐给你们! 都说B站是个宝,可是有人不会挖啊,没事,今天咱挖好的送你一箩筐,首先啊,我在B站上最喜欢看这个家伙的视频了,为啥 ,咱撇...

代码注释如此沙雕,会玩还是你们程序员!

某站后端代码被“开源”,同时刷遍全网的,还有代码里的那些神注释。 我们这才知道,原来程序员个个都是段子手;这么多年来,我们也走过了他们的无数套路… 首先,产品经理,是永远永远吐槽不完的!网友的评论也非常扎心,说看这些代码就像在阅读程序员的日记,每一页都写满了对产品经理的恨。 然后,也要发出直击灵魂的质问:你是尊贵的付费大会员吗? 这不禁让人想起之前某音乐app的穷逼Vip,果然,穷逼在哪里都是...

总结了Mybatis,原来知识点也没多少嘛

看完这篇Mybatis,感觉你三天就会用了。

爬虫(101)爬点重口味的

小弟最近在学校无聊的很哪,浏览网页突然看到一张图片,都快流鼻血。。。然后小弟冥思苦想,得干一点有趣的事情python 爬虫库安装https://s.taobao.com/api?_ks...

疫情后北上广深租房价格跌了吗? | Alfred数据室

去年3月份我们发布了《北上广深租房图鉴》(点击阅读),细数了北上广深租房的各种因素对租房价格的影响。一年过去了,在面临新冠疫情的后续影响、城市尚未完全恢复正常运转、学校还没开学等情况下...

面试官给我挖坑:a[i][j] 和 a[j][i] 有什么区别?

点击上方“朱小厮的博客”,选择“设为星标”后台回复&#34;1024&#34;领取公众号专属资料本文以一个简单的程序开头——数组赋值:int LEN = 10000; int[][] ...

在拼多多上班,是一种什么样的体验?我心态崩了呀!

之前有很多读者咨询我:武哥,在拼多多上班是一种什么样的体验?由于一直很忙,没抽出时间来和大家分享。上周末特地花点时间来写了一篇文章,跟大家分享一下拼多多的日常。 1. 倒时差的作息 可能很多小伙伴都听说了,拼多多加班很严重。这怎么说呢?作息上确实和其他公司有点区别,大家知道 996,那么自然也就能理解拼多多的“11 11 6”了。 所以当很多小伙伴早上出门时,他们是这样的: 我们是这样的: 当...

又一起程序员被抓事件

就在昨天互联网又发生一起让人心酸的程序员犯罪事件,著名的百度不限速下载软件 Pandownload PC 版作者被警方抓获。案件大致是这样的:软件的作者不仅非法盗取用户数据,还在QQ群进...

瑞德西韦重症用药结果再曝光,上百名重症一周内好转,股价大涨19%

郭一璞 发自 凹非寺量子位 报道 | 公众号 QbitAI期盼已久的瑞德西韦临床数据,现在“偷跑”了。在芝加哥大学医学院的临床试验中,125名病人参与,大部分人都已经出院,其中只有2名病...

应聘3万的职位,有必要这么刁难我么。。。沙雕。。。

又一次被面试官带到坑里面了。面试官:springmvc用过么?我:用过啊,经常用呢面试官:springmvc中为什么需要用父子容器?我:嗯。。。没听明白你说的什么。面试官:就是contr...

Vue商城——详情页功能

详情页实现思路 点击商品进去详情页,根据点击请求更加详细的信息,要传过来goodsItem的iid,根据id去服务器请求更加详细的信息;配置路由映射关系,点击进行跳转,带参数传递跳转 itemClick(){ this.$router.push('/detail/'+this.goodsItem.iid) /* this.$router.push({ ...

太狠了,疫情期间面试,一个问题砍了我5000!

疫情期间找工作确实有点难度,想拿到满意的薪资,确实要点实力啊!面试官:Spring中的@Value用过么,介绍一下我:@Value可以标注在字段上面,可以将外部配置文件中的数据,比如可以...

你离黑客的距离,就差这20个神器了

郑重声明:本文仅限技术交流,不得用于从事非法活动 在不少电影电视剧中,主角的身边都有这么一位电脑高手:他们分分钟可以黑进反派的网络,攻破安全防线,破解口令密码,拿到重要文件。他们的电脑屏幕上都是一些看不懂的图形和数字,你能看懂的就只有那个进度条,伴随着紧张的BGM,慢慢的向100%靠近······ 上面的场景和套路是不是很眼熟? 影视作品中的黑客当然有夸张和戏剧化的表现,不过,现实世界中的黑客也...

Linux基础:xargs命令-I选项使用技巧

这篇文章使用具体示例来介绍一下xargs命令-I参数的常见使用方法。

相关热词 c#跨线程停止timer c#批量写入sql数据库 c# 自动安装浏览器 c#语言基础考试题 c# 偏移量打印是什么 c# 绘制曲线图 c#框体中的退出函数 c# 按钮透明背景 c# idl 混编出错 c#在位置0处没有任何行
立即提问