为什么有的网站链接只能看到部分目录

为什么有的网站链接只能看到部分目录看不到具体文件名 怎么判断这个网站是jap asp 还是php 比如知乎的这个http://www.zhihu.com/#signin

1个回答

有默认文档的,而且如果是重写过的,asp后缀并不到一定就是asp编写的。

这个网站的响应头也没有特殊的响应头,无法看出来什么语言,如有有一些服务器返回这种响应头


Server  Microsoft-IIS/6.0
X-Powered-By    ASP.NET

可以大概知道用什么系统和语言

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
访问iis所有动态页提示链接被重置http状态aborted

配置asp.net运行环境时,访问所有的动态页,如asp.net的aspx或者asp,都提示链接被重置,http状态为aborted。访问iis所有动态页提示链接被重置http状态aborted 访问iis所有动态页提示链接被重置http状态aborted 看系统系统日志也没用错误提示,不知道哪里权限配置错误了

用Python爬取豆瓣电影链接,为何爬下来的链接总是重复出现两次

from urllib.request import urlopen from bs4 import BeautifulSoup import re html = urlopen("https://movie.douban.com/") bsobj = BeautifulSoup(html) for titles in bsobj.findAll("li",{"class":"title"}): print(titles.get_text()) for link in bsobj.findAll("a",href = re.compile("https://movie.douban.com/subject/.*/?from=showing")): if 'href' in link.attrs: print(link.attrs['href']) ``` ``` ![图片说明](https://img-ask.csdn.net/upload/201907/08/1562574134_470876.png)

能在Apache下运行网站,但不能在nginx的根目录下运行,为什么?

**提示 403 Forbidden Nginx版本号错误** **两个服务可以同时启动,防火墙也允许了对应的端口** 错误日志/var/log/nginx/access.log 192.168.128.131 - - [30/May/2017:03:26:58 +0800] "GET /mysite/lyadmin/ HTTP/1.1" 403 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [30/May/2017:03:26:59 +0800] "GET /mysite/lyadmin/ HTTP/1.1" 403 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [30/May/2017:03:27:00 +0800] "GET /mysite/lyadmin/ HTTP/1.1" 403 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [30/May/2017:03:27:03 +0800] "GET /mysite/ HTTP/1.1" 403 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [30/May/2017:03:27:09 +0800] "GET /mysite/lyadmin/ HTTP/1.1" 403 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [30/May/2017:13:37:28 +0800] "GET /mysite/lyadmin/ HTTP/1.1" 403 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [30/May/2017:13:37:29 +0800] "GET /mysite/lyadmin/ HTTP/1.1" 403 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [30/May/2017:13:37:30 +0800] "GET /mysite/lyadmin/ HTTP/1.1" 403 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [30/May/2017:13:47:04 +0800] "GET /mysite/lyadmin/ HTTP/1.1" 403 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [30/May/2017:13:47:05 +0800] "GET /mysite/lyadmin/ HTTP/1.1" 403 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [30/May/2017:13:47:06 +0800] "GET /mysite/lyadmin/ HTTP/1.1" 403 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:04:13 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:04:13 +0800] "GET /favicon.ico HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:07:52 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:07:53 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:07:54 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:10:45 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:10:47 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:10:47 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:10:52 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:11:04 +0800] "GET /lyadmin HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:11:23 +0800] "GET /lyadmin/index.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:15:10 +0800] "GET /lyadmin/index.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:15:16 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:23:06 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:23:07 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:23:07 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:23:08 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:23:09 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:24:39 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:24:40 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" 192.168.128.131 - - [31/May/2017:16:24:45 +0800] "GET /info.php HTTP/1.1" 404 169 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" "-" **/etc/nginx/conf.d/default配置:** 这个配置是零云框架默认的,没改过 server { listen 80; root /usr/share/nginx/html/mysite; index index.html index.htm index.php; server_name localhost; location / { # URL重写支持 try_files $uri $uri/ /index.php?s=$uri&$args; } # 开启PHP支持 location ~ \.php { fastcgi_split_path_info ^(.+\.php)(.*)$; fastcgi_pass unix:/var/run/php5-fpm.sock; fastcgi_index index.php; fastcgi_param PATH_INFO $fastcgi_path_info; # 环境变量 fastcgi_param CT_DEV_MODE 'true'; # 加载Nginx默认"服务器环境变量"配置 include fastcgi_params; } } [链接](http://blog.csdn.net/han_cui/article/details/54892400?locationNum=14&fps=1 "") http://blog.csdn.net/han_cui/article/details/54892400?locationNum=14&fps=1 根据这个链接,加的代码却报错 fastcgi_param SCRIPT_FILENAME /usr/share/nginx/html/mysite/$fastcgi_script_name;

为什么访问同一个URL地址,Android和浏览器返回的数据不一样?

浏览器直接访问的结果如下:![图片说明](https://img-ask.csdn.net/upload/201506/04/1433412763_764327.png) Android端用URLConnection连接,给的URL和浏览器里输的地址相同。但返回的结果却是:![图片说明](https://img-ask.csdn.net/upload/201506/04/1433412913_433413.png) 这是为什么?

python scrapy爬虫 抓取的内容只有一条,怎么破??

目标URL:http://218.92.23.142/sjsz/szxx/Index.aspx(工作需要) 主要目的是爬取网站中的信件类型、信件主题、写信时间、回复时间、回复状态以及其中链接里面的具体内容,然后保存到excel表格中。里面的链接全部都是POST方法,没有出现一个具体的链接,所以我感觉非常恼火。 目前碰到的问题: 1、 但是我只能抓到第一条的信息,后面就抓不到了。具体是这条:市长您好: 我是一名事... 2、 scrapy运行后出现的信息是: 15:01:33 [scrapy] INFO: Scrapy 1.0.3 started (bot: spider2) 2016-01-13 15:01:33 [scrapy] INFO: Optional features available: ssl, http11 2016-01-13 15:01:33 [scrapy] INFO: Overridden settings: {'NEWSPIDER_MODULE': 'spider2.spiders', 'FEED_URI': u'file:///F:/\u5feb\u76d8/workspace/Pythontest/src/Scrapy/spider2/szxx.csv', 'SPIDER_MODULES': ['spider2.spiders'], 'BOT_NAME': 'spider2', 'USER_AGENT': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_3) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.54 Safari/536.5', 'FEED_FORMAT': 'CSV'} 2016-01-13 15:01:36 [scrapy] INFO: Enabled extensions: CloseSpider, FeedExporter, TelnetConsole, LogStats, CoreStats, SpiderState 2016-01-13 15:01:38 [scrapy] INFO: Enabled downloader middlewares: HttpAuthMiddleware, DownloadTimeoutMiddleware, UserAgentMiddleware, RetryMiddleware, DefaultHeadersMiddleware, MetaRefreshMiddleware, HttpCompressionMiddleware, RedirectMiddleware, CookiesMiddleware, ChunkedTransferMiddleware, DownloaderStats 2016-01-13 15:01:38 [scrapy] INFO: Enabled spider middlewares: HttpErrorMiddleware, OffsiteMiddleware, RefererMiddleware, UrlLengthMiddleware, DepthMiddleware 2016-01-13 15:01:38 [scrapy] INFO: Enabled item pipelines: 2016-01-13 15:01:38 [scrapy] INFO: Spider opened 2016-01-13 15:01:38 [scrapy] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min) 2016-01-13 15:01:38 [scrapy] DEBUG: Telnet console listening on 127.0.0.1:6023 2016-01-13 15:01:39 [scrapy] DEBUG: Crawled (200) <GET http://218.92.23.142/sjsz/szxx/Index.aspx> (referer: None) 2016-01-13 15:01:39 [scrapy] DEBUG: Filtered duplicate request: <GET http://218.92.23.142/sjsz/szxx/Index.aspx> - no more duplicates will be shown (see DUPEFILTER_DEBUG to show all duplicates) 2016-01-13 15:01:39 [scrapy] DEBUG: Crawled (200) <GET http://218.92.23.142/sjsz/szxx/Index.aspx> (referer: http://218.92.23.142/sjsz/szxx/Index.aspx) 2016-01-13 15:01:39 [scrapy] DEBUG: Crawled (200) <POST http://218.92.23.142/sjsz/szxx/Index.aspx> (referer: http://218.92.23.142/sjsz/szxx/Index.aspx) 2016-01-13 15:01:39 [scrapy] DEBUG: Redirecting (302) to <GET http://218.92.23.142/sjsz/szxx/GkResult.aspx?infoid=3160105094757> from <POST http://218.92.23.142/sjsz/szxx/Index.aspx> 2016-01-13 15:01:39 [scrapy] DEBUG: Crawled (200) <GET http://218.92.23.142/sjsz/szxx/GkResult.aspx?infoid=3160105094757> (referer: http://218.92.23.142/sjsz/szxx/Index.aspx) 2016-01-13 15:01:39 [scrapy] DEBUG: Scraped from <200 http://218.92.23.142/sjsz/szxx/GkResult.aspx?infoid=3160105094757> 第一条的信息(太多了,就省略了。。。。) 2016-01-13 15:01:39 [scrapy] DEBUG: Crawled (200) <POST http://218.92.23.142/sjsz/szxx/Index.aspx> (referer: http://218.92.23.142/sjsz/szxx/Index.aspx) ………… 后面的差不多,就不写出来了 2016-01-13 15:01:41 [scrapy] INFO: Stored csv feed (1 items) in: file:///F:/快盘/workspace/Pythontest/src/Scrapy/spider2/szxx.csv 2016-01-13 15:01:41 [scrapy] INFO: Dumping Scrapy stats: {'downloader/request_bytes': 56383, 'downloader/request_count': 17, 'downloader/request_method_count/GET': 3, 'downloader/request_method_count/POST': 14, 'downloader/response_bytes': 118855, 'downloader/response_count': 17, 'downloader/response_status_count/200': 16, 'downloader/response_status_count/302': 1, 'dupefilter/filtered': 120, 'finish_reason': 'finished', 'finish_time': datetime.datetime(2016, 1, 13, 7, 1, 41, 716000), 'item_scraped_count': 1, 'log_count/DEBUG': 20, 'log_count/INFO': 8, 'request_depth_max': 14, 'response_received_count': 16, 'scheduler/dequeued': 17, 'scheduler/dequeued/memory': 17, 'scheduler/enqueued': 17, 'scheduler/enqueued/memory': 17, 'start_time': datetime.datetime(2016, 1, 13, 7, 1, 38, 670000)} 2016-01-13 15:01:41 [scrapy] INFO: Spider closed (finished) 具体的代码如下(代码写的不好,误喷): import sys, copy reload(sys) sys.setdefaultencoding('utf-8') sys.path.append("../") from scrapy.spiders import CrawlSpider from scrapy.http import FormRequest, Request from scrapy.selector import Selector from items import Spider2Item class Domeszxx(CrawlSpider): name = "szxx" allowed_domain = ["218.92.23.142"] start_urls = ["http://218.92.23.142/sjsz/szxx/Index.aspx"] item = Spider2Item() def parse(self, response): selector = Selector(response) # 获得下一页的POST参数 viewstate = ''.join(selector.xpath('//input[@id="__VIEWSTATE"]/@value').extract()[0]) eventvalidation = ''.join(selector.xpath('//input[@id="__EVENTVALIDATION"]/@value').extract()[0]) nextpage = ''.join( selector.xpath('//input[@name="ctl00$ContentPlaceHolder1$GridView1$ctl12$txtGoPage"]/@value').extract()) nextpage_data = { '__EVENTTARGET': 'ctl00$ContentPlaceHolder1$GridView1$ctl12$cmdNext', '__EVENTARGUMENT': '', '__VIEWSTATE': viewstate, '__VIEWSTATEGENERATOR': '9DEFE542', '__EVENTVALIDATION': eventvalidation, 'ctl00$ContentPlaceHolder1$GridView1$ctl12$txtGoPage': nextpage } # 获得抓取当前内容的xpath xjlx = ".//*[@id='ContentPlaceHolder1_GridView1_Label2_" xjzt = ".//*[@id='ContentPlaceHolder1_GridView1_LinkButton5_" xxsj = ".//*[@id='ContentPlaceHolder1_GridView1_Label4_" hfsj = ".//*[@id='ContentPlaceHolder1_GridView1_Label5_" nextlink = '//*[@id="ContentPlaceHolder1_GridView1_cmdNext"]/@href' # 获取当前页面公开答复的行数 listnum = len(selector.xpath('//tr')) - 2 # 获得抓取内容 for i in range(0, listnum): item_all = {} xjlx_xpath = xjlx + str(i) + "']/text()" xjzt_xpath = xjzt + str(i) + "']/text()" xxsj_xpath = xxsj + str(i) + "']/text()" hfsj_xpath = hfsj + str(i) + "']/text()" # 信件类型 item_all['xjlx'] = selector.xpath(xjlx_xpath).extract()[0].decode('utf-8').encode('gbk') # 信件主题 item_all['xjzt'] = str(selector.xpath(xjzt_xpath).extract()[0].decode('utf-8').encode('gbk')).replace('\n', '') # 写信时间 item_all['xxsj'] = selector.xpath(xxsj_xpath).extract()[0].decode('utf-8').encode('gbk') # 回复时间 item_all['hfsj'] = selector.xpath(hfsj_xpath).extract()[0].decode('utf-8').encode('gbk') # 获取二级页面中的POST参数 eventtaget = 'ctl00$ContentPlaceHolder1$GridView1$ctl0' + str(i + 2) + '$LinkButton5' content_data = { '__EVENTTARGET': eventtaget, '__EVENTARGUMENT': '', '__VIEWSTATE': viewstate, '__VIEWSTATEGENERATOR': '9DEFE542', '__EVENTVALIDATION': eventvalidation, 'ctl00$ContentPlaceHolder1$GridView1$ctl12$txtGoPage': nextpage } # 完成抓取信息的传递 yield Request(url="http://218.92.23.142/sjsz/szxx/Index.aspx", callback=self.send_value, meta={'item_all': item_all, 'content_data': content_data}) # 进入页面中的二级页面的链接,必须利用POST方法才能提交,无法看到直接的URL,同时将本页中抓取的item和进入下一页的POST方法进行传递 # yield Request(url="http://218.92.23.142/sjsz/szxx/Index.aspx", callback=self.getcontent, # meta={'item': item_all}) # yield FormRequest(url="http://218.92.23.142/sjsz/szxx/Index.aspx", formdata=content_data, # callback=self.getcontent) # 进入下一页 if selector.xpath(nextlink).extract(): yield FormRequest(url="http://218.92.23.142/sjsz/szxx/Index.aspx", formdata=nextpage_data, callback=self.parse) # 将当前页面的值传递到本函数并存入类的item中 def send_value(self, response): itemx = response.meta['item_all'] post_data = response.meta['content_data'] Domeszxx.item = copy.deepcopy(itemx) yield FormRequest(url="http://218.92.23.142/sjsz/szxx/Index.aspx", formdata=post_data, callback=self.getcontent) return # 将二级链接中值抓取并存入类的item中 def getcontent(self, response): item_getcontent = { 'xfr': ''.join(response.xpath('//*[@id="lblXFName"]/text()').extract()).decode('utf-8').encode('gbk'), 'lxnr': ''.join(response.xpath('//*[@id="lblXFQuestion"]/text()').extract()).decode('utf-8').encode( 'gbk'), 'hfnr': ''.join(response.xpath('//*[@id="lblXFanswer"]/text()').extract()).decode('utf-8').encode( 'gbk')} Domeszxx.item.update(item_getcontent) yield Domeszxx.item return

如何破解“请在微信客户端打开连接”限制

我现在抓取到一个公众号调用微信的登录方式,取到了关键的Cookies 其他页面只要带上这个COOKIES就会认为,这次访问是在微信客户端登陆的 但是有个问题,就是这个Cookies过段时间会自动失效 因为技术有限,我找不到让这个COOKIES生效的访问是在哪里。 公众号:深圳电信 关注之后有个,我的服务》安装|修障》装机评价 要访问到装机评价的面页关键的Cookies才生效,这个关键Cookies是每个微信号固定不变的 现在主要是不知道哪个访问是让这个COOKIES生效的。 现在目前主要的问题是: 1:不知道哪个关键请求是让这个Cookies生效,我现在的方法是,当这个COOKIES失效了,我就用手机微信登陆这个公众,这时候还不能生效,进入了装机评价后这个COOKIES就生效了。 2:有小部分的时候我用手机登陆之后,这个COOKIES还是不能生效,用微信抓取的包进行模拟请求,可以正常解析,但是如果用我写的软件模拟请求,参数,COOKIES,等所有信息都一致的情况下,一样会返回请在微信客户端登陆。 各位大神来回答问题。网上17年12月的时候别人研究的成果修改:修改User-Agent的MicroMessenger改成:micromessahe,无效。

网站因为http https问题打不开了

网站http 和http问题 ![图片说明](http://yanxuan.nosdn.127.net/b7db1080571481889f87e0f5f57c3251.png) 域名加了个cerbot的什么https证书 但是我的网站的所有文件的请求是通过http来的,因此http请求的被认为是不安全的,因而被拦截。 ![图片说明](http://yanxuan.nosdn.127.net/e647d18f779caf613fe3e62344989698.png) 请问我如何解决才能打开网站,nginx配置试着删除https配置那一段 可还是打不开

点击导航的一级菜单和二级菜单时,页面会整体刷新,我只想页面刷新,导航不刷新。跪求啊?

![图片说明](https://img-ask.csdn.net/upload/201604/19/1461068203_316094.png) ![图片说明](https://img-ask.csdn.net/upload/201604/19/1461068653_401069.png) 我想要这样的。我们的导航和页面是分开写的,最后用链接组合网页。代码如下: ![图片说明](https://img-ask.csdn.net/upload/201604/19/1461068760_650099.png) JS如下: $(function() { $(".unified_click>a").click(function () { $(this).parents().siblings().find(".unified_content").hide(300); $(this).siblings(".unified_content").toggle(300); }); }) 等页面组合后,一点击导航,页面就会全部刷新,怎么做才能保持页面刷新,导航保持原状?a标签的href是要输入一个链接的,用来连接相应的网页,怎么用AJAX来刷新了?求代码 HTML代码不能放上去,只能放图片,麻烦各位大神了

【PAT 1016 部分A+B】已知通过答案,想搞清楚自己的代码哪里出错,求前辈赐教,谢谢!

初学不久,求各位前辈赐教。OJ上只能部分通过,感激不尽! 是哪里出了问题?这样的思路需要改正吗? 附题目链接:http://www.cnblogs.com/fyymonica/p/3723672.html #include <cstdio> #include <stdlib.h> #include <string.h> int main(){ int i; long long ans; char A[15],a[1],b[1],B[15],ans1[15]="0",ans2[15]="0"; while(scanf("%s%s%s%s",A,a,B,b)!=EOF){ for(i=0;i<10;i++){ if(A[i]==a[0]){ strcat(ans1,a); } if(B[i]==b[0]){ strcat(ans2,b); } } ans=atoi(ans1)+atoi(ans2); printf("%ld\n",ans); } return 0; }

爬虫爬取图片时爬取的不完整的相关问题

我想要爬取lol官网的一些特定图片,不管是英雄图标还是活动图标: ![图片说明](https://img-ask.csdn.net/upload/201902/16/1550320399_707744.jpg) ![图片说明](https://img-ask.csdn.net/upload/201902/16/1550320412_888600.jpg) 由于电脑截图出了点问题,所以只能手机拍照,不好意思。 可以看到这个网页里面有很多这种图片,而且sec都是有类似的格式,以//ossweb-img.qq.com开头 我想爬取这些图片 我的代码: ``` import os from urllib.request import urlopen from urllib.request import urlretrieve from bs4 import BeautifulSoup import re baseURL="http://lol.qq.com/main.shtml?ADTAG=lolweb.v3.index" html=urlopen("https://lol.qq.com/main.shtml?ADTAG=lolweb.v3.index") bsobj=BeautifulSoup(html,"lxml") downloadlist=bsobj.findAll(src=re.compile(".*ossweb-img.qq.com.*png")) print(downloadlist) a=1 def cbk(a,b,c): 下载进度函数 per=100.0*a*b/c if per>=100: per=100 print ('%.2f'%per) for download in downloadlist: fileURL=download['src'] if fileURL is not None: fileURL="http:"+fileURL print(fileURL) urlretrieve(fileURL,"download"+str(a)+".png",cbk) a=a+1 ``` 但是它只下载了该网页第一个div容器里的图片,其他的都没下载,这时为什么

为什么Android的网页视图会黑屏显示?

我一直在尝试让网页视图能够正常运行,但是还是不行。下面是主类的代码: public class fkyougoogle extends Activity { /** Called when the activity is first created. */ WebView webview; @Override public void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentView(R.layout.main); webview = (WebView) findViewById(R.id.webview); webview.getSettings().setJavaScriptEnabled(true); // WORKS //webview.loadUrl("http://www.google.com"); // DOESN'T WORK //webview.loadUrl("http://www.theregister.co.uk"); //webview.loadData("<html><body>hello</body></html>", "text/html", "utf-8"); //webview.loadDataWithBaseURL("fake://", "<html><body>hello</body></html>", "text/html", "utf-8", "http://www.theregister.co.uk/"); } } 这是Google里“Hello,Webview”的案例。如果我使用WebView 进入www.google.com,程序可以运行。如果我想连接别的网站,数据加载就会失败,并且以黑屏显示。最后我只能从本机文件中读出数据。我在程序中缺少什么了吗?

jsPDF 怎么可以支持图片呢?或者可以有其他支持图片,中文的保存为pdf格式的插件。

求大神指点jsPdf怎么可以把图像也打印出来呢?或者可以有其他支持图片,中文的保存为pdf格式的插件。

websocket连接成功建立以后前台的onmessage不会自动触发,为什么?

前端:vue 后台:node 如题,websocket已经成功连接,readystate状态码是1(已建立连接可通讯的意思),后台向前台推送的数据其实是可以接收到的,但是只能靠我手动刷新页面,他才会调用一次onmessage回调方法,没有办法实时接收到数据,这是为啥,求大神指点QAQ 前端代码: ``` // 建立通讯 initWebSocket () { var that = this ws = new WebSocket('ws://localhost:8081') ws.onopen = function () { that.socketOpen() } ws.onmessage = function (data) { that.socketMsg(data) } ws.onclose = function (e) { that.socketClose(e) } ws.onerror = function (err) { console.log(err) } }, socketMsg (data) { console.log(JSON.parse(data.data)) } ``` node后台(设置定时器,查表后定时向前台推送): ``` var WebSocketServer = require('ws').Server, wss = new WebSocketServer({ port: 8081 }); wss.on('connection', function (ws) { console.log('client connected'); saleRecord(); }); var time = setTimeout(saleRecord, 5000); function saleRecord () { db.select(connection, sql, function (res) { // ... wss.on('connection', function (ws) { // ... ws.send(JSON.stringify(data)); }); }); clearTimeout(time); setTimeout(saleRecord, 5000); } ```

eclipse中jsp能连接数据库但是访问不了数据库里面的表!!!

代码如下: <%@ page language="java" contentType="text/html; charset=UTF-8" pageEncoding="UTF-8"%> <%@page import="java.sql.*" %> <!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd"> <html> <head> <meta http-equiv="Content-Type" content="text/html; charset=UTF-8"> <title>Insert title here</title> </head> <body> <center> <br><br><br> <h2>使用jdbc访问sqlserver2008数据库</h2> <hr> <table width=800 border=2 align="center"> <tr> <th>学号</th> <th>班级</th> <th>姓名</th> <th>密码</th> </tr> <% try{ Class.forName("com.microsoft.sqlserver.jdbc.SQLServerDriver"); }catch(Exception q) { q.printStackTrace(); } String dbUrl = "jdbc:sqlserver://USER-20151124PC:50493;DatabaseName=Xk1"; String user="sa"; String pwd="sa"; try { Connection conn=DriverManager.getConnection(dbUrl,user,pwd); Statement stmt=conn.createStatement(); String sql="select * from Name"; ResultSet rs=stmt.executeQuery(sql); while(rs.next()){ %> <tr> <td><%=rs.getString("Id")%></td> <td><%=rs.getString("Name") %></td> <td><%=rs.getString("Age")%></td> <td><%=rs.getString("Sex") %></td> </tr> <% } rs.close(); stmt.close(); conn.close(); } catch (SQLException e) { // TODO Auto-generated catch block e.printStackTrace(); } %> </table> <hr> </center> </body> </html> 然后访问是这样![图片说明](https://img-ask.csdn.net/upload/201604/27/1461749419_558910.png) 帮忙纠正一下!!

labview生成的动链接态库dll,WIN7下调用提示加载运行库lvrt.dll出现系统错误998

在WIN8系统VC++2008下调用dll成功,但在WIN7和XP同样环境下提示加载labview运行库(lvrt.dll)出现系统错误998.这个问题我折腾了不少时间,因为我的软件不能在WIN8上使用(雷赛板卡至今没有出WIN8的驱动,真坑人),只能在WIN7或XP下使用。软件主框架用VC++2008开发,其中使用到labview(2011版本)的部分功能,所以把VI封装成dll来调用。 求高人解答![图片说明](https://img-ask.csdn.net/upload/201507/12/1436674718_622512.png)

C#实现delphi程序中DBConn.udl数据库链接工具,请高手解答疑惑

第1步可以获取所有区域网内的服务器名,但是第三步骤无法从特定的服务器名下,通过用户名和密码,得到数据库 代码: using System; using System.Collections.Generic; using System.ComponentModel; using System.Data; using System.Drawing; using System.Linq; using System.Text; using System.Threading.Tasks; using System.Windows.Forms; using StudentManager.com.huixin.util; using System.Collections; using System.Data.ProviderBase; using SQLDMO; using System.Data.SqlClient; namespace StudentManager { public partial class DataSourceConfig : Form { //连接数据库的类型 private String sqlConType = ""; public DataSourceConfig() { InitializeComponent(); } //配置数据库链接的窗体关闭时,打开相对应登录窗体 private void DataSourceConfig_FormClosed(object sender, FormClosedEventArgs e) { try { //杀死进程 //System.Diagnostics.Process.GetCurrentProcess().Kill(); //关闭当前窗体 //终止当前进程并为基础操作系统提供指定的退出代码 //System.Environment.Exit(System.Environment.ExitCode); this.Dispose(); this.Close(); //打开登录窗体 LoginForm lf = new LoginForm(); lf.Show(); // LoginForm.loginFrm.Show(); } catch (Exception ex) { Console.WriteLine("连接数据的窗体进程出错了:" + ex.Message); } } //显示组合框的下拉部分时发生 private void comboBox1_DropDown(object sender, EventArgs e) { this.comboBox1.DataSource = SqlLocator.GetLocalSqlServerNamesWithSqlClientFactory(); this.comboBox1.DisplayMember = "ServerName"; } //当用户点击刷新按钮时,将局域网内服务器和实例名给comobox private void button1_Click(object sender, EventArgs e) { this.comboBox1.DataSource = SqlLocator.GetLocalSqlServerNamesWithSqlClientFactory(); this.comboBox1.DisplayMember = "ServerName"; } //在窗体加载时,将Sql Server按钮以及和他相关两个文本框禁用 private void DataSourceConfig_Load(object sender, EventArgs e) { //Windows的按钮默认被选中 this.radioButton1.Select(); this.textBox1.Enabled = false; this.textBox2.Enabled = false; } private void radioButton1_Click(object sender, EventArgs e) { if (this.radioButton1.Checked == true) { sqlConType = "0"; } } private void radioButton2_CheckedChanged(object sender, EventArgs e) { if (this.radioButton2.Checked == true) { sqlConType = "1"; this.textBox1.Enabled = true; this.textBox2.Enabled = true; } } //3.点击数据库链接时显示时,组合框的下拉部分时发生 private void comboBox2_DropDown(object sender, EventArgs e) { //通过第一步输入的服务器实例名,从而找到步骤三中的数据库 //通过判断用户点击的属于哪一种数据库连接方式,从而判断采用什么方法 if (sqlConType == "0") { //用户选择的是Windows方式 this.comboBox2.DataSource = GetDataBaseList(this.comboBox1.SelectedItem.ToString()); this.comboBox2.DisplayMember = ""; } else if (sqlConType == "1") { //用户选择了Sql Server方式 this.comboBox2.DataSource = GetDataBaseList(this.comboBox1.SelectedItem.ToString(),this.textBox1.Text.Trim().ToString(),this.textBox2.Text.Trim().ToString()); this.comboBox2.DisplayMember = ""; } } //得到指定SQL服务器所有数据库的列表 //这种输入Sql Server模式,需要用户名和密码 public ArrayList GetDataBaseList(string ServerName, string UserName, string Pwd) { //一般使用SQLDMO,只能用于sql server2005一般的版本 ArrayList list = new ArrayList(); SqlConnection conn = new SqlConnection("Uid=" + UserName + ";Pwd=" + Pwd + ";Data Source=SQL2012;Integrated Security=false;"); ; SqlCommand cmd = new SqlCommand("select name from sys.databases where database_id > 4", conn); ; try { if (conn.State == ConnectionState.Closed){ conn.Open(); SqlDataReader dr = cmd.ExecuteReader(); while (dr.Read()) { list.Add(dr[0]); } } } catch (Exception ex) { MessageBox.Show(ex.Message); } finally { if (conn != null && conn.State == ConnectionState.Open) { conn.Close(); conn.Dispose(); //释放资源 } } /** SQLDMO.Application sqlApp = new SQLDMO.Application(); SQLDMO.SQLServer oServer = new SQLDMO.SQLServer("Data Source="+ServerName+";Persist Security Info=True;UID="+UserName+";PWD="+Pwd+""); oServer.Connect(ServerName,UserName,Pwd); foreach (SQLDMO.Database db in oServer.Databases) { if ((db.Name != null) && (db.SystemObject == false)) { list.Add(db.Name); } } **/ return list; } //这种属于Windows方式 //此时链接数据库时,需要加integrated security=SSPI public ArrayList GetDataBaseList(string ServerName) { //一般使用SQLDMO,只能用于sql server2005一般的版本 ArrayList list = new ArrayList(); SqlConnection conn = new SqlConnection("Data Source=" + ServerName + ";Integrated Security=SSPI;Initial Catalog=mwyqms_2016-03-25"); SqlCommand cmd = new SqlCommand("select name from sys.databases where database_id > 4", conn); ; try { if (conn.State == ConnectionState.Closed) { conn.Open(); SqlDataReader dr = cmd.ExecuteReader(); while (dr.Read()) { list.Add(dr[0]); } } } catch (Exception ex) { MessageBox.Show(ex.Message); } finally { if (conn != null && conn.State == ConnectionState.Open) { conn.Close(); conn.Dispose(); //释放资源 } } return list; } } } 效果![图片说明](https://img-ask.csdn.net/upload/201607/03/1467514278_53237.png)

基于网页的课程管理系统,只要前端部分(用于静态内容的 HTML 5 用于格式化的 CSS 和引导 JavaScript、Ajax 和 jQuery 用于客户端交互) 上代码采纳

该作业旨在为 某某大学 构建课程管理系统 (CMS),使 大学管理单位招生,以及教程分配。CMS 提供以下功能: • 单位管理 • 教程分配管理 • 学生管理 • 学术人员信息 home page: 这是课程管理系统 (CMS) 的起点,该系统将链接: • 登录/注销部分 • 注册到 CMS • 单位注册 • 单位详情(如手册) • 个别时间表(例如,我的时间表) 对于分配 1,登录/注销部分不需要对用户进行身份验证(即没有数据库) 需要访问)。 注册界面: 这是新的学生和教职员工可以注册使用CMS的地方。 要使用 CMS,学生必须首先通过提供学生 ID、姓名、电子邮件地址、密码进行注册。 如前所述,地址、出生日期和电话号码是可选的。 要使用 CMS,学术人员必须首先提供姓名、员工 ID、密码、电子邮件 地址、资格(如博士、硕士等)、专业知识(如信息系统、人机 交互、网络管理等),电话号码。添加到系统后,UC 还可以 使用学术人员的硕士名单为单位分配导师。 此时必须应用要注册者的正确输入验证,包括 • 新用户必须填写注册表中的每个必填字段 • 双重输入密码检查 • 电子邮件格式检查 • 密码为 o 6 到 12 个字符的长度 o 包含至少 1 个小写字母、1 个大写字母、1 个数字和 1 个 跟随特殊字符!@ # $ % ^ 对于分配 1,注册页不需要存储注册数据(即没有数据库) 需要访问) 单位详细信息页面: 对于任务 1,仅设计以下组件的显示格式(即没有数据库 要求)。对于分配 2,将从数据库表中检索单元详细信息。将显示: • 单位协调员和讲师 • 设备简介 • 可用的学期和校园 • 链接到单位注册页面 单位注册页面: 这是学生可以进入这个单位的地方。可用单位显示在 此页包含可用性(学期和校园)。 不需要数据库 个人时间表页面: 将显示(例如"我的时间表"): • 注册单位的讲座时间 • 已注册单位的选定辅导时间 • 链接到单位注册页面和教程分配页面 如果用户已登录,他们可以查看其每周时间表,包括讲座和辅导时间。 对于任务 1 时间表页不需要显示其每周时间表(即没有数据库) 需要访问),但包括时间表的视觉设计 教程分配系统: 如果用户未登录,他们只能查看时间表。他们不能在 教程。 • 每个注册单元的所有辅导时间,其容量为房间(例如 15 或 20)和 位置 学术工作人员主页: 有一份具有资格、专业知识、首选教学日、咨询的教职员工名单 小时。DC 创建、编辑或删除列表中的教职员工,这些教职员工可用于选择 Uc。 UC 从上面的列表为每个单元分配讲师。 要为每个单元分配讲师,UC 必须选择 • 校园 • 学期 对于作业 1,硕士教职员工列表页不需要存储对列表的任何更改 或其中的项目(即不需要数据库访问)。 最终交付 • 主页 • 注册页面 • 主列表: o 教职员工和 o 单位详细信息 • 单位详细信息页面 • 单位注册页面 • 个人时间表页面 • 小班分配页面 该网站作为一个全面的门户,提供课程时间表、课程详细信息、员工的学术信息 和职能,如课程分配和课程注册。 学生、课程协调员(Unit Coordinator )、大课讲师、导师以及学位的 协调员 (Degree Coordinator) 是主要用户。 将有两个硕士名单:学术工作人员和单位。 学术人员的硕士名单包含大学工作人员、讲师和导师的名单。单位主列表 包含 (大学) 提供的单位列表。学位协调员可以管理两个主列表 学术工作人员和单位。 每个Unit Coordinator 将负责从"学术人员名单"中挑选导师。这将是 包含在单位详细信息中。(即每个单元的导师名单) 每个单位将至少有2名教职员工(人数由Degree Coordinator决定),其中一人将 由 Degree Coordinator分配为Unit Coordinator 。讲师和导师可以列入名册,在任何单位工作,但可以 一次在每个单位只担任一名讲师。 要使用 CMS,教职员工和学生必须首先提供学生/员工 ID、姓名、电子邮件 地址和密码的强制性信息。地址、出生日期和电话号码是 选。 每个班级的学生能力最高。如果一个班级已满,学生无法注册 到它。相反,他们必须选择另一个可用的类。例如,如果教程的容量是 最多 20 人,则一旦教程已满,学生将无法加入该教程。也 不同的实验室有不同的容量,在学生分配时将应用这些容量。 用户介绍: 1. 学位管理员: 将决定 o 每学期将提供哪些单位;和 o 谁将为每个单元授课 2. 课程管理员: 将决定 o 谁将成为每节课程的讲师 校园; o 讲课时间;和 o 教程时间 = 可以添加或删除导师/学生 3. 讲师: • 可以查看相应单元的学生列表 • 可以添加或删除导师/学生 4.导师:可以查看相应教程的学生列表 5. 学生:可以注册课程以及上课的时间

关于Jsoup爬取数据,有没有大神教一下~

这段时间朋友偶然提起爬虫,我就想试试,然后用了Jsoup进行爬取,过了入门,我就在想,怎么用Jsoup爬取一个网站最近一周发布的链接呢。 我的问题总结就是:怎么用Jsoup根据时间和文章标题关键字进行筛选爬取。

BS结构中,浏览器使用的端口能否指定

在CS结构中如建立socket连接,我可以设置客户端和服务端的端口号,但是在BS结构的程序中,比如我写一个asp.net的程序,我只能设定服务的端口(5001),测试了一下浏览器的端口号似乎是随机的(5424、5425等),每次重开浏览器端口会变化。 ![图片说明](https://img-ask.csdn.net/upload/202001/16/1579137060_246554.png) 想请问一下浏览器使用哪个端口是如何确定的,能不能通过程序或浏览器设置的方式人工指定为特定的端口,或者一个范围? 如果不能指定的,防火墙如果禁用了大部分端口,怎么保证浏览器使用的那个端口一定能通过防火墙呢?

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

搜狗输入法也在挑战国人的智商!

故事总是一个接着一个到来...上周写完《鲁大师已经彻底沦为一款垃圾流氓软件!》这篇文章之后,鲁大师的市场工作人员就找到了我,希望把这篇文章删除掉。经过一番沟通我先把这篇文章从公号中删除了...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

优雅的替换if-else语句

场景 日常开发,if-else语句写的不少吧??当逻辑分支非常多的时候,if-else套了一层又一层,虽然业务功能倒是实现了,但是看起来是真的很不优雅,尤其是对于我这种有强迫症的程序"猿",看到这么多if-else,脑袋瓜子就嗡嗡的,总想着解锁新姿势:干掉过多的if-else!!!本文将介绍三板斧手段: 优先判断条件,条件不满足的,逻辑及时中断返回; 采用策略模式+工厂模式; 结合注解,锦...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

2020阿里全球数学大赛:3万名高手、4道题、2天2夜未交卷

阿里巴巴全球数学竞赛( Alibaba Global Mathematics Competition)由马云发起,由中国科学技术协会、阿里巴巴基金会、阿里巴巴达摩院共同举办。大赛不设报名门槛,全世界爱好数学的人都可参与,不论是否出身数学专业、是否投身数学研究。 2020年阿里巴巴达摩院邀请北京大学、剑桥大学、浙江大学等高校的顶尖数学教师组建了出题组。中科院院士、美国艺术与科学院院士、北京国际数学...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

程序员为什么千万不要瞎努力?

本文作者用对比非常鲜明的两个开发团队的故事,讲解了敏捷开发之道 —— 如果你的团队缺乏统一标准的环境,那么即使勤劳努力,不仅会极其耗时而且成果甚微,使用...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

面试了一个 31 岁程序员,让我有所触动,30岁以上的程序员该何去何从?

最近面试了一个31岁8年经验的程序猿,让我有点感慨,大龄程序猿该何去何从。

大三实习生,字节跳动面经分享,已拿Offer

说实话,自己的算法,我一个不会,太难了吧

程序员垃圾简历长什么样?

已经连续五年参加大厂校招、社招的技术面试工作,简历看的不下于万份 这篇文章会用实例告诉你,什么是差的程序员简历! 疫情快要结束了,各个公司也都开始春招了,作为即将红遍大江南北的新晋UP主,那当然要为小伙伴们做点事(手动狗头)。 就在公众号里公开征简历,义务帮大家看,并一一点评。《启舰:春招在即,义务帮大家看看简历吧》 一石激起千层浪,三天收到两百多封简历。 花光了两个星期的所有空闲时...

《Oracle Java SE编程自学与面试指南》最佳学习路线图2020年最新版(进大厂必备)

正确选择比瞎努力更重要!

《Oracle Java SE编程自学与面试指南》最佳学习路线图(2020最新版)

正确选择比瞎努力更重要!

都前后端分离了,咱就别做页面跳转了!统统 JSON 交互

文章目录1. 无状态登录1.1 什么是有状态1.2 什么是无状态1.3 如何实现无状态1.4 各自优缺点2. 登录交互2.1 前后端分离的数据交互2.2 登录成功2.3 登录失败3. 未认证处理方案4. 注销登录 这是本系列的第四篇,有小伙伴找不到之前文章,松哥给大家列一个索引出来: 挖一个大坑,Spring Security 开搞! 松哥手把手带你入门 Spring Security,别再问密...

字节跳动面试官竟然问了我JDBC?

轻松等回家通知

面试官:你连SSO都不懂,就别来面试了

大厂竟然要考我SSO,卧槽。

阿里面试官让我用Zk(Zookeeper)实现分布式锁

他可能没想到,我当场手写出来了

终于,月薪过5万了!

来看几个问题想不想月薪超过5万?想不想进入公司架构组?想不想成为项目组的负责人?想不想成为spring的高手,超越99%的对手?那么本文内容是你必须要掌握的。本文主要详解bean的生命...

自从喜欢上了B站这12个UP主,我越来越觉得自己是个废柴了!

不怕告诉你,我自从喜欢上了这12个UP主,哔哩哔哩成为了我手机上最耗电的软件,几乎每天都会看,可是吧,看的越多,我就越觉得自己是个废柴,唉,老天不公啊,不信你看看…… 间接性踌躇满志,持续性混吃等死,都是因为你们……但是,自己的学习力在慢慢变强,这是不容忽视的,推荐给你们! 都说B站是个宝,可是有人不会挖啊,没事,今天咱挖好的送你一箩筐,首先啊,我在B站上最喜欢看这个家伙的视频了,为啥 ,咱撇...

代码注释如此沙雕,会玩还是你们程序员!

某站后端代码被“开源”,同时刷遍全网的,还有代码里的那些神注释。 我们这才知道,原来程序员个个都是段子手;这么多年来,我们也走过了他们的无数套路… 首先,产品经理,是永远永远吐槽不完的!网友的评论也非常扎心,说看这些代码就像在阅读程序员的日记,每一页都写满了对产品经理的恨。 然后,也要发出直击灵魂的质问:你是尊贵的付费大会员吗? 这不禁让人想起之前某音乐app的穷逼Vip,果然,穷逼在哪里都是...

立即提问
相关内容推荐