新浪finance的接口如何获取复权后的数据?参数是什么?

在一个网站看到有如下新浪接口,可以获得股票的历史数据的XML格式。
biz.finance.sina.com.cn/stock/flash_hq/kline_data.php?symbol=sh000001&end_date=20120101

但是在网上并没有找到详细的参数文档。
不知道我该如何通过这个接口获取复权后的数据?

1个回答

请问你现在找到问题的答案了么?

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
雅虎finance API获取股票数据的问题

时间参数已经被规定死了吗? 只能有年月日我想取指定时间段的股价变化取不到吗? 难道只能取到某一天的? 还请各位大神指导

如何获取动态网页中的数据

我不懂网页开发,对静态的网页分析还行,类似这样的动态网页http://vip.stock.finance.sina.com.cn/mkt/?f=caishou#new_blhy 就毫无头绪了。查看网页源代码,找不到动态数据是怎么获取的。对于这类动态网页,我怎么找到获取动态网页的接口,写一个本地网页,通过浏览器运行,把这些数据获取之后,写到本地的文件之中,方便进一步处理。不讲究效率,越简单越好。

新浪实时数据用什么方式加解密,想用一下这个数据

http://finance.sina.com.cn/realstock/company/sh600000/hisdata/2014/04.js var MLC_sh600000_2014_04="IC+4ECgUQTMPwOWB6GwVwg8JYqnB8QH+MAd8+2XEQ5MjgEExCEYAxX5cgld2nkBEhE8hAXk5TMwjtkRB+EbNLChRc2HYRAhSPgD3JnAhvm3ALQcIOwh8dagvz3RPgHIx9B8FJVtBI39M6AX0H4FwjHR3A0uat5ARCu8JIGf0hFTiaXQg2KNgdIGkC2FCQeBcnJpEhR4EKKHUhnWug

如何用vba 获取美股的历史数据

如AAPL , 1小时的三天历史K线数据,网上有说用“Microsoft.XMLHttp”可以获取,请问有大侠可以给个源码吗?

jQuery中的ajax方法获取到json数据中文会乱码

接口如下:http://cre.mix.sina.com.cn/api/finance/topstock_display 这个接口 默认返回是 gbk的编码 支持 oe=utf-8,但是xtmlhttprequest 返回的数据默认的字符编码是utf-8,后台说用oe=utf转换,求解。。。 ![图片说明](https://img-ask.csdn.net/upload/201604/26/1461641710_254647.png)

python3 如何import quotes_historical_yahoo

如下两种import方式都报错 matplot版本是matplotlib-2.2.2-cp36-cp36m-win_amd64.whl 网上说matplotlib2.0.2之后没有matplotlib.finance,改成mpl_finance了。但mpl_finance里没有quotes_historical_yahoo,如何解决呢? **1.** from matplotlib.finance import quotes_historical_yahoo Traceback (most recent call last): File "pair.py", line 2, in <module> from matplotlib.finance import quotes_historical_yahoo ModuleNotFoundError: No module named 'matplotlib.finance' 提示matplotlib下面没有finance了 **2.** from mpl_finance import quotes_historical_yahoo_ochl Traceback (most recent call last): File "pair.py", line 4, in <module> from mpl_finance import quotes_historical_yahoo_ochl ImportError: cannot import name 'quotes_historical_yahoo_ochl' 改用mpl_finance,但里面没有quotes_historical_yahoo 或 quotes_historical_yahoo_ochl

参数化查询 明明写了参数但是仍然报 未提供该参数

方法如下: string sql = @"update Finance_RefundList set ProductNumber=@ProductNumber,RefundMoney=@RefundMoney, ModifyDate=@ModifyDate,Modifier=@Modifier,Enable=@Enable,DeleteBy=@DeleteBy where Refund_Id=@Refund_Id and OitemId=@OitemId"; SqlParameter[] para = new SqlParameter[] { new SqlParameter("@ProductNumber",ProductNumber), new SqlParameter("@RefundMoney",RefundMoney), new SqlParameter("@Refund_Id",Refund_Id), new SqlParameter("@OitemId",OitemId), new SqlParameter("@ModifyDate",DateTime.Now), new SqlParameter("@Modifier",Modifier), new SqlParameter("@Enable",0), new SqlParameter("@DeleteBy",null) }; return idataHelperWMSys_AfterService.ExecuteNonQuery(CommandType.Text, sql, para); 错误信息: {"参数化查询 '(@ProductNumber nvarchar(1),@RefundMoney decimal(6,4),@Refund_Id' 需要参数 '@Enable',但未提供该参数。"} 求帮助呀~

在cmd中安装fix_yahoo_finance(pip install)报错。

![图片说明](https://img-ask.csdn.net/upload/202002/19/1582097485_429834.png) 在用python导入yahoo数据的时候需要安装引入一个模块‘fix_yahoo_finance’,在cmd中安装fix_yahoo_finance(pip install)报错。

python爬新浪新闻内容,为什么运行完stock里面为空……

#! /usr/bin/env python #coding=utf-8 from scrapy.selector import Selector from scrapy.http import Request import re,os from bs4 import BeautifulSoup from scrapy.spider import Spider import urllib2,thread #处理编码问题 import sys reload(sys) sys.setdefaultencoding('gb18030') #flag的作用是保证第一次爬取的时候不进行单个新闻页面内容的爬取 flag=1 projectpath='C:\\Users\DELL\\Desktop\\pythonproject\\mypro\\' def loop(*response): sel = Selector(response[0]) #get title title = sel.xpath('//h1/text()').extract() #get pages pages=sel.xpath('//div[@id="artibody"]//p/text()').extract() #get chanel_id & comment_id s=sel.xpath('//meta[@name="comment"]').extract() #comment_id = channel[index+3:index+15] index2=len(response[0].url) news_id=response[0].url[index2-14:index2-6] comment_id='31-1-'+news_id #评论内容都在这个list中 cmntlist=[] page=1 #含有新闻url,标题,内容,评论的文件 file2=None #该变量的作用是当某新闻下存在非手机用户评论时置为False is_all_tel=True while((page==1) or (cmntlist != [])): tel_count=0 #each page tel_user_count #提取到的评论url url="http://comment5.news.sina.com.cn/page/info?version=1&format=js&channel=cj&newsid="+str(comment_id)+"&group=0&compress=1&ie=gbk&oe=gbk&page="+str(page)+"&page_size=100" url_contain=urllib2.urlopen(url).read() b='={' after = url_contain[url_contain.index(b)+len(b)-1:] #字符串中的None对应python中的null,不然执行eval时会出错 after=after.replace('null','None') #转换为字典变量text text=eval(after) if 'cmntlist' in text['result']: cmntlist=text['result']['cmntlist'] else: cmntlist=[] if cmntlist != [] and (page==1): filename=str(comment_id)+'.txt' path=projectpath+'stock\\' +filename file2=open(path,'a+') news_content=str('') for p in pages: news_content=news_content+p+'\n' item="<url>"+response[0].url+"</url>"+'\n\n'+"<title>"+str(title[0])+"</title>\n\n"+"<content>\n"+str(news_content)+"</content>\n\n<comment>\n" file2.write(item) if cmntlist != []: content='' for status_dic in cmntlist: if status_dic['uid']!='0': is_all_tel=False #这一句视编码情况而定,在这里去掉decode和encode也行 s=status_dic['content'].decode('UTF-8').encode('GBK') #见另一篇博客“三张图” s=s.replace("'",'"') s=s.replace("\n",'') s1="u'"+s+"'" try: ss=eval(s1) except: try: s1='u"'+s+'"' ss=eval(s1) except: return content=content+status_dic['time']+'\t'+status_dic['uid']+'\t'+ss+'\n' #当属于手机用户时 else: tel_count=tel_count+1 #当一个page下不都是手机用户时,这里也可以用is_all_tel进行判断,一种是用开关的方式,一种是统计的方式 #算了不改了 if tel_count!=len(cmntlist): file2.write(content) page=page+1 #while loop end here if file2!=None: #当都是手机用户时,移除文件,否则写入"</comment>"到文件尾 if is_all_tel: file2.close() try: os.remove(file2.name) except WindowsError: pass else: file2.write("</comment>") file2.close() class DmozSpider(Spider): name = "stock" allowed_domains = ["sina.com.cn"] #在本程序中,start_urls并不重要,因为并没有解析 start_urls = [ "http://news.sina.com.cn/" ] global projectpath if os.path.exists(projectpath+'stock'): pass else: os.mkdir(projectpath+'stock') def parse(self, response): #这个scrapy.selector.Selector是个不错的处理字符串的类,python对编码很严格,它却处理得很好 #在做这个爬虫的时候,碰到很多奇奇怪怪的编码问题,主要是中文,试过很多既有的类,BeautifulSoup处理得也不是很好 sel = Selector(response) global flag if(flag==1): flag=2 page=1 while page<260: url="http://roll.finance.sina.com.cn/finance/zq1/index_" url=url+str(page)+".shtml" #伪装为浏览器 user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' headers = { 'User-Agent' : user_agent } req = urllib2.Request(url, headers=headers) response = urllib2.urlopen(req) url_contain = response.read() #利用BeautifulSoup进行文档解析 soup = BeautifulSoup(url_contain) params = soup.findAll('div',{'class':'listBlk'}) if os.path.exists(projectpath+'stock\\'+'link'): pass else: os.mkdir(projectpath+'stock\\'+'link') filename='link.txt' path=projectpath+'stock\\link\\' + filename filelink=open(path,'a+') for params_item in params: persons = params_item.findAll('li') for item in persons: href=item.find('a') mil_link= href.get('href') filelink.write(str(mil_link)+'\n') #递归调用parse,传入新的爬取url yield Request(mil_link, callback=self.parse) page=page+1 #对单个新闻页面新建线程进行爬取 if flag!=1: if (response.status != 404) and (response.status != 502): thread.start_new_thread(loop,(response,))

在Google FInance上使用PHP和JSON解码获取股票价格

<div class="post-text" itemprop="text"> <p>I am trying to retreive the current stock price from Google Finance:</p> <p><a href="http://finance.google.com/finance/info?client=ig&amp;q=AAPL" rel="nofollow noreferrer">http://finance.google.com/finance/info?client=ig&amp;q=AAPL</a></p> <p>How can I extract just the price ("1")?</p> <pre><code>&lt;?php $string = file_get_contents("http://finance.google.com/finance/info?client=ig&amp;q=AAPL"); $json = json_decode($string, true); $price = $json["1"]; echo $price; ?&gt; </code></pre> </div>

R 语言如何获取财务报表信息

打算用getFinancials()来获取上市公司的财报,可是谷歌财经从2018年停止提供数据,Google Finance stopped providing data in March, 2018. 请问还有什么方法来获取上市公司的财报信息呢?

Oracle触发器:A表数据插入B表

具体问题描述: A表和B表字段完全相同,A表中插入数据且A表中status=1时该数据插入到B表中,数据在B表中当字段status=0时就执行删除该条数据 ===================================================== 下面是我写的代码,现在实现了A表中的数据全部插入到B表中了,其实应该有一个status=1在插入B表中,这我没实现,还有一个是当B表status=0时,该数据就删除了,这个我也没实现,有会的大神们帮帮忙 create or replace trigger AB_DML_TGR after insert on CARUSER_FINANCE for each row declare V_NUM number; begin V_NUM := 0; select count(*) into V_NUM from ARREARAGE_MANAGER M where M.CARUSER_ID= :new.caruser_id; if V_NUM = 0 then if inserting then insert into ARREARAGE_MANAGER values (:new.ID, :new.CARUSER_ID, :new.finance_status, :new.balance, :new.data_status, :new.create_time, :new.update_time, :new.end_time, :new.mes_owner, :new.u_owner ); end if; elsif :new.finance_status=0 then delete ARREARAGE_MANAGER t where t.finance_status=0; end if; end;

SQL如何根据传入的参数来判断是否执行where条件 存储过程

begin select [reimbursement_id] = a.reimbursement_id ,[formCode] = a.formCode ,[reimbursement_title] = a.reimbursement_title ,[reimbursement_company_name] = c.EipCompanyShortName ,[VATPriceAmount] = a.VATPriceAmount ,[VATTaxAmount] = a.VATTaxAmount ,[last_modify_time]=a.last_modify_time ,[IsInclueSale] = a.IsInclueSale ,[total_money] = a.total_money ,[SaleTaxRate] = a.SaleTaxRate ,[SaleTaxAmount] = a.SaleTaxAmount ,[basic_data_value] = ISNULL(b.basic_data_value,'未指定') ,ROW_NUMBER() over(order by formCode) as RowIndex into #NoPagedDataSet1 from [Finance].[dbo].[finance_reimbursement] a WITH ( NOLOCK ) INNER JOIN dbo.finance_companyMapping c WITH ( NOLOCK ) ON a.reimbursement_company_code = c.EipCode LEFT JOIN dbo.finance_basic_data b WITH ( NOLOCK ) ON a.[SaleTaxRate] = b.basic_data_id and b.basic_data_type_id=64 where a.reimbursement_type = 2 and formCode like '%'+ISNULL(@FormCode,'')+'%' and reimbursement_title like '%'+ISNULL(@FormTitle,'')+'%' and a.last_modify_time between @PassedDateFrom and @PassedDateTo and a.IsInclueSale = @IsInclueSale @IsInclueSale怎么为空时不执行 and a.reimbursement_company_code = @Company_Code @Company_Code怎么为空时不执行 order by [reimbursement_id] desc select *,RowIndex from #NoPagedDataSet1 where RowIndex > ((@CurrentPage - 1) * @PageSize) And RowIndex <=(@CurrentPage * @PageSize) SET @TotalCount = (SELECT COUNT(*) AS TotalCount FROM #NoPagedDataSet1) drop table #NoPagedDataSet1 end

C#,窗体,用dataGridView控件获取数据库的表格,通过点击Butten按钮保存到数据库为什么我的代码没反应?

![图片说明](https://img-ask.csdn.net/upload/201906/06/1559805410_634874.png) 编辑完数据点击修改按钮数据库没反应,请问大佬们代码那里不对? 应该怎么改呢?可不可以给写下代码? 非常感谢!! using System; using System.Collections.Generic; using System.ComponentModel; using System.Data; using System.Drawing; using System.Text; using System.Windows.Forms; using System.Data.SqlClient; namespace Licai { public partial class Form2 : Form { public Form2() { InitializeComponent(); } private void Form2_Load(object sender, EventArgs e) { // TODO: 这行代码将数据加载到表“finance3DataSet1.category”中。您可以根据需要移动或删除它。 this.categoryTableAdapter.Fill(this.finance3DataSet1.category); // TODO: 这行代码将数据加载到表“finance3DataSet.category”中。您可以根据需要移动或删除它。 this.categoryTableAdapter.Fill(this.finance3DataSet.category); } SqlDataAdapter adp; private void button1_Click(object sender, EventArgs e) { string connString = "Data Source=DESKTOP-VA1VUBK;Initial Catalog=finance3;Integrated Security=True"; SqlConnection connection = new SqlConnection(connString); connection.Open(); adp = new SqlDataAdapter("select * from category", connection); DataTable dt = new DataTable(); adp.Fill(dt); dataGridView1.DataSource = dt; if (adp == null) return; var dt1 = (DataTable)dataGridView1.DataSource; SqlCommandBuilder cmdb = new SqlCommandBuilder(adp); adp.Update(dt1); }// } } 编辑完数据点击修改按钮数据库没反应,请问大佬们代码那里不对? 应该怎么改呢?可不可以给写下代码? 非常感谢!!

神箭手爬虫新手问题:抓取不到数据(全部代码如下)

``` var url = "http://finance.ccb.com/cn/finance/product.html"; var configs = { enableProxy: true, enableJS : true, domains: ["finance.ccb.com"], scanUrls: [url], contentUrlRegexes: [/http:\/\/finance\.ccb.com\/cc_webtran\/queryFinanceProdList\.gsp\?jsoncallback=jQuery1910025284838050604774_1494164835256/], helperUrlRegexes: [/http:\/\/finance\.ccb.com\/cc_webtran\/queryFinanceProdList\.gsp\?jsoncallback=jQuery1910025284838050604774_1494164835256/], fields: [ { name: "items", //selector: "//*[@id='list1']/table/tbody", selector : "//div[@id='pro_tab pro_tab1 clearfix']", repeated : true, children : [ { name: "name", alias: "理财产品名称", //selector: "//td[contains(@class,'list_title')]text()", //selector:"//*[@id='list1']/table/tbody/tr[2]/td[1]/div/div/a", selector : "//a[contains(@class,'AcqProductName AcqProductClick')/text()]", required : true }, { name: "money", alias: "起购金额", //selector: "//*[@id='list1']/table/tbody/tr[2]/td[2]" selector:"//td[@id='list_time']/text()" } ] } ] }; configs.onProcessScanPage = function (page, content, site) { var helperUrl = "http://finance.ccb.com/cc_webtran/queryFinanceProdList.gsp?jsoncallback=jQuery1910025284838050604774_1494164835256"; var options = { method : "POST", data: { "queryForm.provinceId": "110", "queryForm.brand": "03", pageNo: 1, pageSize: 12 } } site.addUrl(helperUrl, options); console.log("debug 1"); return false; }; configs.onProcessHelperPage = function (page, content, site) { var currentPage = page.request.data.pageNo; console.log("debug 2 currentPage="+parseInt(currentPage)); //var totalPage = extract(content, "//span[contains(@class,'ebdp-pc4promote-pageturn-totalpage')]/b"); totalPage =4; //临时措施,需要抓取页面总数 totalPage = parseInt(totalPage); if(currentPage<totalPage){ var helperUrl = "http://finance.ccb.com/cc_webtran/queryFinanceProdList.gsp?jsoncallback=jQuery1910025284838050604774_1494164835256"; var options = { method : "POST", data: { "queryForm.provinceId": "110", "queryForm.brand": "03", pageNo: currentPage+1, pageSize: 12 }, reserve : true } site.addUrl(helperUrl, options); } return false; }; configs.onProcessContentPage = function (page, content, site) { return false; }; configs.afterExtractField = function (fieldName, data, page, site) { if(fieldName=="items.money" || fieldName=="items.duration"){ data = data.replace(/<\/?b>/g,""); return data; } return data; }; var crawler = new Crawler(configs); crawler.start(); ```

请问在scrapy shell调试中使用css完全无法提取数据是什么问题?

1.问题描述:今天爬取凤凰财经http://finance.ifeng.com/shanklist/1-64-/ ,使用scrapy shell调试的时候,无论我用什么样的css语法都没法提取到数据,百度不到这样的问题,只好来求助了 (是初学者,目前只会css; xpath和正则在学习中) 2.代码部分 ![图片说明](https://img-ask.csdn.net/upload/201907/16/1563207297_921874.png) ![图片说明](https://img-ask.csdn.net/upload/201907/16/1563207325_689544.png) ![图片说明](https://img-ask.csdn.net/upload/201907/16/1563207343_701545.png)

js怎么拿到一个网址返回的json数据alert()出来

js怎么拿到一个网址返回的json数据alert()出来 网址: http://money.finance.sina.com.cn/quotes_service/api/json_v2.php/CN_MarketData.getKLineData?symbol=sz000001&scale=5&ma=5&datalen=2

allow_url_fopen打开,仍然无法获取数据

<div class="post-text" itemprop="text"> <p>What can I do if I turn on the access but still get php errors?</p> <pre><code>Warning: file_get_contents() [function.file-get-contents]: http:// wrapper is disabled in the server configuration by allow_url_fopen=0 in ------------- on line 40 Warning: file_get_contents(http://finance.google.co.uk/finance/info?client=ig&amp;q=NASDAQ:MSFT) [function.file-get-contents]: failed to open stream: no suitable wrapper could be found in --------------- on line 40 </code></pre> <p><img src="https://i.stack.imgur.com/aqjYJ.png" alt="enter image description here"></p> </div>

Yahoo Finance API - 无法打开流HTTP请求失败

<div class="post-text" itemprop="text"> <p>I have a web app that queries Yahoo Finance API for all the NASDAQ stocks only while the market is open. Usually it runs 179 tickers at a time and loops through a total of about 3000 tickers. For at least the past week, some or most of the queries will fail and throw an error in PHP: "Failed to open stream - HTTP request failed". I've tried running it from command line on the web server to make sure I'm not reaching the max hourly queries, and I've tried running the queries in my browser, both work fine. I've tried pausing the script between loops, still nothing. Any ideas?</p> </div>

在中国程序员是青春饭吗?

今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...

程序员请照顾好自己,周末病魔差点一套带走我。

程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。

我以为我学懂了数据结构,直到看了这个导图才发现,我错了

数据结构与算法思维导图

String s = new String(" a ") 到底产生几个对象?

老生常谈的一个梗,到2020了还在争论,你们一天天的,哎哎哎,我不是针对你一个,我是说在座的各位都是人才! 上图红色的这3个箭头,对于通过new产生一个字符串(”宜春”)时,会先去常量池中查找是否已经有了”宜春”对象,如果没有则在常量池中创建一个此字符串对象,然后堆中再创建一个常量池中此”宜春”对象的拷贝对象。 也就是说准确答案是产生了一个或两个对象,如果常量池中原来没有 ”宜春” ,就是两个。...

技术大佬:我去,你写的 switch 语句也太老土了吧

昨天早上通过远程的方式 review 了两名新来同事的代码,大部分代码都写得很漂亮,严谨的同时注释也很到位,这令我非常满意。但当我看到他们当中有一个人写的 switch 语句时,还是忍不住破口大骂:“我擦,小王,你丫写的 switch 语句也太老土了吧!” 来看看小王写的代码吧,看完不要骂我装逼啊。 private static String createPlayer(PlayerTypes p...

Linux面试题(2020最新版)

文章目录Linux 概述什么是LinuxUnix和Linux有什么区别?什么是 Linux 内核?Linux的基本组件是什么?Linux 的体系结构BASH和DOS之间的基本区别是什么?Linux 开机启动过程?Linux系统缺省的运行级别?Linux 使用的进程间通信方式?Linux 有哪些系统日志文件?Linux系统安装多个桌面环境有帮助吗?什么是交换空间?什么是root帐户什么是LILO?什...

将一个接口响应时间从2s优化到 200ms以内的一个案例

一、背景 在开发联调阶段发现一个接口的响应时间特别长,经常超时,囧… 本文讲讲是如何定位到性能瓶颈以及修改的思路,将该接口从 2 s 左右优化到 200ms 以内 。 二、步骤 2.1 定位 定位性能瓶颈有两个思路,一个是通过工具去监控,一个是通过经验去猜想。 2.1.1 工具监控 就工具而言,推荐使用 arthas ,用到的是 trace 命令 具体安装步骤很简单,大家自行研究。 我的使用步骤是...

学历低,无法胜任工作,大佬告诉你应该怎么做

微信上收到一位读者小涛的留言,大致的意思是自己只有高中学历,经过培训后找到了一份工作,但很难胜任,考虑要不要辞职找一份他能力可以胜任的实习工作。下面是他留言的一部分内容: 二哥,我是 2016 年高中毕业的,考上了大学但没去成,主要是因为当时家里经济条件不太允许。 打工了三年后想学一门技术,就去培训了。培训的学校比较垃圾,现在非常后悔没去正规一点的机构培训。 去年 11 月份来北京找到了一份工...

JVM内存结构和Java内存模型别再傻傻分不清了

讲一讲什么是Java内存模型 Java内存模型虽说是一个老生常谈的问题 ,也是大厂面试中绕不过的,甚至初级面试也会问到。但是真正要理解起来,还是相当困难,主要这个东西看不见,摸不着。 这是一个比较开放的题目,面试官主要想考察的是对Java内存模型的了解到了什么程度了,然后根据回答进行进一步的提问 下面,我们就这个问题的回答列一下我们的思路 具体的思路如下: 说一说Java内存模型的缘由 简略辨析...

和黑客斗争的 6 天!

互联网公司工作,很难避免不和黑客们打交道,我呆过的两家互联网公司,几乎每月每天每分钟都有黑客在公司网站上扫描。有的是寻找 Sql 注入的缺口,有的是寻找线上服务器可能存在的漏洞,大部分都...

Google 与微软的浏览器之争

浏览器再现“神仙打架”。整理 | 屠敏头图 | CSDN 下载自东方 IC出品 | CSDN(ID:CSDNnews)从 IE 到 Chrome,再从 Chrome 到 Edge,微软与...

讲一个程序员如何副业月赚三万的真实故事

loonggg读完需要3分钟速读仅需 1 分钟大家好,我是你们的校长。我之前讲过,这年头,只要肯动脑,肯行动,程序员凭借自己的技术,赚钱的方式还是有很多种的。仅仅靠在公司出卖自己的劳动时...

上班一个月,后悔当初着急入职的选择了

最近有个老铁,告诉我说,上班一个月,后悔当初着急入职现在公司了。他之前在美图做手机研发,今年美图那边今年也有一波组织优化调整,他是其中一个,在协商离职后,当时捉急找工作上班,因为有房贷供着,不能没有收入来源。所以匆忙选了一家公司,实际上是一个大型外包公司,主要派遣给其他手机厂商做外包项目。**当时承诺待遇还不错,所以就立马入职去上班了。但是后面入职后,发现薪酬待遇这块并不是HR所说那样,那个HR自...

女程序员,为什么比男程序员少???

昨天看到一档综艺节目,讨论了两个话题:(1)中国学生的数学成绩,平均下来看,会比国外好?为什么?(2)男生的数学成绩,平均下来看,会比女生好?为什么?同时,我又联想到了一个技术圈经常讨...

搜狗输入法也在挑战国人的智商!

故事总是一个接着一个到来...上周写完《鲁大师已经彻底沦为一款垃圾流氓软件!》这篇文章之后,鲁大师的市场工作人员就找到了我,希望把这篇文章删除掉。经过一番沟通我先把这篇文章从公号中删除了...

85后蒋凡:28岁实现财务自由、34岁成为阿里万亿电商帝国双掌门,他的人生底层逻辑是什么?...

蒋凡是何许人也? 2017年12月27日,在入职4年时间里,蒋凡开挂般坐上了淘宝总裁位置。 为此,时任阿里CEO张勇在任命书中力赞: 蒋凡加入阿里,始终保持创业者的冲劲,有敏锐的...

总结了 150 余个神奇网站,你不来瞅瞅吗?

原博客再更新,可能就没了,之后将持续更新本篇博客。

副业收入是我做程序媛的3倍,工作外的B面人生是怎样的?

提到“程序员”,多数人脑海里首先想到的大约是:为人木讷、薪水超高、工作枯燥…… 然而,当离开工作岗位,撕去层层标签,脱下“程序员”这身外套,有的人生动又有趣,马上展现出了完全不同的A/B面人生! 不论是简单的爱好,还是正经的副业,他们都干得同样出色。偶尔,还能和程序员的特质结合,产生奇妙的“化学反应”。 @Charlotte:平日素颜示人,周末美妆博主 大家都以为程序媛也个个不修边幅,但我们也许...

MySQL数据库面试题(2020最新版)

文章目录数据库基础知识为什么要使用数据库什么是SQL?什么是MySQL?数据库三大范式是什么mysql有关权限的表都有哪几个MySQL的binlog有有几种录入格式?分别有什么区别?数据类型mysql有哪些数据类型引擎MySQL存储引擎MyISAM与InnoDB区别MyISAM索引与InnoDB索引的区别?InnoDB引擎的4大特性存储引擎选择索引什么是索引?索引有哪些优缺点?索引使用场景(重点)...

如果你是老板,你会不会踢了这样的员工?

有个好朋友ZS,是技术总监,昨天问我:“有一个老下属,跟了我很多年,做事勤勤恳恳,主动性也很好。但随着公司的发展,他的进步速度,跟不上团队的步伐了,有点...

我入职阿里后,才知道原来简历这么写

私下里,有不少读者问我:“二哥,如何才能写出一份专业的技术简历呢?我总感觉自己写的简历太烂了,所以投了无数份,都石沉大海了。”说实话,我自己好多年没有写过简历了,但我认识的一个同行,他在阿里,给我说了一些他当年写简历的方法论,我感觉太牛逼了,实在是忍不住,就分享了出来,希望能够帮助到你。 01、简历的本质 作为简历的撰写者,你必须要搞清楚一点,简历的本质是什么,它就是为了来销售你的价值主张的。往深...

离职半年了,老东家又发 offer,回不回?

有小伙伴问松哥这个问题,他在上海某公司,在离职了几个月后,前公司的领导联系到他,希望他能够返聘回去,他很纠结要不要回去? 俗话说好马不吃回头草,但是这个小伙伴既然感到纠结了,我觉得至少说明了两个问题:1.曾经的公司还不错;2.现在的日子也不是很如意。否则应该就不会纠结了。 老实说,松哥之前也有过类似的经历,今天就来和小伙伴们聊聊回头草到底吃不吃。 首先一个基本观点,就是离职了也没必要和老东家弄的苦...

男生更看重女生的身材脸蛋,还是思想?

往往,我们看不进去大段大段的逻辑。深刻的哲理,往往短而精悍,一阵见血。问:产品经理挺漂亮的,有点心动,但不知道合不合得来。男生更看重女生的身材脸蛋,还是...

什么时候跳槽,为什么离职,你想好了么?

都是出来打工的,多为自己着想

程序员为什么千万不要瞎努力?

本文作者用对比非常鲜明的两个开发团队的故事,讲解了敏捷开发之道 —— 如果你的团队缺乏统一标准的环境,那么即使勤劳努力,不仅会极其耗时而且成果甚微,使用...

为什么程序员做外包会被瞧不起?

二哥,有个事想询问下您的意见,您觉得应届生值得去外包吗?公司虽然挺大的,中xx,但待遇感觉挺低,马上要报到,挺纠结的。

当HR压你价,说你只值7K,你该怎么回答?

当HR压你价,说你只值7K时,你可以流畅地回答,记住,是流畅,不能犹豫。 礼貌地说:“7K是吗?了解了。嗯~其实我对贵司的面试官印象很好。只不过,现在我的手头上已经有一份11K的offer。来面试,主要也是自己对贵司挺有兴趣的,所以过来看看……”(未完) 这段话主要是陪HR互诈的同时,从公司兴趣,公司职员印象上,都给予对方正面的肯定,既能提升HR的好感度,又能让谈判气氛融洽,为后面的发挥留足空间。...

面试:第十六章:Java中级开发(16k)

HashMap底层实现原理,红黑树,B+树,B树的结构原理 Spring的AOP和IOC是什么?它们常见的使用场景有哪些?Spring事务,事务的属性,传播行为,数据库隔离级别 Spring和SpringMVC,MyBatis以及SpringBoot的注解分别有哪些?SpringMVC的工作原理,SpringBoot框架的优点,MyBatis框架的优点 SpringCould组件有哪些,他们...

面试阿里p7,被按在地上摩擦,鬼知道我经历了什么?

面试阿里p7被问到的问题(当时我只知道第一个):@Conditional是做什么的?@Conditional多个条件是什么逻辑关系?条件判断在什么时候执...

终于懂了TCP和UDP协议区别

终于懂了TCP和UDP协议区别

立即提问
相关内容推荐