初学python3,from ... import ...出了问题

try.py文件里只含有一个测试过的正确的myabs函数定义,在python的交互式界面使用from try import myabs时提示invalid syntax,我是按照廖雪峰网上的python3教程来的,上面的演示是对的,我电脑上就错了,我的系统是windows

2个回答

我明白了,我把try当文件名了图片说明

孩子
你对python根本不了解啊,好好看看python的文件组织结构,看看当你执行一个文件的时候背后做了什么操作,看完了你就知道了,学习语言不要上来就直接敲代码

LeTial
LeTial 我刚开始学,当然完全不懂了,也没google到解答的东西,所以才来提问的,能麻烦你解释清楚些吗,或者你跟我说这是和哪部分相关,我去看看,谢谢
大约 4 年之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
python import 和from import 区别
上网查了一下,貌似是一个简单问题,网上都是这么说的,我之前也是这么理解的: 假设有一个包名字叫 numpy, 里面有一个函数 zeros 1、 from numpy import zeros 那么你可以直接调用 zeros()函数 2、import numpy.zeros 那么你只能使用全名 numpy.zeros 但今天遇到了问题了。 ``` from sklearn import datasets a=datasets.load_digits() print(a) ``` 这个代码没问题 但是下面这个代码居然提示错误 ``` import sklearn a=sklearn.datasets.load_digits() print(a) ``` 提示错误是:AttributeError: module 'sklearn' has no attribute 'datasets' 什么鬼,看不懂,不是说import sklearn 后应该可以通过点.来访问sklearn里的所有内容吗,就像numpy中那样。初学者,不懂,求大神解释下,不胜感激!! 这样也报错 ``` import sklearn.datasets a=datasets.load_digits() print(a) ``` NameError: name 'datasets' is not defined
初学python django中login() got an unexpected keyword argument 'templates'
users\urls.py中的代码,报错login() got an unexpected keyword argument 'templates' ``` from django.urls import path,include from django.contrib.auth import authenticate, login name = 'login' urlpatterns=[ #登陆页面 path('login/',login, {'templates':'users/login.html'},name='login'), ] ```
求助:python爬取12306车票信息总是出现错误
最近初学python,进展到网络爬虫部分,尝试自己写一下查票,结果遇到了麻烦 ``` import requests url = 'https://kyfw.12306.cn/otn/leftTicket/queryZ?' \ 'leftTicketDTO.train_date=2020-02-01&' \ 'leftTicketDTO.from_station=SHH&' \ 'leftTicketDTO.to_station=BJP&purpose_codes=ADULT' result=requests.get(url) print(result.json()) ``` 出现的问题如下: ``` Traceback (most recent call last): File "D:/Files/check tickets/123.py", line 7, in <module> print(result.json()) File "D:\Files\python3\lib\site-packages\requests\models.py", line 897, in json return complexjson.loads(self.text, **kwargs) File "D:\Files\python3\lib\json\__init__.py", line 357, in loads return _default_decoder.decode(s) File "D:\Files\python3\lib\json\decoder.py", line 337, in decode obj, end = self.raw_decode(s, idx=_w(s, 0).end()) File "D:\Files\python3\lib\json\decoder.py", line 355, in raw_decode raise JSONDecodeError("Expecting value", s, err.value) from None json.decoder.JSONDecodeError: Expecting value: line 1 column 1 (char 0) ``` 不知如何解决,求解答,谢谢!
初学python,爬取京东商品数据时无法获取内容
1. import requests from lxml import html def spider_JD(sn): url = 'https://search.jd.com/Search?keyword={0}'.format(sn) html_doc=requests.get(url).text selector=html.fromstring(html_doc) ul_list2=selector.xpath('//div[@id="J_goodsList"]/ul/li') print(len(ul_list2)) if __name__=='__main__': spider_JD('9787115428028') ![图片说明](https://img-ask.csdn.net/upload/201912/27/1577456020_646079.png) 如图所示 可以看到很多li 但上述代码运行显示为0
Python第三方库openpyxl如何对Exce提取指定字符的所在行
初学Python, 被这个问题困扰了好久了。 我想提取Excel每一行的第一个单元格为字符"Air"的行的内容。 尝试了以下代码,但是没能成功,还请前辈们指教。谢过! from openpyxl import Workbook from openpyxl import load_workbook wb=load_workbook("C:/Users/SSSVV/Desktop/Air log/Air log now 1207.xlsx") sheet_names=wb.sheetnames ws=wb[sheet_names[0]] maxrow=ws.max_row maxcol=ws.max_column ID="air" i=1 for i in ws.rows: for cell in i: if ID in ws.cell(row=i,column=1).value: print(cell.value)
Python kivy GridLayout 布局问题
小白初学kivy,教程中有关于 GridLayout 方面的内容,可以完成两行排列布局,但是已到第三行就会出现异常,已经弄了两天了还没整明白。 <font size=4>哪位大佬帮忙看看代码需要如何进行修改:</font> ```python from kivy.app import App from kivy.uix.gridlayout import GridLayout from kivy.uix.button import Button from kivy.uix.label import Label # from kivy.core.window import Window class HomeScreen(GridLayout): def __init__(self, **kwargs): super().__init__(**kwargs) self.cols = 1 self.rows = 3 # 第一行合并为一列 self.add_widget(Label(text='My World', font_size=50, height=100, size_hint_y=None)) # 第二行 分开为 2 列 self.layout_1 = GridLayout(cols=2) self.layout_1.add_widget(Button(text='Hello 1', height=220, size_hint_y=None)) self.layout_1.add_widget(Button(text='World 1')) # 第三行 self.layout_1.add_widget(Button(text='Hello 2', height=220, size_hint_y=None)) self.layout_1.add_widget(Button(text='World 2')) self.add_widget(self.layout_1) # 第四行 分开为 3列 self.layout_2 = GridLayout(cols=3) self.layout_2.add_widget(Button(text='hello', height=50, size_hint_y=None)) self.layout_2.add_widget(Button(text='world', height=50, size_hint_y=None)) self.layout_2.add_widget(Button(text='hell', height=50, size_hint_y=None)) self.add_widget(self.layout_2) class TextApp(App): def build(self): return HomeScreen() if __name__ == '__main__': TextApp().run() ``` 以上代码实现的效果如下,我需要把第三行移动到最下边: ![如图,如何能把红框位置的按钮移动到最下面](https://img-ask.csdn.net/upload/201906/15/1560560369_753673.png) ![**回复 liujianchen_linux 的意见,去掉size_hint_y=None运行后height命令不起作用**](https://img-ask.csdn.net/upload/201906/15/1560569059_242282.png)
python3.x PIL模块 ImageDraw 什么都没画出来
初学PIL,遇到了一些问题,为什么ImageDraw什么都没画出来 ```python from PIL import Image, ImageDraw, ImageFont class BackGround:#根对象 def __init__(self, draw,im): self.l_x = 0 self.l_y = 0 self.im = draw self.s_x, self.s_y = im.size def get_postion(self): return self.l_x, self.l_y def get_size(self): return self.s_x, self.s_y class DrawElement:#父类 def __init__(self, parent, l_x, l_y): self.im = parent.im self.parent = parent self.l_y = l_y self.l_x = l_x def get_postion(self): l_x = self.l_x + self.parent.get_postion()[0] l_y = self.l_y + self.parent.get_postion()[1] return l_x, l_y def draw(self): pass def get_size(self): pass class Text(DrawElement):#单行文字 def __init__(self, parent, l_x, l_y, text, myfont): self.im = parent.im self.text = text self.parent = parent self.l_y = l_y self.l_x = l_x self.front = myfont def get_size(self): size_x, size_y = self.im.textsize(self.text, self.front) return size_x, size_y def draw(self): self.im.text(self.get_postion(), self.text, font=self.front, fill=(255, 0, 0)) class MultipleText(DrawElement):#多行文字 def __init__(self, parent, l_x, l_y, text, myfont, lineSpacing): self.parent = parent self.im = parent.im self.l_x = l_x self.l_y = l_y self.texts = text.split("\n") self.font = myfont self.lineSpacing = lineSpacing self.childrens = [] l_t_x = 0 l_t_y = 0 s_t_x = 0 for i in range(len(self.texts)): tl = Text(self, l_t_x, l_t_y, self.texts[i], self.font) s_x, s_y = tl.get_size() if s_x > s_t_x: s_t_x = s_x l_t_y += (s_y + self.lineSpacing) self.childrens.append(tl) for item in self.childrens: item.l_x = int((s_t_x - item.get_size()[1]) / 2) self.s_x = s_t_x self.s_y = l_t_x - self.lineSpacing def get_size(self): return self.s_x, self.s_y def draw(self): for item in self.childrens: item.draw() class Rectangle(DrawElement): def __init__(self, parent, l_x, l_y, s_x, s_y): self.parent = parent self.im = parent.im self.l_x = l_x self.l_y = l_y self.s_x = s_x self.s_y = s_y def get_size(self): return self.s_x, self.s_y def draw(self): self.im.rectangle((self.get_postion(), (self.l_x, self.l_y))) class TextBox(DrawElement): def __init__(self, parent, l_x, l_y, text, frameWidth, myfont,lineSpacing): self.im = parent.im self.parent = parent self.font = myfont self.l_x = l_x self.l_y = l_y self.text = text self.frameWidth = frameWidth self.mtext = MultipleText(self, frameWidth, frameWidth, text, self.font,lineSpacing) x, y = self.mtext.get_size() self.s_x = x + self.frameWidth * 2 self.s_y = y + self.frameWidth * 2 self.rect = Rectangle(self, 0, 0, self.s_x, self.s_y) def draw(self): self.mtext.draw() self.rect.draw() def get_size(self): return self.s_x, self.s_y def get_connect_point(self, side): l_g_x, l_g_y = self.get_postion() s_x, s_y = self.get_size() if side == "LEFT": return l_g_x, l_g_x + s_y / 2 elif side == "RIGHT": return l_g_x + s_x, l_g_y + s_y / 2 elif side == "TOP": return l_g_x + s_x / 2, l_g_y else: raise Exception("wrong parameter, can only accept 'LEFT','RIGHT'") class Line(DrawElement): def __init__(self, parent, a_point, b_point): self.parent = parent self.im = parent.im if a_point[0] < b_point[0]: self.l_x = a_point[0] else: self.l_x = b_point[0] if a_point[1] < b_point[1]: self.l_y = a_point[1] else: self.l_y = b_point[1] self.s_x = abs(a_point[0] - b_point[0]) self.s_y = abs(a_point[1] - b_point[1]) self.lines = [[[(a_point[0] + b_point[0]) / 2, a_point[1]], a_point] [[(a_point[0] + b_point[0]) / 2, a_point[1]], [(a_point[0] + b_point[0]) / 2, b_point[1]]], [[(a_point[0] + b_point[0]) / 2, b_point[1]], b_point]] def draw(self): for line in self.lines: self.im.line(line) myfont = ImageFont.truetype("temp.ttf",20) newim = Image.new("RGB", (1280, 1280), "#00ffff") draw = ImageDraw.ImageDraw(newim) bg = BackGround(draw, newim) t = Text(bg, 10, 10, "test", myfont) newim.show() newim.save("out.png") ```
初学python,批量选取文件中某一部分内容,然后将内容逐条存于一个文件中
下面这个,是将一个大的fasta文件,分割成小的,程序运行顺利。 ``` import sys, getopt from Bio import SeqIO # get parameter opts, args = getopt.getopt(sys.argv[1:], "hi:o:x:") X = 1 input_file = "FANCE_alignment.fasta" prefix = "split_" for op, value in opts: if op == "-i": input_file = value elif op == "-o": prefix = value elif op == "-x": X = int(value) elif op == "-h": print("Usage: python3 splitmethod.py -i input.fasta -o prefix -x split_number") print("default prefix = split_") print("default split_number = 1") sys.exit() FA_in_file = open(input_file, "r") # read fasta file to a list fa_Info = [] fa_Seq = [] fa_Num = -1 for Y in FA_in_file.readlines(): Y = Y.rstrip() if Y[0] == ">": fa_Info.append(Y) fa_Num = fa_Num + 1 fa_Seq.append("") else: fa_Seq[fa_Num] = fa_Seq[fa_Num] + Y print("OK") # split the fasta list to multipe files file_Num = (fa_Num + 1) // X + 1 for i in range(file_Num): exec(prefix + str(i + 1) + ' = open("' + prefix + str(i + 1) + '.fasta"' + ', "w")') start = i * X end = (i + 1) * X if end > fa_Num + 1: end = fa_Num + 1 for j in range(start, end, 1): exec(prefix + str(i + 1) + '.write(fa_Info[j] + "\\n")') while len(fa_Seq[j]) > 60: exec(prefix + str(i + 1) + '.write(fa_Seq[j][:60] + "\\n")') fa_Seq[j] = fa_Seq[j][60:] else: exec(prefix + str(i + 1) + '.write(fa_Seq[j] + "\\n")') exec(prefix + str(i + 1) + '.close()') FA_in_file.close() ``` 下面这个程序是将上述分割的小的fasta文件中的特定位置的内容选取,并存于新的文件中。程序运行顺利。 ``` from Bio import SeqIO fin = open('split_1.fasta', 'r') fout = open('selected_split_1.fasta', 'w') with open("selected_split_1.fasta","w") as f: for seq_record in SeqIO.parse("split_1.fasta", "fasta"): f.write(">") f.write(str(seq_record.id) + "\n") f.write(str(seq_record.seq[421:480]) + "\n") #start 421 to end 480 base positions fin.close() fout.close() ``` 但,我想实现把这第二个的功能如何组合在第一个程序中,从而实现,分割文件,再选取分割的小文件中的特定内容。并将选取的内容存于一个文件中。
pygame无法加载图片,不停空转
初学python , 用 pygame 编飞机大战,在导入背景图片时遇到困难 代码如下: 运行时没显示错误,但是在一张空白 pygame window 下空转。我用的是 mac python 3.7.1, pygame 1.9.4版本。请教大神代码有什么问题啊?多谢! import pygame from pygame.locals import * import time def main(): screen = pygame.display.set_mode((480, 852),0,32) background = pygame.image.load("./feiji/background.png") plane = pygame.image.load("./feiji/hero1.png") screen.blit(background, (0, 0)) pygame.display.update() while True: pass main()
初学python爬虫,好像是selenium的错,len(),希望大神们提点一下
初学python爬虫,好像是selenium的错,报了个TypeError: object of type 'WebElement' has no len(),希望点大神们提点一下 下面是代码: from selenium import webdriver import csv #网易云音乐歌单第一页的url url='http://music.163.com/#/discover/playlist/?order=hot&cat=%E5%85%A8%E9%83%A8&limit=35&offset=0' #用PhantomJS接口创建一个Selenium的webdriver driver=webdriver.PhantomJS() #准备好存储歌单csv csv_file=open("playlist.csv","w",newline='') writer=csv.writer(csv_file) writer.writerow(['标题','播放数','链接']) #解析每一页,直到‘下一页’为空 while url!='javascript:void(0)': #用webDriver加载页面 driver.get(url) #切换到内容的iframe driver.switch_to.frame("contentFrame") #定位歌单标签 data=driver.find_element_by_id("m-pl-container").find_element_by_tag_name("li") #解析一页中所有歌单 for i in range(len(data)): #获取播放数 nb=data[i].find_element_by_tag_name("nb").text if '万' in nb and int(nb.split("万")[0])>500: #获取播放数大于500万的歌单的封面 msk=data[i].find_element_by_css_selector("a.msk") #把封面上的标题和链接连同播放数一起写到文件中 writer.writerow([msk.get_attribute('title'), nb,msk.get_attribute('href')]) #定位'下一页'的url url=driver.find_element_by_css_selector("a.zbtn.znxt").get_attribute('href') csv_file.close()
python selenium,初学,打开Firefox后就没有反应了,这个是为什么?
代码: # coding = utf-8 from selenium import webdriver browser = webdriver.Firefox() browser.get("http://www.baidu.com") browser.find_element_by_id("kw").send_keys("selenium") browser.find_element_by_id("su").click() browser.quit() 报错: C:\Users\Administrator\AppData\Local\Programs\Python\Python35\python.exe C:/Users/Administrator/PycharmProjects/untitled/webtest/test_1.py Traceback (most recent call last): File "C:/Users/Administrator/PycharmProjects/untitled/webtest/test_1.py", line 3, in <module> browser = webdriver.Firefox() File "C:\Users\Administrator\AppData\Local\Programs\Python\Python35\lib\site-packages\selenium\webdriver\firefox\webdriver.py", line 154, in __init__ keep_alive=True) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python35\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 140, in __init__ self.start_session(desired_capabilities, browser_profile) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python35\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 229, in start_session response = self.execute(Command.NEW_SESSION, parameters) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python35\lib\site-packages\selenium\webdriver\remote\webdriver.py", line 297, in execute self.error_handler.check_response(response) File "C:\Users\Administrator\AppData\Local\Programs\Python\Python35\lib\site-packages\selenium\webdriver\remote\errorhandler.py", line 194, in check_response raise exception_class(message, screen, stacktrace) selenium.common.exceptions.WebDriverException: Message: connection refused
pycharm上面简单的python代码运行报错怎么解决?貌似是pycharm的环境没有配置好,跪求大神指点!
各位大神好: 本人是一枚python初学者,最近在练习编码的时候用的是pycharm,同样写了一段简单的代码,就是把两个表格进行拼接合并,pandas库也进行了安装,写好之后,在pycharm上运行,一堆报错的,但是在其他程序上代码是可以正常运行的,感觉像是哪的环境没有搭配好。 自己也尝试了百度搜索答案,在pycharm里面配置了本地的python程序,可是还是不行。期望各位大神和老师有空了能给些指点!非常感谢了。 ![图片说明](https://img-ask.csdn.net/upload/201906/25/1561425967_103879.png) 代码如下: #data1和data2两个表格进行拼接合并 import pandas as pd data1 = pd.read_excel( r"C:\Users\cui\Desktop\测试\2\客户资金对帐2019601-20190619_001.xlsx", sheet_name=0, header=0, dtype='str') data2 = pd.read_excel( r"C:\Users\cui\Desktop\测试\2\客户资金对帐2019601-20190619_002.xlsx", sheet_name=0, header=0, dtype='str') data3 = pd.concat([data1, data2]) data3.to_excel(excel_writer=r"C:\Users\cui\Desktop\测试\汇总输出\huizong.xlsx") ``` ![图片说明](https://img-ask.csdn.net/upload/201906/25/1561425996_709591.png) 报错的代码如下:报错的内容比写的代码都长 Python 3.7.0 (v3.7.0:1bf9cc5093, Jun 27 2018, 04:06:47) [MSC v.1914 32 bit (Intel)] on win32 runfile('C:/Users/cui/PycharmProjects/untitled/ceshi1.py', wdir='C:/Users/cui/PycharmProjects/untitled') Traceback (most recent call last): File "<input>", line 1, in <module> File "C:\Program Files\JetBrains\PyCharm 2019.1.3\helpers\pydev\_pydev_bundle\pydev_umd.py", line 197, in runfile pydev_imports.execfile(filename, global_vars, local_vars) # execute the script File "C:\Program Files\JetBrains\PyCharm 2019.1.3\helpers\pydev\_pydev_imps\_pydev_execfile.py", line 18, in execfile exec(compile(contents+"\n", file, 'exec'), glob, loc) File "C:/Users/cui/PycharmProjects/untitled/ceshi1.py", line 2, in <module> import pandas as pd File "C:\Program Files\JetBrains\PyCharm 2019.1.3\helpers\pydev\_pydev_bundle\pydev_import_hook.py", line 21, in do_import module = self._system_import(name, *args, **kwargs) File "C:\Users\cui\.virtualenvs\untitled\lib\site-packages\pandas\__init__.py", line 42, in <module> from pandas.core.api import * File "C:\Program Files\JetBrains\PyCharm 2019.1.3\helpers\pydev\_pydev_bundle\pydev_import_hook.py", line 21, in do_import module = self._system_import(name, *args, **kwargs) File "C:\Users\cui\.virtualenvs\untitled\lib\site-packages\pandas\core\api.py", line 7, in <module> from pandas.core.arrays.integer import ( File "C:\Program Files\JetBrains\PyCharm 2019.1.3\helpers\pydev\_pydev_bundle\pydev_import_hook.py", line 21, in do_import module = self._system_import(name, *args, **kwargs) File "C:\Users\cui\.virtualenvs\untitled\lib\site-packages\pandas\core\arrays\__init__.py", line 2, in <module> from .base import (ExtensionArray, # noqa File "C:\Program Files\JetBrains\PyCharm 2019.1.3\helpers\pydev\_pydev_bundle\pydev_import_hook.py", line 21, in do_import module = self._system_import(name, *args, **kwargs) File "C:\Users\cui\.virtualenvs\untitled\lib\site-packages\pandas\core\arrays\base.py", line 21, in <module> from pandas.core import ops File "C:\Program Files\JetBrains\PyCharm 2019.1.3\helpers\pydev\_pydev_bundle\pydev_import_hook.py", line 21, in do_import module = self._system_import(name, *args, **kwargs) File "C:\Users\cui\.virtualenvs\untitled\lib\site-packages\pandas\core\ops.py", line 16, in <module> from pandas._libs import algos as libalgos, lib, ops as libops ImportError: cannot import name 'ops' from 'pandas._libs' (C:\Users\cui\.virtualenvs\untitled\lib\site-packages\pandas\_libs\__init__.py) ``` ![图片说明](https://img-ask.csdn.net/upload/201906/25/1561426121_610768.png) ![图片说明](https://img-ask.csdn.net/upload/201906/25/1561426201_516230.png)
初学python 爬虫,想请教一个代理头的问题
from fake_useragent import UserAgent 这个函数是什么用处,为什么需要构造头部信息呢,headers的信息不是就隐藏在 网页检查元素里面吗
Python脚本运行问题,在pycharm中运行会出错
初学python,写了一段脚本: from sys import argv script,user_name=argv prompt='<' print("hi %s,i am the %s script."%(user_name,script)) print("I'd like to ask you a few questions.") print("DO you like me %s"%user_name) input(prompt) 在Pycharm上面运行会出现如下错误: D:\PycharmProjects\untitled\venv\Scripts\python.exe D:/PycharmProjects/untitled/ex14.py Traceback (most recent call last): File "D:/PycharmProjects/untitled/ex14.py", line 2, in <module> script,user_name=argv ValueError: not enough values to unpack (expected 2, got 1) Process finished with exit code 1 这是什么原因,用cmd运行就没有问题,可以出来结果
python初学 爬取网站的子网页获取标题
想要获取所有子网页的标题,但是为什么只有一小部分标题获取成功,而大部分都为空??(url可以全部得到) 代码如下 ``` # -*- coding: utf-8 -*- import scrapy from scrapy.http import Request from tutorial.items import TutorialItem class herbSpider(scrapy.Spider): name = 'herbalism' allowed_domins = ['pharmnet.com'] start_urls = ['http://www.pharmnet.com.cn/tcm/knowledge/ycrs/'] def parse(self, response): url_list = response.xpath('//td[@height="22"]/a[@target="_blank"]/@href').extract() for url in url_list: yield Request(url,callback=self.parse_name) for i in range(1,10): page_url = 'http://www.pharmnet.com.cn/tcm/knowledge/ycrs/index{}.html'.format(i) yield Request(page_url,callback=self.parse) def parse_name(self,response): items = TutorialItem() items['title'] = response.xpath('//font[@color="#300901"]/h1/text()').extract() items['link'] = response.url yield items ``` : 运行结果: ![图片说明](https://img-ask.csdn.net/upload/201708/02/1501671274_728164.png) 求教,谢谢!
Pycharm 创建Django出现的问题
通过pycharm 创建 Django 出现 AttributeError: module 'pip' has no attribute 'main'的错误 ![图片说明](https://img-ask.csdn.net/upload/201910/15/1571141576_843540.png) 通过百度 尝试了第一种方法 pip降级 。 第二种方法 修改安装pycharm软件的目录packaging_tool.py 文件,def do_install(pkgs): try: #import pip try: from pip._internal import main except Exception: from pip import main except ImportError: error_no_pip() return main(['install'] + pkgs) def do_uninstall(pkgs): try: #import pip try: from pip._internal import main except Exception: from pip import main except ImportError: error_no_pip() return main(['uninstall', '-y'] + pkgs) 以上方法都没有用,解决方法链接https://blog.csdn.net/u010042585/article/details/80447109 修改完后出现这样的错误 ![图片说明](https://img-ask.csdn.net/upload/201910/15/1571141765_705180.png) 求解决啊,光是这个我都弄了3个小时了。还不行,作为初学者,恳求各位大大解决
如果将keras情感分析模型应用到Java Web上,那Web后台怎么预处理字符串并转化为特征向量?
尚属初学折腾了一点简单的代码,但是很想知道怎么将训练模型应用到Web项目上。 训练模型时用了如下代码: ```python # 加载数据内容步骤省略 from keras.preprocessing.text import Tokenizer from keras.preprocessing.sequence import pad_sequences tokenizer = Tokenizer() tokenizer.fit_on_texts(train_texts) train_sequences = tokenizer.texts_to_sequences(train_texts) test_sequences = tokenizer.texts_to_sequences(test_texts) train_data = pad_sequences(train_sequences, maxlen=MAX_SEQUENCE_LENGTH) test_data = pad_sequences(test_sequences, maxlen=MAX_SEQUENCE_LENGTH) ``` 因为tokenizer使用训练文本进行fit,记录了词典之类的信息,那我要在Web项目上调用模型预测文本的之前是否应该再用之前tokenizer里的信息去做预处理才对?那需要如此处理的话我在Web后台该怎么做?
求助!!如何用python 爬虫收集佳缘的用户信息
``` 小弟初学python,写了一个程序想抓取佳缘网站的用户信息,但是正则匹配之后是none,想请教各位大神原因在哪 import urllib2,urllib from urllib import urlencode import re,sys,os,time,Queue,thread,cookielib testurl = 'http://search.jiayuan.com/v2/index.php' readurl = 'http://search.jiayuan.com/v2/index.php?key=&sex=f&stc=1:51,2:18.21,3:158.170,23:1,4:30.0&sn=default&sv=1&pt=236&ft=off&f=select&mt=d' uid = '133574961' passwd = 'lixiaoming' values = {'password':passwd,'name':uid} postdata = urllib.urlencode(values) cookie = cookielib.CookieJar() urlopener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie),urllib2.HTTPHandler) headers={'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/40.0.2214.111 Safari/537.36', 'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8', } req = urllib2.Request( url = 'http://passport.jiayuan.com/dologin.php', data = postdata, headers = headers ) urlopener.open(req) page = urlopener.open(readurl).read() unicodePage = page.decode("utf-8") #print unicodePage rst = re.compile('<div class="user_name">(.*?)</div>',re.S) items = rst.findall(unicodePage) print items for item in items: print item[0],item[1] ```
python3爬虫百度图片,结果只能显示60张,后面都是重复
python初学,不太懂哪里出了问题,运行之后显示搜到1020张图片,下载后前60张没有问题,后面就都是和前面一样,仔细一看,在第60张后面的程序又显示了找到关键词,正在下载。于是只能爬60张图片,求大佬们看一下什么情况 ![图片说明](https://img-ask.csdn.net/upload/201901/07/1546856286_507280.jpg)![图片说明](https://img-ask.csdn.net/upload/201901/07/1546856296_484616.jpg) ``` #coding=utf-8 import re import requests from urllib import error from bs4 import BeautifulSoup import os num = 0 numPicture = 0 file = '' List = [] def Find(url): global List print('正在检测图片总数,请稍等.....') t = 0 i = 1 s = 0 while t < 1000: Url = url + str(t) + '&gsm=8c' try: Result = requests.get(Url, timeout=7) except BaseException: t = t+60 continue else: result = Result.text pic_url = re.findall('"objURL":"(.*?)",', result, re.S) # 先利用正则表达式找到图片url s += len(pic_url) if len(pic_url) == 0: break else: List.append(pic_url) t = t + 60 return s def recommend(url): Re = [] try: html = requests.get(url) except error.HTTPError as e: return else: html.encoding = 'utf-8' bsObj = BeautifulSoup(html.text, 'html.parser') div = bsObj.find('div', id='topRS') if div is not None: listA = div.findAll('a') for i in listA: if i is not None: Re.append(i.get_text()) return Re def dowmloadPicture(html, keyword): global num pic_url = re.findall('"objURL":"(.*?)",', html, re.S) # 先利用正则表达式找到图片url print('找到关键词:' + keyword + '的图片,即将开始下载图片...') for each in pic_url: print('正在下载第' + str(num + 1) + '张图片,图片地址:' + str(each)) try: if each is not None: pic = requests.get(each, timeout=10) else: continue except BaseException: print('错误,当前图片无法下载') continue else: string = file + r'\\' + keyword + '_' + str(num) + '.jpg' fp = open(string, 'wb') fp.write(pic.content) fp.close() num += 1 if num >= numPicture: return if __name__ == '__main__': # 主函数入口 word = input("请输入搜索关键词(可以是人名,地名等): ") url = 'http://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word='+word+'&ct=201326592&v=flip' tot = Find(url) Recommend = recommend(url) # 记录相关推荐 print('经过检测%s类图片共有%d张' % (word, tot)) numPicture = int(input('请输入想要下载的图片数量 ')) file = input('请建立一个存储图片的文件夹,输入文件夹名称即可') y = os.path.exists(file) if y == 1: print('该文件已存在,请重新输入') file = input('请建立一个存储图片的文件夹,输入文件夹名称即可') os.mkdir(file) else: os.mkdir(file) t = 0 while t < numPicture: try: url = url + str(t) + '&gsm=8c' result = requests.get(url, timeout=10) except error.HTTPError as e: print('网络错误,请调整网络后重试') else: dowmloadPicture(result.text, word) finally: t = t+60 print('当前搜索结束,感谢使用') print('猜你喜欢') for re in Recommend: print(re, end=' ') ```
爬虫福利二 之 妹子图网MM批量下载
爬虫福利一:27报网MM批量下载    点击 看了本文,相信大家对爬虫一定会产生强烈的兴趣,激励自己去学习爬虫,在这里提前祝:大家学有所成! 目标网站:妹子图网 环境:Python3.x 相关第三方模块:requests、beautifulsoup4 Re:各位在测试时只需要将代码里的变量 path 指定为你当前系统要保存的路径,使用 python xxx.py 或IDE运行即可。
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、PDF搜索网站推荐 对于大部
毕业设计 微信小程序 音乐播放器
大学室友根据网易云的API自己制作的微信小程序,获得校级优秀毕业设计(如果你是大佬请绕行),下面简单介绍一下: 根据多次的使用不同的音乐APP发现,网易云音乐的页面设计最适合作为本微信小程序的页面基础模板。由于本作品是微信小程序,就需要剔除APP中的各种冗余的功能,页面设计也需要尽可能的简单直接,内容也要充实。然后根据以上几点,对应用的功能模块进行大量的分析与重构...
想查看微信好友撤回的消息?Python帮你搞定
要说微信最让人恶心的发明,消息撤回绝对能上榜。 比如你现在正和女朋友用微信聊着天,或者跟自己喜欢的女孩子聊着天,一个不留神,你没注意到对方发的消息就被她及时撤回了,这时你很好奇,好奇她到底发了什么?于是你打算问问她发了什么,结果她回一句"没什么"。这一回复,让你的好奇心更加强烈了,顿时就感觉消息撤回这一功能就是用来折磨人的。 那么有没有什么办法能够知道你心爱的她(他)到底撤回了什么呢?不要着急,P...
程序员必备的8个学习工具
取其精华,去其糟粕
2019年12月中国编程语言排行榜
2019年12月4日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.60% 2 c/c++ 16.58% 3 c# 12.59% 4 javascript 12.21% 5 python 7.96% 6 go 7.19% 7 php ...
拼不过 GO?阿里如何重塑云上的 Java
阿里妹导读:Java 诞生于20年前,拥有大量优秀的企业级框架,践行 OOP 理念,更多体现的是严谨以及在长时间运行条件下的稳定性和高性能。反观如今,在要求快速迭代交付的云场景下,语言的简单性似乎成了首要的要求,而传统的 Java 语言显得有一些过于重量了。今天,阿里 JVM 团队技术专家郁磊(花名:梁希)分享 JVM 团队是如何面对和处理集团巨大的业务规模和复杂的业务场景的。 音乐无国...
Java知识体系最强总结(2020版)
更新于2020-01-05 18:08:00 本人从事Java开发已多年,平时有记录问题解决方案和总结知识点的习惯,整理了一些有关Java的知识体系,这不是最终版,会不定期的更新。也算是记录自己在从事编程工作的成长足迹,通过博客可以促进博主与阅读者的共同进步,结交更多志同道合的朋友。特此分享给大家,本人见识有限,写的博客难免有错误或者疏忽的地方,还望各位大佬指点,在此表示感激不尽。 整理的Ja
一个“/”键,封锁了整个互联网
正所谓无BUG不生活,从你含辛茹苦地码着第一行代码开始,bug就如影随形。 其实,bug 被自己或者是测试人员发现都是好事;但如果是被用户发现,又或者导致了客户和公司的巨额损失……这些未知后果,就如同悬在头顶的一把利刃,让人脊背发凉…… 但一个小小的bug,可能带给你惊吓,也可能带来惊喜。接下来,我们就来看看 bug 都能带来哪些意想不到的影响呢? 1.来自 Amazon 的圣诞大礼包~ 201...
计算机专业的书普遍都这么贵,你们都是怎么获取资源的?
介绍几个可以下载编程电子书籍的网站。 1.Github Github上编程书资源很多,你可以根据类型和语言去搜索。推荐几个热门的: free-programming-books-zh_CN:58K 星的GitHub,编程语言、WEB、函数、大数据、操作系统、在线课程、数据库相关书籍应有尽有,共有几百本。 Go语言高级编程:涵盖CGO,Go汇编语言,RPC实现,Protobuf插件实现,Web框架实
自学系列 | 就谈兴趣!
最近接到很多读者的私信,基本都是有关方向的选择上以及如何自学上,还有部分读者问到有关前端的方向,能不能详细写写如果从零学习,能够达到找工作的标准。而且这个自学能力是我们一辈子的生存技能,无论干什么,都离开这种能力,这是毋容置疑的。 之前有关自学的文章确实挺零散的,而且还不够详细。所以小鹿打算利用业余时间把如何自学写成一整个系列《如何成为一个优秀的自学者》。写之前呢,希望我们每个人先放下心中的执念...
卸载 x 雷某度!GitHub 标星 1.5w+,从此我只用这款全能高速下载工具!
作者 | Rocky0429 来源 | Python空间 大家好,我是 Rocky0429,一个喜欢在网上收集各种资源的蒟蒻… 网上资源眼花缭乱,下载的方式也同样千奇百怪,比如 BT 下载,磁力链接,网盘资源等等等等,下个资源可真不容易,不一样的方式要用不同的下载软件,因此某比较有名的 x 雷和某度网盘成了我经常使用的工具。 作为一个没有钱的穷鬼,某度网盘几十 kb 的下载速度让我
毕业5年,我问遍了身边的大佬,总结了他们的学习方法
你知道的越多,你不知道的越多 点赞再看,养成习惯 本文 GitHub https://github.com/JavaFamily 已收录,有一线大厂面试点思维导图,也整理了很多我的文档,欢迎Star和完善,大家面试可以参照考点复习,希望我们一起有点东西。 前言 很多次小伙伴问到学习方法,我也很想写这样的一篇文章来跟大家讨论下关于学习方法这件事情。 其实学习方法这个事情,我没啥发言权
推荐10个堪称神器的学习网站
每天都会收到很多读者的私信,问我:“二哥,有什么推荐的学习网站吗?最近很浮躁,手头的一些网站都看烦了,想看看二哥这里有什么新鲜货。” 今天一早做了个恶梦,梦到被老板辞退了。虽然说在我们公司,只有我辞退老板的份,没有老板辞退我这一说,但是还是被吓得 4 点多都起来了。(主要是因为我掌握着公司所有的核心源码,哈哈哈) 既然 4 点多起来,就得好好利用起来。于是我就挑选了 10 个堪称神器的学习网站,推
这些软件太强了,Windows必装!尤其程序员!
Windows可谓是大多数人的生产力工具,集娱乐办公于一体,虽然在程序员这个群体中都说苹果是信仰,但是大部分不都是从Windows过来的,而且现在依然有很多的程序员用Windows。 所以,今天我就把我私藏的Windows必装的软件分享给大家,如果有一个你没有用过甚至没有听过,那你就赚了......,这可都是提升你幸福感的高效率生产力工具哦! 走起!...... NO、1 ScreenToGif 屏幕,摄像头和
还看不懂同事代码?快来补一波 Java 7 语法特性
前言 Java 平台自出现到目前为止,已经 20 多个年头了,这 20 多年间 Java 也一直作为最流行的程序设计语言之一,不断面临着其他新兴编程语言的挑战与冲击。Java 语言是一种静态强类型语言,这样的语言特性可以让 Java 编译器在编译阶段发现错误,这对于构建出一个稳定安全且健壮的应用来说,尤为重要。但是也因为这种特性,让 Java 开发似乎变得缺少灵活性,开发某些功能的应用时,代码量可...
为什么TCP建立连接协议是三次握手,而关闭连接却是四次挥手呢?
看到了一道面试题:“为什么TCP建立连接协议是三次握手,而关闭连接却是四次握手呢?为什么不能用两次握手进行连接?”,想想最近也到金三银四了,所以就查阅了相关资料,整理出来了这篇文章,希望对你们有所帮助。 TCP 连接 我们先来补一下基础什么是 TCP 协议?传输控制协议( Transmission Control Protocol, TCP )是种面向连接、确保数据在端到端间可靠传输的协议。面向连...
大学四年因为知道了这32个网站,我成了别人眼中的大神!
依稀记得,毕业那天,我们导员发给我毕业证的时候对我说“你可是咱们系的风云人物啊”,哎呀,别提当时多开心啦......,嗯,我们导员是所有导员中最帅的一个,真的...... 不过,导员说的是实话,很多人都叫我大神的,为啥,因为我知道这32个网站啊,你说强不强......,这次是绝对的干货,看好啦,走起来! PS:每个网站都是学计算机混互联网必须知道的,真的牛杯,我就不过多介绍了,大家自行探索,觉得没用的,尽管留言吐槽吧?
看完这篇HTTP,跟面试官扯皮就没问题了
我是一名程序员,我的主要编程语言是 Java,我更是一名 Web 开发人员,所以我必须要了解 HTTP,所以本篇文章就来带你从 HTTP 入门到进阶,看完让你有一种恍然大悟、醍醐灌顶的感觉。 最初在有网络之前,我们的电脑都是单机的,单机系统是孤立的,我还记得 05 年前那会儿家里有个电脑,想打电脑游戏还得两个人在一个电脑上玩儿,及其不方便。我就想为什么家里人不让上网,我的同学 xxx 家里有网,每
阿里程序员写了一个新手都写不出的低级bug,被骂惨了。
你知道的越多,你不知道的越多 点赞再看,养成习惯 本文 GitHub https://github.com/JavaFamily 已收录,有一线大厂面试点思维导图,也整理了很多我的文档,欢迎Star和完善,大家面试可以参照考点复习,希望我们一起有点东西。 前前言 为啥今天有个前前言呢? 因为你们的丙丙啊,昨天有牌面了哟,直接被微信官方推荐,知乎推荐,也就仅仅是还行吧(心里乐开花)
2020年,冯唐49岁:我给20、30岁IT职场年轻人的建议
点击“技术领导力”关注∆每天早上8:30推送 作者|Mr.K 编辑| Emma 来源|技术领导力(ID:jishulingdaoli) 前天的推文《冯唐:职场人35岁以后,方法论比经验重要》,收到了不少读者的反馈,觉得挺受启发。其实,冯唐写了不少关于职场方面的文章,都挺不错的。可惜大家只记住了“春风十里不如你”、“如何避免成为油腻腻的中年人”等不那么正经的文章。 本文整理了冯...
一文带你看清 HTTP 所有概念
上一篇文章我们大致讲解了一下 HTTP 的基本特征和使用,大家反响很不错,那么本篇文章我们就来深究一下 HTTP 的特性。我们接着上篇文章没有说完的 HTTP 标头继续来介绍(此篇文章会介绍所有标头的概念,但没有深入底层) HTTP 标头 先来回顾一下 HTTP1.1 标头都有哪几种 HTTP 1.1 的标头主要分为四种,通用标头、实体标头、请求标头、响应标头,现在我们来对这几种标头进行介绍 通用
世界上有哪些代码量很少,但很牛逼很经典的算法或项目案例?
点击上方蓝字设为星标下面开始今天的学习~今天分享四个代码量很少,但很牛逼很经典的算法或项目案例。1、no code 项目地址:https://github.com/kelseyhight...
作为一个程序员,CPU的这些硬核知识你必须会!
CPU对每个程序员来说,是个既熟悉又陌生的东西? 如果你只知道CPU是中央处理器的话,那可能对你并没有什么用,那么作为程序员的我们,必须要搞懂的就是CPU这家伙是如何运行的,尤其要搞懂它里面的寄存器是怎么一回事,因为这将让你从底层明白程序的运行机制。 随我一起,来好好认识下CPU这货吧 把CPU掰开来看 对于CPU来说,我们首先就要搞明白它是怎么回事,也就是它的内部构造,当然,CPU那么牛的一个东
破14亿,Python分析我国存在哪些人口危机!
2020年1月17日,国家统计局发布了2019年国民经济报告,报告中指出我国人口突破14亿。 猪哥的朋友圈被14亿人口刷屏,但是很多人并没有看到我国复杂的人口问题:老龄化、男女比例失衡、生育率下降、人口红利下降等。 今天我们就来分析一下我们国家的人口数据吧! 更多有趣分析教程,扫描下方二维码关注vx公号「裸睡的猪」 即可查看! 一、背景 1.人口突破14亿 2020年1月17日,国家统计局发布
Python实战:抓肺炎疫情实时数据,画2019-nCoV疫情地图
今天,群里白垩老师问如何用python画武汉肺炎疫情地图。白垩老师是研究海洋生态与地球生物的学者,国家重点实验室成员,于不惑之年学习python,实为我等学习楷模。先前我并没有关注武汉肺炎的具体数据,也没有画过类似的数据分布图。于是就拿了两个小时,专门研究了一下,遂成此文。
面试官问你MyBatis SQL是如何执行的?把这篇文章甩给他
初识 MyBatis MyBatis 是第一个支持自定义 SQL、存储过程和高级映射的类持久框架。MyBatis 消除了大部分 JDBC 的样板代码、手动设置参数以及检索结果。MyBatis 能够支持简单的 XML 和注解配置规则。使 Map 接口和 POJO 类映射到数据库字段和记录。 MyBatis 的特点 那么 MyBatis 具有什么特点呢?或许我们可以从如下几个方面来描述 MyBati...
作为一个程序员,内存和磁盘的这些事情,你不得不知道啊!!!
截止目前,我已经分享了如下几篇文章: 一个程序在计算机中是如何运行的?超级干货!!! 作为一个程序员,CPU的这些硬核知识你必须会! 作为一个程序员,内存的这些硬核知识你必须懂! 这些知识可以说是我们之前都不太重视的基础知识,可能大家在上大学的时候都学习过了,但是嘞,当时由于老师讲解的没那么有趣,又加上这些知识本身就比较枯燥,所以嘞,大家当初几乎等于没学。 再说啦,学习这些,也看不出来有什么用啊!
相关热词 c#判断数字不得为负数 c#帧和帧协议 c#算偏移值 c# 在枚举中 c#6 字符串 插值 c#程序中的占位符标签 c#监听数组变化 c# vlc c#索引实现 c# 局域网广播通信
立即提问