soonwalker 2022-05-06 01:36 采纳率: 81.8%
浏览 16
已结题

nltk库分词后有多余的符号分到单词里

book="Harry Potter and the Sorcerer's Stone.txt"

from nltk import word_tokenize,pos_tag #分词、词性标注
from nltk.corpus import wordnet
from nltk.stem import WordNetLemmatizer #词性还原

book_datas=''
with open(book,encoding='utf-8') as fd:
for line in fd.readlines():
book_datas +=line

words= word_tokenize(book_datas)

这是准备用nltk将单词割分,然后减去标点符号和停用词,但是在交互窗口运行了一下发现出现了'that.When','nonsense.Mr', 'anywhere.The',之类很显然的错误呢,我又该怎么办呢

  • 写回答

1条回答 默认 最新

  • 请叫我问哥 Python领域新星创作者 2022-05-06 10:59
    关注

    如果只是点无法识别的话,可以先用replace()把点替换成空格,再去分词。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 系统已结题 5月15日
  • 已采纳回答 5月7日
  • 创建了问题 5月6日

悬赏问题

  • ¥15 #MATLAB仿真#车辆换道路径规划
  • ¥15 java 操作 elasticsearch 8.1 实现 索引的重建
  • ¥15 数据可视化Python
  • ¥15 要给毕业设计添加扫码登录的功能!!有偿
  • ¥15 kafka 分区副本增加会导致消息丢失或者不可用吗?
  • ¥15 微信公众号自制会员卡没有收款渠道啊
  • ¥100 Jenkins自动化部署—悬赏100元
  • ¥15 关于#python#的问题:求帮写python代码
  • ¥20 MATLAB画图图形出现上下震荡的线条
  • ¥15 关于#windows#的问题:怎么用WIN 11系统的电脑 克隆WIN NT3.51-4.0系统的硬盘