迈博体育APP-一个简便的爬虫和存储就可以科罚
你的位置:迈博体育APP > 迈博体育官网 > 一个简便的爬虫和存储就可以科罚
一个简便的爬虫和存储就可以科罚
发布日期:2022-02-16 12:40    点击次数:186

一个简便的爬虫和存储就可以科罚

 迈博体育网站

群众好!我是Python进阶者。

绪论

前几天一个在校大学生问了一些对于词频、分词和可视化方面的问题,聚积爬虫,如实可以做点东西出来,可以玩玩,依然蛮可以的,这里整理成一篇著述,共享给群众。

本文主要波及的库有爬虫库requests、词频统计库collections、数据处理库numpy、禁绝分词库jieba 、可视化库pyecharts等等。

迈博体育网站 一、数据开端

对于数据方面,这里奏凯是再行闻平台上进行得回的文本信息,其实这个文本文献可以拓张开来,你可以自界说文本,也可以是诠释,交易诠释,政事诠释等,也可以是新闻平台,也可以是论文,也可以是微博热评,也可以是网易云音乐热评等等,唯有波及到多数文本的,都可月援用本文的代码,进行词频分词、统计、可视化等。

二、数据得回

数据得回额外简便,一个简便的爬虫和存储就可以科罚,这里以一篇新闻为例进行演示,代码如下:

import re import collections  # 词频统计库 import numpy as np # numpy数据处理库 import jieba  # 禁绝分词 import requests from bs4 import BeautifulSoup  from pyecharts import options as opts from pyecharts.charts import WordCloud from pyecharts.globals import SymbolType  import warnings warnings.filterwarnings('ignore')  r=requests.get("https://m.thepaper.cn/baijiahao_11694997",timeout=10) r.encoding="utf-8" s=BeautifulSoup(r.text,"html.parser") f=open("诠释.txt","w",encoding="utf-8") L=s.find_all("p") for c in L:     f.write("{}\n".format(c.text))      f.close() 

代码运转之后,在土产货会得到一个【诠释.txt】文献,文献试验即是网站上的文本信息。淌若你想得回其他网站上的文本,需要革新下通顺和索要限定。

三、词频统计

接下来即是词频统计了,代码如下所示。

(2)如何应付即使在很干净的设计中仍然像雪崩一样的不相干细节?

# 读取文献 fn = open("./诠释.txt","r",encoding="utf-8") string_data = fn.read() fn.close() # 文本预处理 # 界说正则抒发式匹配样式 pattern = re.compile(u'\t|,|/|。|\n|\.|-|:|;|\)|\(|\?|"')  string_data = re.sub(pattern,'',string_data)  # 将合适样式的字符去除 # 文分内词 # 精准样式分词 seg_list_exact = jieba.cut(string_data,cut_all=False)   object_list = [] # 自界说去除词库 remove_words = [u'的',u'要', u'“',u'”',u'和',u',',u'为',u'是',                 '以' u'跟着', u'对于', u'对',u'等',u'能',u'都',u'。',                 u' ',u'、',u'中',u'在',u'了',u'频繁',u'淌若',u'我',                 u'她',u'(',u')',u'他',u'你',u'?',u'—',u'就',                 u'着',u'说',u'上',u'这', u'那',u'有', u'也',                 u'什么', u'·', u'将', u'莫得', u'到', u'不', u'去']   for word in seg_list_exact:     if word not in remove_words:         object_list.append(word) # 词频统计 # 对分词做词频统计 word_counts = collections.Counter(object_list)  # 得回前30最高频的词 word_counts_all = word_counts.most_common() word_counts_top30 = word_counts.most_common(30)  print("2021年政府使命诠释一共有%d个词"%len(word_counts)) print(word_counts_top30) 

当先读取文本信息,之后对文本进行预处理,索要笔墨信息,况兼可以自界说词库,手脚停用词,之后将得回到的词频做词频统计,得回前30最高频的词,并进行打印,输出成果如下图所示。

四、可视化

接下来即是可视化部分了,这里奏凯上代码,如下所示。

import pyecharts from pyecharts.charts import Line from pyecharts import options as opts  # 示例数据 cate = [i[0] for i in word_counts_top30] data1 = [i[1] for i in word_counts_top30]  line = (Line()        .add_xaxis(cate)        .add_yaxis('词频', data1,                    markline_opts=opts.MarkLineOpts(data=[opts.MarkLineItem(type_="average")]))        .set_global_opts(title_opts=opts.TitleOpts(title="词频统计Top30", subtitle=""),        xaxis_opts=opts.AxisOpts(name_rotate=60,axislabel_opts={"rotate":45}))       )  line.render_notebook() 

输出成果是一个线图,看上去还可以。

五、转头

本文基于Python集聚爬虫得回到的文本文献,通过词频、分词和可视化等处理,完成一个较为简便的样式,接待群众积极尝试。在代码兑现流程中,淌若有遭逢任何问题,请加我好友,我匡助解决哦!

 



  • 上一篇:没有了
  • 下一篇:点击“处治”后