python爬取在线评论(Python爬虫实现爬取百度百科词条功能实例)
类别:脚本大全 浏览量:1355
时间:2021-10-21 07:52:28 python爬取在线评论
Python爬虫实现爬取百度百科词条功能实例本文实例讲述了python爬虫实现爬取百度百科词条功能。分享给大家供大家参考,具体如下:
爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。爬虫从一个或若干初始网页的url开始,获得初始网页上的url,在抓取网页的过程中,不断从当前页面上抽取新的url放入队列,直到满足系统的一定停止条件。爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的url队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页url,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索。常见的爬虫框架有scrapy等。
自定义爬虫程序一般包含:url管理器、网页下载器、网页解析器、输出处理器。
以下我写了一个爬取百度百科词条的实例。
爬虫主程序入口
|
from crawler_test.html_downloader import urldownloader from crawler_test.html_outer import htmlouter from crawler_test.html_parser import htmlparser from crawler_test.url_manager import urlmanager # 爬虫主程序入口 class maincrawler(): def __init__( self ): # 初始值,实例化四大处理器:url管理器,下载器,解析器,输出器 self .urls = urlmanager() self .downloader = urldownloader() self .parser = htmlparser() self .outer = htmlouter() # 开始爬虫方法 def start_craw( self , main_url): print ( '爬虫开始...' ) count = 1 self .urls.add_new_url(main_url) while self .urls.has_new_url(): try : new_url = self .urls.get_new_url() print ( '爬虫%d,%s' % (count, new_url)) html_cont = self .downloader.down_load(new_url) new_urls, new_data = self .parser.parse(new_url, html_cont) # 将解析出的url放入url管理器,解析出的数据放入输出器中 self .urls.add_new_urls(new_urls) self .outer.conllect_data(new_data) if count > = 10 : # 控制爬取的数量 break count + = 1 except : print ( '爬虫失败一条' ) self .outer.output() print ( '爬虫结束。' ) if __name__ = = '__main__' : main_url = 'https://baike.baidu.com/item/python/407313' mc = maincrawler() mc.start_craw(main_url) |
url管理器
|
# url管理器 class urlmanager(): def __init__( self ): self .new_urls = set () # 待爬取 self .old_urls = set () # 已爬取 # 添加一个新的url def add_new_url( self , url): if url is none: return elif url not in self .new_urls and url not in self .old_urls: self .new_urls.add(url) # 批量添加url def add_new_urls( self , urls): if urls is none or len (urls) = = 0 : return else : for url in urls: self .add_new_url(url) # 判断是否有url def has_new_url( self ): return len ( self .new_urls) ! = 0 # 从待爬取的集合中获取一个url def get_new_url( self ): new_url = self .new_urls.pop() self .old_urls.add(new_url) return new_url |
网页下载器
|
from urllib import request # 网页下载器 class urldownloader(): def down_load( self , url): if url is none: return none else : rt = request.request(url = url, method = 'get' ) # 发get请求 with request.urlopen(rt) as rp: # 打开网页 if rp.status ! = 200 : return none else : return rp.read() # 读取网页内容 |
网页解析器
|
import re from urllib import parse from bs4 import beautifulsoup # 网页解析器,使用beautifulsoup class htmlparser(): # 每个词条中,可以有多个超链接 # main_url指url公共部分,如“https://baike.baidu.com/” def _get_new_url( self , main_url, soup): # baike.baidu.com/ # <a target="_blank" href="/item/%e8%ae%a1%e7%ae%97%e6%9c%ba%e7%a8%8b%e5%ba%8f%e8%ae%be%e8%ae%a1%e8%af%ad%e8%a8%80" rel="external nofollow" >计算机程序设计语言</a> new_urls = set () # 解析出main_url之后的url部分 child_urls = soup.find_all( 'a' , href = re. compile (r '/item/(\%\w{2})+' )) for child_url in child_urls: new_url = child_url[ 'href' ] # 再拼接成完整的url full_url = parse.urljoin(main_url, new_url) new_urls.add(full_url) return new_urls # 每个词条中,只有一个描述内容,解析出数据(词条,内容) def _get_new_data( self , main_url, soup): new_datas = {} new_datas[ 'url' ] = main_url # <dd class="lemmawgt-lemmatitle-title"><h1>计算机程序设计语言</h1>... new_datas[ 'title' ] = soup.find( 'dd' , class_ = 'lemmawgt-lemmatitle-title' ).find( 'h1' ).get_text() # class="lemma-summary" label-module="lemmasummary"... new_datas[ 'content' ] = soup.find( 'li' , attrs = { 'label-module' : 'lemmasummary' }, class_ = 'lemma-summary' ).get_text() return new_datas # 解析出url和数据(词条,内容) def parse( self , main_url, html_cont): if main_url is none or html_cont is none: return soup = beautifulsoup(html_cont, 'lxml' , from_encoding = 'utf-8' ) new_url = self ._get_new_url(main_url, soup) new_data = self ._get_new_data(main_url, soup) return new_url, new_data |
输出处理器
|
# 输出器 class htmlouter(): def __init__( self ): self .datas = [] # 先收集数据 def conllect_data( self , data): if data is none: return self .datas.append(data) return self .datas # 输出为html def output( self , file = 'output_html.html' ): with open ( file , 'w' , encoding = 'utf-8' ) as fh: fh.write( '<html>' ) fh.write( '<head>' ) fh.write( '<meta charset="utf-8"></meta>' ) fh.write( '<title>爬虫数据结果</title>' ) fh.write( '</head>' ) fh.write( '<body>' ) fh.write( '<table style="border-collapse:collapse; border:1px solid gray; width:80%; word-break:break-all; margin:20px auto;">' ) fh.write( '<tr>' ) fh.write( '<th style="border:1px solid black; width:35%;">url</th>' ) fh.write( '<th style="border:1px solid black; width:15%;">词条</th>' ) fh.write( '<th style="border:1px solid black; width:50%;">内容</th>' ) fh.write( '</tr>' ) for data in self .datas: fh.write( '<tr>' ) fh.write( '<td style="border:1px solid black">{0}</td>' . format (data[ 'url' ])) fh.write( '<td style="border:1px solid black">{0}</td>' . format (data[ 'title' ])) fh.write( '<td style="border:1px solid black">{0}</td>' . format (data[ 'content' ])) fh.write( '</tr>' ) fh.write( '</table>' ) fh.write( '</body>' ) fh.write( '</html>' ) |
效果(部分):
希望本文所述对大家python程序设计有所帮助。
原文链接:https://www.cnblogs.com/wcwnina/p/8619084.html
您可能感兴趣
- 用python图片转字符串(python实现图片转字符小工具)
- python面向对象练习方法(Python面向对象实现一个对象调用另一个对象操作示例)
- python与php(解决Python3 被PHP程序调用执行返回乱码的问题)
- python opencv替换背景教程(基于OpenCV python3实现证件照换背景的方法)
- python对字典值排序(Python实现字典按key或者value进行排序操作示例sorted)
- java集成钉钉发送消息(Python实现钉钉发送报警消息的方法)
- python中如何限制数字的个数(python 处理数字,把大于上限的数字置零实现方法)
- python字符串之基本操作小练习(Python数据类型之String字符串实例详解)
- python外部如何调嵌套函数(python中嵌套函数的实操步骤)
- nginxpython编写模块(Python开发之Nginx+uWSGI+virtualenv多项目部署教程)
- opencv 图像匹配python(OpenCV+Python识别车牌和字符分割的实现)
- python内置函数使用方法(Python神奇的内置函数locals的实例讲解)
- python 文本文件读取方法(Python逐行读取文件中内容的简单方法)
- python语言中的递归(详解python中递归函数)
- python的几种数据结构(python中的数据结构比较)
- pythonsvr时序预测(利用Python半自动化生成Nessus报告的方法)
- 包水饺(包水饺手法怎么包视频)
- 越南河粉(越南河粉来自哪里)
- 按这几方面养护佛肚竹盆景,保证枝叶繁茂,造型优美(按这几方面养护佛肚竹盆景)
- 冰岛旅游攻略(冰岛旅游攻略及花费八日游)
- 寒假旅游攻略(成都寒假旅游攻略)
- 菲律宾旅游攻略(菲律宾旅游攻略地图)
热门推荐
- centos7怎样安装vnc(Ubuntu 20.04系统中安装vncserver的方法步骤)
- 阿里云盘挂载云服务器(阿里云主机的安装硬盘挂载数据盘加载或修改/www)
- sqlserver2000升级教程(MSSQL 2000 使用帮助sql server简明教程)
- python实现的数据结构(Python嵌套式数据结构实例浅析)
- 香港云服务器(香港云服务器的优势是什么?)
- python画折线图(python使用Plotly绘图工具绘制水平条形图)
- python 基于内容的推荐系统(不到40行代码用Python实现一个简单的推荐系统)
- 阿里云ecs部门怎么样(阿里云ecs是什么意思?)
- mysql 高级查询语法(MySQL查询语句进阶知识集锦)
- python 多进程读取文件(Python实现的多进程拷贝文件并显示百分比功能示例)
排行榜
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9