博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
python3自己主动爬笑话
阅读量:5158 次
发布时间:2019-06-13

本文共 1134 字,大约阅读时间需要 3 分钟。

        学校的server能够上外网了,所以打算写一个自己主动爬取笑话并发到bbs的东西,从网上搜了一个笑话站点,感觉大部分还不太冷。html结构例如以下:

        能够看到,笑话的链接列表都在<div class="list_title">里面,用正則表達式能够把近期的几个笑话地址找出来,再进到一个笑话页面看下:

        每一个笑话页面里面是有多个小笑话组成的。所有在<span id="text110">标签下,每一个小笑话又单独一个<p>包裹,这样很easy就能够把每一个单独笑话放到一个list中。因为我爬笑话的目的是每天白天一个小时发一个笑话。所以爬取20个是足够的了,每一个页面平均有5个小笑话,爬4个页面就OK啦。

这里有几个细节。这个笑话网有的链接是有中文的,比方:

读书破万卷,搞笑如有神
直接urllib.request.urlopen函数不能解析中文的URL。必需要urllib.parse先转码一下才干正确解析。另一个细节是每段的小笑话之间是有换行的,用正則表達式的“.”是不能匹配换行符的,需要改成“[\w\W]”才干匹配。好了,以下是代码:

import urllib.requestimport urllib.parseimport rerule_joke=re.compile('([\w\W]*?)')rule_url=re.compile('')mainUrl='http://www.jokeji.cn'url='http://www.jokeji.cn/list.htm'req=urllib.request.urlopen(url)html=req.read().decode('gbk')urls=rule_url.findall(html)f=open('joke.txt','w')for i in range(4):	url2=urllib.parse.quote(urls[i])	joke_url=mainUrl+url2	req2=urllib.request.urlopen(joke_url)	html2=req2.read().decode('gbk')	joke=rule_joke.findall(html2)	jokes=joke[0].split('

') for i in jokes: i=i.replace('

','') i=i.replace('
','') i=i[2:] f.write(i)f.close()
看下爬取的结果:

        这样,每行是一个单独的笑话。方便其它程序使用。

转载请注明:转自

转载于:https://www.cnblogs.com/yfceshi/p/7272702.html

你可能感兴趣的文章
bool
查看>>
C#中Enum用法小结
查看>>
ORA-12541:TNS:无监听程序
查看>>
QMap与QHash
查看>>
Cocos2d-x动作学习笔记 分类: cocos2d代码编写 ...
查看>>
第4章例4-12 源程序2
查看>>
Bootstrap 3 How-To #1 下载与配置
查看>>
java并发编程(10)Fork/Join
查看>>
#程序员健康 如何解救你的鼠标手
查看>>
linux下maven的安装
查看>>
win10安装express遇到的问题。
查看>>
Corosync 配置描述
查看>>
JAVA中类、实例与Class对象
查看>>
svn_linux + apache 实现网页访问svn
查看>>
leetcode 58. length of last word
查看>>
C++随笔(2)
查看>>
周浩晖 - 鬼望坡(2014年11月25日)
查看>>
servlet+jdbc+fckeditor网络留言板
查看>>
JavaScript 对象
查看>>
三、运算符和保留字、内建函数
查看>>