继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

Python 爬虫

慕勒551688
关注TA
已关注
手记 250
粉丝 39
获赞 133

初学 Python, 结合网络资料整理
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
#!/usr/bin/python
#coding=UTF-8

'''
爬虫 v 1.0 (L)
'''

import time
import sys
import re
#====================================

根据 Python 的版本选择需要加载的模块

#====================================
if (sys.version)[0] == '3':
import urllib.request as urlreq
import _thread as thread
else:
import urllib2 as urlreq
import thread as thread

class Spider:
def init(self):
self.pageidx = 1   # 标记页码
self.items = []    # 存放正文内容
self.read = False  # 存放是否继续 True:继续; False:停止
self.restr = ''
self.user_agent = ['Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)', '', ''] # UA 列表
self.header = { 'User-Agent' : (self.user_agent)[0] }# 存放浏览器UA(防止网站限定header)


#=========================================================

# 功能: 获取网页内容(按规则)

# 参数: self; url:页面地址;  recom:正则

#=========================================================

def GetItems(self, url, recom):

    request = urlreq.Request(url, headers = self.header)

    html = urlreq.urlopen(request).read()


    # 页面编码转换 (encode: unicode->其它; decode: 其它->unicode)

    uhtml = html.decode("UTF-8")


    # 根据规则从页面选定内容;

    return re.findall(recom, uhtml)


#=========================================================

# 功能: 加载网页内容

# 参数: self;

#=========================================================

def LoadItems(self, url, recom):


    while self.read:

        # 判断当items中的内容不足两条时,请求下一页数据并存入items列表中

        if len(self.items) < 2:

            try:

                uri = url.replace("$PX$", str(self.pageidx))

                item = self.GetItems(uri, recom)

                self.items.append(item)

                self.pageidx += 1

            except:

                print('[ ' + uri + ' ] 被外星人劫持[访问失败]....')

                self.read = False

        else:

            time.sleep(1)


#=========================================================

# 功能: 现实网页内容(并接收用户输入)

# 参数: self;

#=========================================================

def ShowItems(self, items, pidx = 1):

    for item in items:

        print(u'[%d]' % pidx, item[1], '\n', item[0].replace('\n', '').replace('<br/>', '\n'))

        print('-' * 70)

        option = input().upper()

        if option == 'Q':

            self.read = False

            return 9

        elif option == 'R':

            self.pageidx = 1 # 初始值

            return 0

    return 1


#=========================================================

# 功能: 现实网页内容(并接收用户输入)

# 参数: self;

#=========================================================

def Launcher(self, url, recom):

    self.read = True

    pidx = self.pageidx


    print(u'正在加载中请稍候......\n', '=' * 70)


    thread.start_new_thread(self.LoadItems, (url, recom))


    while self.read:

        if self.items:

            item = self.items[0]

            del self.items[0]

            ret = self.ShowItems(item, pidx)

            if ret == 9:

                print(u'即将推出阅读....')

                break

            else:

                pidx += ret


def usage():
print(u"""


-   程序:糗百爬虫(阅读文章)

-   版本:0.1

-   作者:L

-   日期:2015-06-30

-   语言:Python 3.3.5

-   操作:Q:退出阅读; R:刷新到第一页; 回车:阅读

-   功能:按下回车依次浏览今日的糗百热点

---------------------------------------------

""")



if name == "main":
usage()


   url = 'http://m.qiushibaike.com/hot/page/$PX$'

    # re.S是任意匹配模式(如:匹配换行符)

    recom = re.compile(r'<div class="content">(.*?)<!--(.*?)-->.*?</div>', re.S)


    input('浏览今日的糗百内容(任意键):')

    spider = Spider()

    spider.Launcher(url, recom)

    print('欢迎再次使用....')


打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP