玩蛇网提供最新Python编程技术信息以及Python资源下载!
您现在的位置: 玩蛇网首页 > Python问题解答 > 正文内容

怎么能保证python抓取页百标题的正确率

通过 urllib 将网页内容抓取下来,然后用正则表达式 re 模块将标题匹配出来,但是发现部分标题会出现问题,比如下面抓 Apple 的代码运行结果是 App,测试发现匹配结果 m 是没有问题的,问题出现在了 strip() 这里。

# -*- coding: utf-8 -*-
import urllib
import re

url='http://apple.com'
html = urllib.urlopen(url).read()
#print html
m = re.search("<title>.*</title>", html)
print m.group() # 这里输出结果 <title>Apple</title>
print m.group().strip("</title>") #问题应该出现在这个正则

通用的方法是使用htmlparser解析.

比如使用lxml扩展包来解析:

from lxml import html
doc = html.parse('http://www.apple.com/')
title = doc.find('.//title').text
print title

或者使用BeautifulSoup来解析:

import urllib
from BeautifulSoup import BeautifulSoup
content = urllib.urlopen('http://www.apple.com/').read()
soup = BeautifulSoup(content)
print soup.find('title')

有一个简单的错误。HTML文件不能用正则表达式parse,因为他的文法比正则表达式高级,具体原因参考这里
推荐解析这种HTML用一些第三方库,例如mechanize
我的代码如下:

import mechanize
import cookielib
if __name__=='__main__':
    br = mechanize.Browser()
    br.set_cookiejar(cookielib.LWPCookieJar()) # Cookie jar
    
    br.set_handle_equiv(True) # Browser Option
    br.set_handle_gzip(True)
    br.set_handle_redirect(True)
    br.set_handle_referer(True)
    br.set_handle_robots(False)
    
    br.set_handle_refresh(mechanize._http.HTTPRefreshProcessor(), max_time=1)
    
    br.addheaders = [('User-agent', 'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.1) Gecko/2008071615 Fedora/3.0.1-1.fc9 Firefox/3.0.1')] 
    br.open("http://apple.com")
    print br.title()

输出为Apple
对于mechanize的详细使用,参考这里

安装mechanize,就easy_install一下就好。

这是strip的help

`Help on method_descriptor:

strip(...)
S.strip([chars]) -> string or unicode

Return a copy of the string S with leading and trailing
whitespace removed.
If chars is given and not None, remove characters in chars instead.
If chars is unicode, S will be converted to unicode before stripping`

title中包涵le, 所以apple里的le被strip掉了

如果是使用正则解析,可以用如下方法

html = urllib.urlopen('http://apple.com').read()
m = re.search(r'<title>(.*)</title>', html, flags=re.I)
print 'Title: ', m and m.group(1) or ''

或者可以使用 pyquery

#-*0 coding: utf-8 -*- 
from pyquery import PyQuery as pq

d = pq(url='http://apple.com')
print 'Title: ', d('title').text()
pattern = re.compile((?<=<title>)[\w\W]*(?=</title>))
pattern.search("Apple")

主要是(?<=...)和(?=...)这两个表达式

strip 会把头尾的都干掉吧

关键是用()进行分组提取,使用.*不一定匹配上。因为.*代表的含义是一组任意字符,但不包括换行符。

re.findall(r"<title>(.*)</title>","<title>Apple</title>")

正则有一个分组功能。。。。。。。

玩蛇网文章,转载请注明出处和文章网址:http://www.iplaypy.com/wenda/wd20454.html

相关文章 Recommend

玩蛇网Python互助QQ群,欢迎加入-->: 106381465 玩蛇网Python新手群
修订日期:2017年05月31日 - 17时05分09秒 发布自玩蛇网

我要分享到:

必知PYTHON教程 Must Know PYTHON Tutorials

必知PYTHON模块 Must Know PYTHON Modules