玩蛇网提供最新Python编程技术信息以及Python资源下载!
python零基础培训

python爬虫获取腾讯新闻正文标题内容

python 培训
python爬虫获取腾讯新闻正文标题内容
 

 

1. [文件] downloadhtm2txt.py ~ 3KB 

#coding=utf-8
import urllib2
import re
import os

#this function from internet @littlebai

#去掉特征字符串内的html操作符
def filter_tags(htmlstr):
   re_cdata=re.compile('//<!\[CDATA\[[^>]*//\]\]>',re.I) #匹配CDATA
   re_script=re.compile('<\s*script[^>]*>[^<]*<\s*/\s*script\s*>',re.I)#Script
   re_style=re.compile('<\s*style[^>]*>[^<]*<\s*/\s*style\s*>',re.I)#style
   re_p=re.compile('<P\s*?/?>')#处理换行
   re_h=re.compile('</?\w+[^>]*>')#HTML标签
   re_comment=re.compile('<!--[^>]*-->')#HTML注释
   s=re_cdata.sub('',htmlstr)#去掉CDATA
   s=re_script.sub('',s) #去掉SCRIPT
   s=re_style.sub('',s)#去掉style
   s=re_p.sub('\r\n',s)#将<p>转换为换行
   s=re_h.sub('',s) #去掉HTML 标签
   s=re_comment.sub('',s)#去掉HTML注释  
   blank_line=re.compile('\n+')#去掉多余的空行
   s=blank_line.sub('\n',s)
   return s

#设置下载文件的保存位置
path = "E:\\news.qq.com\\a\\20120506\\"

#匹配url规则
rege = re.compile(r"/a/\d{8}/\d{6}.htm")

#从主页获得所有存在的url链接的后半部分并排序
urlcontent = urllib2.urlopen('http://news.qq.com/a/20120506/index.htm').read()
get_url = rege.findall(urlcontent)
get_url.sort()

#根据所获得的url数量建立循环遍历所有url链接
for i in xrange(0,len(get_url)):
   get_url[i] = "http://news.qq.com"+get_url[i]#完整链接
   
   #异常处理:部分url链接打开延时或者无法打开则跳过此次循环
   try:#异常跳出
      sub_web = urllib2.urlopen(get_url[i]).read()#打开完整url链接,获取内容
      
   except urllib2.URLError, e:
      print get_url[i][-10:-4]+' Failed'
      continue

   #下面开始内容操作
   re_keyt = "<h1>.+</h1>"#获取标题,此处的标题不含腾讯新闻的后缀比较方便
   title = re.findall(re_keyt,sub_web)#去掉标题左右的html标签
   re_keyc = re.compile("<div id=\"Cnt-Main-Article-QQ\".*</P></div>\n</div>",re.DOTALL)#匹配正文内容的正则(个别页面无法获得,见if块)
   content = re_keyc.findall(sub_web)#获得正文内容
   
   #个别页面由于有视频或其他的无法匹配正文内容的正则表达式,所以无法获得内容,应给与过滤
   if len(title)==0 or len(content)==0:
      continue
   
   re_content = filter_tags(title[0]+"\r\n"+content[0])#将标题和正文放到一起并去除html标签代码
   
   w=file(path+get_url[i][-10:-4]+'.txt','w')#根据页面的文件名建立txt文件,并打开为写入方式
   w.write(re_content)#写入获得的去除了html标签代码的标题和正文
   w.close()#关闭文件
   
   #命令行输出提示文件下载进度
   print 'Completed the'+str(i+1)+" -Total "+str(len(get_url))+" THE "+get_url[i][-10:]

#完成所有url链接的下载
print "Fuck The Stupied Guy!!!!"
#退出脚本
exit()

站长推荐阅读相关内容:
linux基础入门教程

玩蛇网文章,转载请注明出处和文章网址:http://www.iplaypy.com/code/other/o1906.html [复制]



微信扫描下图可直接关注Python公众号

玩蛇网Python QQ群,欢迎加入: ① 279974227 玩蛇网Python新手群
修订日期:2017年01月10日 - 09时52分33秒 发布自玩蛇网

我要分享到:
评论列表(网友评论仅供网友表达个人看法,并不表明本站同意其观点或证实其描述)
相关文章推荐
别人正在看
特别推荐
站长推荐:
去顶部去底部