Python-爬一下豆瓣电影

值年神李丙
• 阅读 2452

简介

纯属python小练习

文件结构

Python-爬一下豆瓣电影

  • html_downloader.py - 下载网页html内容
#!/usr/bin/python
# -*- coding: UTF-8 -*-
import urllib2


class HtmlDownloader(object):

    def downlod(self, url):
        if url is None:
            return None
        response = urllib2.urlopen(url)
        if response.getcode() != 200:
            return None
        return response.read()
  • html_outputer.py - 输出结果到文件中
#!/usr/bin/python
# -*- coding: UTF-8 -*-


class HtmlOutputer(object):

    def collect_data(self, movie_data):
        if movie_data is None:
            return
        fout = open('output.html', 'a+')
        for data in movie_data:
            print data['name'] + '|', data['rate'] + '|', data['actor'], '\n'
            fout.write('%s,' % data['name'].encode('utf-8'))
            fout.write('%s,' % data['rate'])
            fout.write('%s\n' % data['actor'].encode('utf-8'))
        fout.close()
  • html_parser.py: 解析器:解析html的dom树
#!/usr/bin/python
# -*- coding: UTF-8 -*-
from bs4 import BeautifulSoup


class HtmlParser(object):

    def __init__(self):
        pass

    def parser_html(self, cnt):
        if cnt is None:
            return
        soup = BeautifulSoup(cnt, 'html.parser', from_encoding='utf-8')
        # movie_name, movie_desc, movie_rate =
        return self.get_movie_names(soup)

    def get_movie_names(self, soup):
        movie_data = []
        movie_all = soup.find('div', class_='article').find_next('table').find_next_sibling('div').find_next_sibling('div').find_all('table')
        count = 1
        for movie_one in movie_all:
            movie_data.append(self.get_movie_name(movie_one))
            # if count > 2:
            #     break
            count += 1
        return movie_data

    def get_movie_name(self, cnt):
        info = {}
        soup = BeautifulSoup(str(cnt), 'html.parser', from_encoding='utf-8')
        movie_one = soup.find('tr', class_='item').find_next('td').find_next_sibling('td').find('div', class_='pl2')
        info['name'] = movie_one.find('a').get_text().replace("\n", "").replace(" ", "")
        info['actor'] = movie_one.find('p', class_='pl').get_text().replace("\n", "").replace(" ", "")
        info['rate'] = movie_one.find('div', class_='star clearfix').find('span', class_='rating_nums').get_text()
        return info
  • spider_main.py - 主函数
#!/usr/bin/python
# -*- coding: UTF-8 -*-
import html_parser, html_outputer, html_downloader


class SpiderMain(object):

    def __init__(self):
        self.parser = html_parser.HtmlParser()
        self.outputer = html_outputer.HtmlOutputer()
        self.downloader = html_downloader.HtmlDownloader()

    def craw(self, url):
        html_cnt = self.downloader.downlod(url)
        movie_data = self.parser.parser_html(html_cnt)
        self.outputer.collect_data(movie_data)


if __name__ == '__main__':
    url = 'https://movie.douban.com/tag/2017?start=100&type=T'
    spider = SpiderMain()
    spider.craw(url)

综述

其实就是使用了urllib2和BeautifulSoup库,没啥好说的,你也可以直接改url,然后更改html_parser.py文件来满足你自己的爬虫需求。当前也可以更改html_outputer.py来定义保存格式,目前是csv。

点赞
收藏
评论区
推荐文章
十月飞翔 十月飞翔
3年前
解决jenkins服务器安装的crudini调用失败问题
原因:/usr/bin/crudini文件print用的python2.7的语法,不支持默认的python3.7解决:调用crudini时候指定python2.7启动
浅梦一笑 浅梦一笑
4年前
分别用python2和python3伪装浏览器爬取网页内容
python网页抓取功能非常强大,使用urllib或者urllib2可以很轻松的抓取网页内容。但是很多时候我们要注意,可能很多网站都设置了防采集功能,不是那么轻松就能抓取到想要的内容。今天我来分享下载python2和python3中都是如何来模拟浏览器来跳过屏蔽进行抓取的。最基础的抓取:!/usr/bin/envpythoncodingutf8@Au
lucien-ma lucien-ma
4年前
python文件的第一行 #!/usr/bin/python3 是什么意思?
python文件的第一行代码通常在脚本语言的第一行会看到:!/usr/bin/envpython或!/usr/bin/python首先要确定的一点是它不是注释。这两句话的目的都是指出你的python文件用什么可执行程序去运行它。1.!/usr/bin/python是告诉操作系统执行这个脚本的时候,调用/usr/bin下的python解释
Aimerl0 Aimerl0
4年前
Python网络爬虫与信息提取
title:Python网络爬虫与信息提取date:2020121001:00:23tags:Pythoncategories:学习笔记写在前面不知道写啥其实说实话TOC网络爬虫之规则安装requests库cmd命令行打开输入pip3installrequests,等待即可简单测试,爬一下bkjwpythonimportrequ
Wesley13 Wesley13
3年前
50 行代码教你爬取猫眼电影 TOP100 榜所有信息
对于Python初学者来说,爬虫技能是应该是最好入门,也是最能够有让自己有成就感的,今天,恋习Python的手把手系列,手把手教你入门Python爬虫,爬取猫眼电影TOP100榜信息,将涉及到基础爬虫架构中的HTML下载器、HTML解析器、数据存储器三大模块:HTML下载器:利用requests模块下载HTML网页;HTML解析器:利用re正则表达
Stella981 Stella981
3年前
Linux 定时任务crontab
_安装crontab__yuminstallvixiecron__yuminstallcrontabs__创建定时任务_vi/etc/crontab加入一项任务:每2分钟执行一次python脚本并写日志到knowpy.log\/2\\\\/usr/local/python3/bin/pyth
Stella981 Stella981
3年前
Python 使用selenium抓取网页文本和下载音频
Python使用selenium抓取网页文本和下载音频!\usr\bin\envpythoncoding:utf8'一个自动从https://podcast.duolingo.com/spanish中下载音频并且爬取文本的程序''需要配置下载以下所需库,并且配置好webdriv
Stella981 Stella981
3年前
Python基础练习(一)中国大学定向排名爬取
说好的要从练习中学习爬虫的基础操作,所以就先从容易爬取的静态网页开始吧!今天要爬取的是最好大学网上的2018年中国大学排名。我个人认为这个是刚接触爬虫时用来练习的一个很不错的网页了。在说这个练习之前,给新着手学习爬虫的同学提供一个中国MOOC上北京理工大学嵩天老师的视频,Python网络爬虫与信息提取(https://www.oschina.n
Stella981 Stella981
3年前
Ajax爬取豆瓣电影目录(Python)
下面的分析相当于一个框架,搞懂之后,对于类似的文字爬取,我们也可以实现。就算不能使用Ajax方法,我们也能够使用相同思想去爬取我们想要的数据。豆瓣电影排行榜分析网址:https://movie.douban.com/explore!typemovie&tag%E7%83%AD%E9%97%A8&sortrecom
Python进阶者 Python进阶者
1年前
爬取同样内容,xpath方法会比bs4要慢很多吗?
大家好,我是Python进阶者。一、前言前几天在Python白银交流群【沐子山树】问了一个Python网络爬虫的问题,问题如下:爬取同样内容,xpath方法会比bs4要慢很多吗?二、实现过程这里【Kimi】给了个思路如下:爬取网页内容时,使用XPath和B