Python爬取网易云歌单

Stella981 等级 1236 0 0
标签: httpspythontypes

基本配置:

  • Python版本:3.7

相关模块:

from urllib import parsefrom lxml import etreefrom urllib3 import disable_warningsimport requests

案例关键点:

使用单线程爬取,未登录,爬取网易云歌单主要有三个关键点:

网易云使用翻页形式,其特点为url的limit和offset参数:

  • limit 表示单页显示的歌单数(修改无效)

  • offset 表示当前页数,即 offset / limit + 1

发送get请求时froms与url的参数一样

  • cat 歌单类型,必须将中文转码

  • order 最新或最热

  • limit 与url参数一致

  • offset 与url参数一致

完整代码:

from urllib import parsefrom lxml import etreefrom urllib3 import disable_warningsimport requests'''遇到不懂的问题?Python学习交流群:821460695满足你的需求,资料都已经上传群文件,可以自行下载!'''class Wangyiyun(object):    def __init__(self, **kwargs):        # 歌单的歌曲风格        self.types = kwargs['types']        # 歌单的发布类型        self.years = kwargs['years']        # 这是当前爬取的页数        self.pages = pages        # 这是请求的url参数(页数)        self.limit = 35        self.offset = 35 * self.pages - self.limit        # 这是请求的url        self.url = "https://music.163.com/discover/playlist/?"    # 设置请求头部信息(可扩展:不同的User - Agent)    def set_header(self):        self.header = {            "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36",            "Referer": "https://music.163.com/",            "Upgrade-Insecure-Requests": '1',        }        return self.header    # 设置请求表格信息    def set_froms(self):        self.key = parse.quote(self.types)        self.froms = {            "cat": self.key,            "order": self.years,            "limit": self.limit,            "offset": self.offset,        }        return self.froms    # 解析代码,获取有用的数据    def parsing_codes(self):        page = etree.HTML(self.code)        # 标题        self.title = page.xpath('//div[@class="u-cover u-cover-1"]/a[@title]/@title')        # 作者        self.author = page.xpath('//p/a[@class="nm nm-icn f-thide s-fc3"]/text()')        # 阅读量        self.listen = page.xpath('//span[@class="nb"]/text()')        # 歌单链接        self.link = page.xpath('//div[@class="u-cover u-cover-1"]/a[@href]/@href')        # 打印看看        for i in zip(self.title, self.link, self.author, self.listen):            print("[歌单名称]:{}\n[发布作者]:{}\n[总播放量]:{}\n[歌单链接]:{}\n".format(i[0],i[2],i[3],"https://music.163.com/"+i[1]))        print('第{}页'.format(self.pages).center(50,'='))    # 获取网页源代码    def get_code(self):        disable_warnings()        self.froms['cat']=self.types        disable_warnings()        self.new_url = self.url+parse.urlencode(self.froms)        self.code = requests.get(            url = self.new_url,            headers = self.header,            data = self.froms,            verify = False,        ).text    # 爬取多页时刷新offset    def multi(self ,page):        self.offset = self.limit * page - self.limitif __name__ == '__main__':    #=======================================    # 指定一些参数    # 歌单的歌曲风格    types = "说唱"    # 歌单的发布类型:最热=hot,最新=new    years = "hot"    # 指定爬取的页数    pages = 1    #=======================================    # =======================================    # 例子:通过pages变量爬取指定页面(多页)    music = Wangyiyun(        types = types,        years = years,    )    for i in range(pages):        page = i+1              # 因为没有第0页        music.multi(page)       # 爬取多页时指定,传入当前页数,刷新offset        music.set_header()      # 调用头部方法,构造请求头信息        music.set_froms()       # 调用froms方法,构造froms信息        music.get_code()        # 获取当前页面的源码        music.parsing_codes()   # 处理源码,获取指定数据    # =======================================    #=======================================    # 例子:通过pages变量爬取指定页面(单页)    # music = Wangyiyun(    #     types=types,    #     years=years,    # )    # music.set_header()    # music.set_froms()    # music.get_code()    # music.parsing_codes()    #=======================================

运行效果图:

Python爬取网易云歌单

Python爬取网易云歌单

长按二维码关注

公众号「跟我学Python」

Python爬取网易云歌单

你点一个在看 👍

就是最大的支持Python爬取网易云歌单

======================================================================================================================

本文分享自微信公众号 - web项目开发(javawebkaifa)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

收藏
评论区

相关推荐

被“词云”包围的冰冰会更好看吗?安排
(https://imghelloworld.osscnbeijing.aliyuncs.com/b299933deefc692934e8cc6141ab3894.png) 大家好,我是小五🐶 昨天「凹凸数据」发了一篇张同学投稿的文章《用Python爬取王冰冰vlog弹幕并制作词云(https://mp.weixin.qq.com/
商业数据分析从入门到入职(9)Python网络数据获取
@toc 前言本文主要讲Python最常见的应用之一——网络数据获取,即爬虫:先介绍了网页和网络的基础知识,为从网页中获取数据打好基础;接下来以两个案例介绍从网络中获取数据和处理数据的不同方式,以进一步认识Python爬虫和数据处理。 一、网络和网页基础知识 1.数据来源数据源有很多,可以从数据库中获取,可以从文件中获取,也可以从
1年前的小五都用 Python 来做什么?
↑ 点击上方 “凹凸数据” 关注 + 星标  每天更新,干货不断   (多图预警) 注:这是小五一年前在知乎的回答,当时还只有凹凸数读一个公众号,所以很多图片都会带有数读或者知乎的水印。 作为一个菜鸟数据分析师,只会sql+python业余时间写写文章:用python爬取数据→数据清洗→数据分析→数据可视化词云镇楼20190730回来看,前面
50 行代码教你爬取猫眼电影 TOP100 榜所有信息
对于Python初学者来说,爬虫技能是应该是最好入门,也是最能够有让自己有成就感的,今天,恋习Python的手把手系列,手把手教你入门Python爬虫,爬取猫眼电影TOP100榜信息,将涉及到基础爬虫架构中的HTML下载器、HTML解析器、数据存储器三大模块: HTML下载器:利用requests模块下载HTML网页; HTML解析器:利用re正则表达
Python 使用selenium抓取网页文本和下载音频
Python 使用selenium抓取网页文本和下载音频 #!\usr\bin\env python # -*- coding: utf-8 -*- '一个自动从https://podcast.duolingo.com/spanish中下载音频并且爬取文本的程序' '需要配置下载以下所需库,并且配置好webdriv
Python 爬虫:把廖雪峰的教程转换成 PDF 电子书
写爬虫似乎没有比用 Python 更合适了,Python 社区提供的爬虫工具多得让你眼花缭乱,各种拿来就可以直接用的 library 分分钟就可以写出一个爬虫出来,今天就琢磨着写一个爬虫,将廖雪峰的 Python 教程 爬下来做成 PDF 电子书方便大家离线阅读。 开始写爬虫前,我们先来分析一下该网站[1](https://www.oschina.net/
Python3 网络爬虫:下载小说的正确姿势
点击上方“ **Python爬虫与数据挖掘** ”,进行关注 回复“**书籍**”即可获赠Python从入门到进阶共10本电子书 今 日 鸡 汤 少年心事当拂云。 ![](https://oscimg.oschina.net/oscnet/09902b71501b9e8c3cb656b5dfbbb0552e0.jpg) 1 **
Python使用又拍云进行第三方文件拉取
在爬虫过程中,需要将图片或其他文件进行存储到云上,但在下载图片时,看官方文档,貌似需要先下载到后再上传又拍云,感觉效率很低下。经查找资料实现Python直接对第三方资源进行文件拉取操作,即不需要下载到本地,代码如下: import upyun up = upyun.UpYun('xxxxx', 'xxxxx', 'xxxxx') # 您
Python基础练习(一)中国大学定向排名爬取
说好的要从练习中学习爬虫的基础操作,所以就先从容易爬取的静态网页开始吧! 今天要爬取的是最好大学网上的2018年中国大学排名。我个人认为这个是刚接触爬虫时用来练习的一个很不错的网页了。 在说这个练习之前,给新着手学习爬虫的同学提供一个中国MOOC上北京理工大学嵩天老师的视频, [Python网络爬虫与信息提取](https://www.oschina.n
Python实现王者荣耀小助手(一)
简单来说网络爬虫,是指抓取万维网信息的程序或者脚本,Python在网络爬虫有很大优势,今天我们用Python实现获取王者荣耀相关数据,做一个小助手: 前期准备,环境搭建: Python2.7 sys模块提供了许多函数和变量来处理 Python 运行时环境的不同部分; urllib模块提供了一系列用于操作URL的功能,爬虫所需要的功能,基本上在urll
Python爬取暴走漫画动态图
最近再之乎上看到比较好的Python爬虫教程,看过之后对爬虫有了大概的了解,随后自己写了个爬取[暴走漫画](https://www.oschina.net/action/GoToLink?url=http%3A%2F%2Fbaozoumanhua.com%2Fcatalogs%2Fgif)动图的爬虫练练手,另外附上[Python爬虫教程](https://w
Python爬取网易云歌单
#### 基本配置: * Python版本:3.7 #### 相关模块: from urllib import parsefrom lxml import etreefrom urllib3 import disable_warningsimport requests #### 案例关键点: 使用单线程爬取,未登录,爬取网易云
Python爬虫
Python爬虫-xpath ============== * Python爬虫-xpath * 说明 * 再说明 * 插件推荐 * 语法讲述 * 举栗子 * 代码里使用 * 实战句子迷 * 需要的总结: 说明 -- 关于Python爬虫请求数据方面的知
Scrapy框架
\[TOC\] 1\. Scrapy介绍 ============ 1.1. Scrapy框架 ------------- Scrapy是用纯Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,用途非常广泛。 ![](http://ccszt.com.cn/python/%E7%88%AC%E8%99%AB/file/images/
python访问百度关键词和链接
前几天在Python交流群有个同学分享了一份Python网络爬虫代码,用来获取某度关键词和链接的。其实这个需求之前我也写过代码,不过网页结构变化之后,之前的提取器已经失效了,所以代码就作废了。今天这里给再给大家分享一个使用python获取某度关键词的实践。由于某度也是设置反爬安全策略的,所有同一IP下程序运行次数多了也是会被封IP的,所有在访问过程中我们需要