小編給大家分享一下如何利用Python爬蟲爬取網(wǎng)站音樂(lè),相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

公司主營(yíng)業(yè)務(wù):做網(wǎng)站、成都網(wǎng)站建設(shè)、移動(dòng)網(wǎng)站開發(fā)等業(yè)務(wù)。幫助企業(yè)客戶真正實(shí)現(xiàn)互聯(lián)網(wǎng)宣傳,提高企業(yè)的競(jìng)爭(zhēng)能力。創(chuàng)新互聯(lián)是一支青春激揚(yáng)、勤奮敬業(yè)、活力青春激揚(yáng)、勤奮敬業(yè)、活力澎湃、和諧高效的團(tuán)隊(duì)。公司秉承以“開放、自由、嚴(yán)謹(jǐn)、自律”為核心的企業(yè)文化,感謝他們對(duì)我們的高要求,感謝他們從不同領(lǐng)域給我們帶來(lái)的挑戰(zhàn),讓我們激情的團(tuán)隊(duì)有機(jī)會(huì)用頭腦與智慧不斷的給客戶帶來(lái)驚喜。創(chuàng)新互聯(lián)推出新津縣免費(fèi)做網(wǎng)站回饋大家。
具體實(shí)現(xiàn)
1.引入發(fā)送網(wǎng)絡(luò)請(qǐng)求的第三方庫(kù)
import requests # 發(fā)送網(wǎng)絡(luò)請(qǐng)求的第三方庫(kù)
安裝方法
pip install requests
2.引入數(shù)據(jù)解析第三方庫(kù)
from lxml import etree # 數(shù)據(jù)解析第三方庫(kù)
安裝方法
pip install lxml
3.某易云音樂(lè)網(wǎng)站列表url為'https://music.163.com/#/discover/toplist?id=3778678'
url = 'https://music.163.com/#/discover/toplist?id=3778678'
4.發(fā)送請(qǐng)求獲取頁(yè)面數(shù)據(jù)
response = requests.get(urlurl=url) # 請(qǐng)求頁(yè)面數(shù)據(jù)
5.解析數(shù)據(jù)
html=etree.HTML(response.text) # 解析頁(yè)面數(shù)據(jù)
6.獲取所有歌曲標(biāo)簽集合( a標(biāo)簽 )
id_list = html.xpath('//a[contains(@href,"song?")]') # 所有歌曲id集合7.下載歌曲
base_url = 'http://music.163.com/song/media/outer/url?id=' # 下載音樂(lè)網(wǎng)址前綴 # 下載音樂(lè)url = 網(wǎng)址前綴 + 音樂(lè)id for data in id_list: href = data.xpath('./@href')[0] music_id = href.split('=')[1] # 音樂(lè)id music_url = base_url + music_id # 下載音樂(lè)url music_name = data.xpath('./text()')[0] # 下載音樂(lè)名稱 music = requests.get(url = music_url) # 將下載的音樂(lè)以文件形式保存下來(lái) with open('./music/%s.mp3' % music_name, 'wb') as file: file.write(music.content) print('<%s>下載成功' % music_name)遇到的坑
以上的方法我是從一個(gè)視頻里學(xué)到的,那個(gè)視頻是半年前出的,可能當(dāng)時(shí)這種方法還好使,但是今天我在用這種方法下載音樂(lè)文件的時(shí)候突然就報(bào)錯(cuò)了。
首先,編輯器報(bào)錯(cuò)找不到 music_name 和 music_id ,我仔細(xì)一看,獲取的id_list集合里(也就是標(biāo)簽集合里)的id根本不是id,是代碼,估計(jì)在這里音樂(lè)網(wǎng)站也做了相應(yīng)的反扒機(jī)制。
其次,我自己在網(wǎng)站里找到了一首音樂(lè)獲取了它的id并把id賦值給music_id,結(jié)果當(dāng)用外鏈下載音樂(lè)時(shí)報(bào)錯(cuò)460,顯示網(wǎng)絡(luò)擁擠,估計(jì)下載音樂(lè)的網(wǎng)址也不好使了。
base_url = 'http://music.163.com/song/media/outer/url?id=' music_id = '1804320463.mp3' music_url = base_url + music_id music = requests.get(url=music_url) print(music.text)
{"msg":"網(wǎng)絡(luò)太擁擠,請(qǐng)稍候再試!","code":-460,"message":"網(wǎng)絡(luò)太擁擠,請(qǐng)稍候再試!"}
最后,我打印出music_url,點(diǎn)擊進(jìn)去,還是可以聽歌和下載的,不知道這是為什么了
base_url = 'http://music.163.com/song/media/outer/url?id=' music_id = '1804320463.mp3' music_url = base_url + music_id # music = requests.get(url=music_url) print(music_url)
以上是“如何利用Python爬蟲爬取網(wǎng)站音樂(lè)”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!
文章名稱:如何利用Python爬蟲爬取網(wǎng)站音樂(lè)
標(biāo)題網(wǎng)址:http://www.yijiale78.com/article24/pchoje.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)頁(yè)設(shè)計(jì)公司、虛擬主機(jī)、小程序開發(fā)、微信小程序、網(wǎng)站制作、企業(yè)建站
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)