亚洲一级簧片_性 毛片_国产乱子视频_久久影城_强伦女教师视频_成人精品久久

好看的電腦系統(tǒng)小說下載

發(fā)布時(shí)間: 2023-04-16 13:54 閱讀: 文章來源:轉(zhuǎn)載

如今網(wǎng)絡(luò)上很多小說網(wǎng)站都有免費(fèi)的小說閱讀,但是它不提供下載全本的服務(wù),目的也是為了獲得更多的流量,資源君就不服了,今天剛好看到一個(gè)小說網(wǎng)站,就想弄本小說來看看,于是拿起電腦,噼里啪啦寫了一個(gè)下載小說的Python代碼,下面我來帶大家讀一讀代碼(具體的代碼講解我已經(jīng)寫在注釋里了)!

1.首先第一步,導(dǎo)入兩個(gè)我們需要的包

# 用于獲取網(wǎng)頁的htmlfrom urllib import request# 用于解析htmlfrom bs4 import BeautifulSoup

2. 我們來分析一下,我們要抓取的小說頁面

(廣告還挺顯眼的)

我們看下這個(gè)界面然后再來看看html源碼

我們會(huì)發(fā)現(xiàn),我框住的地方正是我們所需要的地方,但是注意上面的最新章節(jié)和我們的正式的小說目錄也就是下面的地方,他們都處于

中,待會(huì)大家可以看看我是怎么處理的。

然后再來看看小說閱讀的界面:

這個(gè)界面就很簡單了,我們來看看HTML源碼:

很容易看到

標(biāo)簽中的正是每一章的標(biāo)題,

標(biāo)簽中的也就是正文

OK,經(jīng)過我們初步分析,我們可以開始寫代碼了!

3.首先我們寫出獲取網(wǎng)頁html源碼的一個(gè)方法:

# 得到網(wǎng)頁的htmldef getHtml(url):url = urlres = request.urlopen(url)res = res.read().decode()# print(res)return res

這個(gè)方法傳入一個(gè)url,會(huì)返回一個(gè)html源碼

4.然后我們再來寫一下,獲取整本小說所有章節(jié)的鏈接的方法:

# 解析小說章節(jié)頁面,獲取所有章節(jié)的子鏈接def jsoupUrl(html):# 獲取soup對象url_xiaoshuo = BeautifulSoup(html)# 因?yàn)槲覀円萌lass為box1中的divclass_dict = {'class': 'box1'}url_xiaoshuo = url_xiaoshuo.find_all('div', attrs=class_dict)# 因?yàn)榉治鰄tml中的代碼可以發(fā)現(xiàn)div的class為box1的有兩個(gè),通過上面的代碼返回的是一個(gè)list格式的結(jié)果,所以下面的索引應(yīng)該是1# 我們要獲取li中的值,所以find_all,這個(gè)方法返回的是一個(gè)list集合url_xiaoshuo = url_xiaoshuo[1].find_all('li')# print(url_xiaoshuo)# 創(chuàng)建一個(gè)集合,用于存放每個(gè)章節(jié)的鏈接url_xs = []for item in url_xiaoshuo:# 獲取每個(gè)元素中的href值url = item.a['href']# 將值傳入url_xs集合中url_xs.append(url)return url_xs

具體的解釋,我已經(jīng)寫在注釋里了,不懂的可以在公眾號后臺留言

5.我們獲取到每個(gè)章節(jié)的鏈接之后,我們就需要把每一章節(jié)的內(nèi)容給弄下來并且把它寫入到txt文本而且每個(gè)文本的標(biāo)題為章節(jié)的標(biāo)題

# 解析小說每個(gè)章節(jié)的的主要內(nèi)容def jsoupXiaoshuo(list):for item in list:html = getHtml(item)html = BeautifulSoup(html)# 獲取小說標(biāo)題title = html.h1.get_text()xiaoshuo = html.find_all('p')for item in xiaoshuo:str = item.get_text()# open中的第二個(gè)參數(shù)是讓每一次的字符串接連到上一個(gè)字符串,千萬不能是wwith open(title + '.txt', 'a') as f:f.write(str+'\n')

6.最后我們在main方法中運(yùn)行這幾個(gè)方法即可:

if __name__ == '__main__':html = getHtml("http://www.136book.com/dadaozhaotian/")url_xs = jsoupUrl(html)jsoupXiaoshuo(url_xs)

大功告成!

不懂的可以在公眾號后臺留言,我全部都會(huì)回復(fù)的哦!


???展開全文
相關(guān)文章
主站蜘蛛池模板: 日本在线不卡一区 | 日韩一区二区成人 | 久久激情av | 国产成人久久精品 | 精品一区二区三区在线视频 | 精品国产91久久久久久老师 | 欧美午夜一区二区福利视频 | 成人午夜电影在线播放 | 一区二区三区高清不卡 | 国产免费黄色 | 在线观看1区 | 亚洲欧美日韩中文在线 | 久久久综合精品 | 日美黄色大片 | 欧美精品黄色 | 午夜成人在线视频 | 亚洲一区在线播放 | 91麻豆国产 | 国产精品久久久久一区二区 | 91精品国产综合久久国产大片 | 成人不卡 | 久久一区精品 | 日本免费在线一区 | 欧美精品成人一区二区三区四区 | 欧美日韩精品免费观看 | 日韩色综合 | 欧美日本片| 久久免费视频观看 | 亚洲精品v天堂中文字幕 | 色片在线免费观看 | 成人播放 | 欧美日韩视频在线 | 成年人网站免费在线 | 成人黄色免费大片 | 精品国产一区二区三区久久久 | 日本成人三级 | 性疯狂做受xxxx高清视频 | 日韩高清电影 | 日本一本色道免费视频 | 日本亚洲天堂 | 国产成人精品一区二区三区在线 |