社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  Python

用 Python 分析《斗破苍穹》,分析其究竟是烂片无疑还是沧海遗珠?

CSDN • 5 年前 • 441 次点击  

作者 | 量化小白H

责编 | 郭芮

近期根据小说《斗破苍穹》改编的同名电视剧正在热映,本文对《斗破苍穹》进行文本分析,分为两部分。首先爬取豆瓣影评进行简单分析,随后对于原创小说文本中的人物进行详细分析。


影评分析


爬取影评使用的也是之前《用 Python 爬取 500 条豆瓣影评,看看《蚁人2》是否有看点?》一文的代码,共爬到影评数据500条。

简要概述下爬取过程,首先说明一下工具:软件 Python3.6;Packages 包括 selenium、jieba、snownlp、wordcloud。豆瓣上的影评分为两种,一种是长篇大论的影评,还有一种是短评——本文爬虫的目标就是短评,包括用户名、星级评价、日期、有用数、评论正文。

主页显示45576条,但其实可见的只有500条,每页是20条短评。第一遍直接用Selenium去爬只爬到了200条,后来又加了登陆的代码,之后又加了一个手动输入验证码的部分,最终成功爬到了500条。代码如下:

 1def gethtml(url):
 2    loginurl='https://www.douban.com/'    # 登录页面
 3
 4    browser = webdriver.PhantomJS()    
 5    browser.get(loginurl)    # 请求登录页面
 6    browser.find_element_by_name('form_email').clear()  # 获取用户名输入框,并先清空
 7    browser.find_element_by_name('form_email').send_keys(u'你的用户名' # 输入用户名
 8    browser.find_element_by_name('form_password').clear()  # 获取密码框,并清空
 9    browser.find_element_by_name('form_password').send_keys(u'你的密码'# 输入密码
10
11    # 验证码手动处理,输入后,需要将图片关闭才能继续执行下一步
12    captcha_link = browser.find_element_by_id('captcha_image').get_attribute('src')
13    urllib.request.urlretrieve(captcha_link,'captcha.jpg')
14    Image.open('captcha.jpg').show()
15    captcha_code = input('Pls input captcha code:')
16    browser.find_element_by_id('captcha_field').send_keys(captcha_code)   
17
18    browser.find_element_by_css_selector('input[class="bn-submit"]').click()
19    browser.get(url)
20    browser.implicitly_wait(10)
21    return(browser)

具体爬的时候,用一个DataFrame来存所有的信息,一行为一个用户的所有数据,数据位置仍然通过开发者工具获得,细节不再赘述。相关代码如下:

1def getComment(url):
 2    i = 1
 3    AllArticle = pd.DataFrame()
 4    browser = gethtml(url)
 5    while True:
 6        s = browser.find_elements_by_class_name('comment-item')
 7        articles = pd.DataFrame(s,columns = ['web'])
 8        articles['uesr' ] = articles.web.apply(lambda x:x.find_element_by_tag_name('a').get_attribute('title'))
 9        articles['comment'] = articles.web.apply(lambda x:x.find_element_by_class_name('short').text)
10        articles['star'] = articles.web.apply(lambda x:x.find_element_by_xpath("//*[@id='comments']/div[1]/div[2]/h3/span[2]/span[2]").get_attribute('title'))
11        articles['date'] = articles.web.apply(lambda x:x.find_element_by_class_name('comment-time').get_attribute('title'))
12        articles['vote'] = articles.web.apply(lambda x:np.int(x.find_element_by_class_name('votes').text))
13        del articles['web']
14        AllArticle = pd.concat([AllArticle,articles],axis = 0)
15        print ('第' + str(i) + '页完成!')
16
17        try:
18            if i==1:
19                browser.find_element_by_xpath("//*[@id='paginator']/a").click()  
20            else:
21                browser.find_element_by_xpath("//*[@id='paginator']/a[3]").click()
22            browser.implicitly_wait(10)
23            time.sleep(3# 暂停3秒
24            i = i + 1
25        except:
26             AllArticle = AllArticle.reset_index(drop = True)
27            return AllArticle
28    AllArticle = AllArticle.reset_index(drop = True)
29    return AllArticle

最终爬下来的数据大概是这样子:

简单统计来看,一星差评最多,但四五星评价与一二星差评价基本持平。

不过从投票数来看,投票数最多的前25条,无一例外都是一星差评。

大家给差评的原因也很统一,电视剧对小说改编过多,原著党难以接受,再加上5毛钱特效和演员的尴尬演技,感觉是妥妥烂片无疑了。不妨再看看给好评的人都是些神马想法。

除过一些明明给了很差评价还点了力荐的观众之外,投票数最多的好评都来自于主演的粉丝,对他们来说,剧情研究都不重要,看颜就行。


小说文本分析


  • 人物出场频数

分析完影评,作为一名原著党,我觉得更有必要分析一下小说原文。小说共有1646章,首先来看看小说中出场次数最多的人物。

男主出场次数太多,远远高于其他人物,我们不考虑主角,看看其他人物的出场次数。

部分代码如下:

 1# -*- coding: utf-8 -*-
 2"""
 3Created on Mon Sep 17 19:51:48 2018
 4
 5@author: hzp0625
 6"""

 7
 8import pandas as pd
 9import os
10os.chdir('F:\\python_study\\pachong\\斗破苍穹')
11import re
12import numpy as np
13import jieba
14import matplotlib.pyplot as plt
15from matplotlib.font_manager import FontProperties
16font = FontProperties(fname=r'c:\windows\fonts\simsun.ttc')#,size=20指定本机的汉字字体位置
17import matplotlib.pyplot as plt
18import networkx as nx  
19
20
21texts = open('all(校对版全本).txt',"r")
22
23texts = texts.read()
24
25AllChapters = re.split('第[0-9]*章',texts)[1:]
26
27AllChapters = pd.DataFrame(AllChapters,columns = ['text'])
28AllChapters['n'] = np.arange(1,1647)
29
30# 载入搜狗细胞词库
31jieba.load_userdict('斗破苍穹.txt')
32jieba.load_userdict('斗破苍穹异火.txt')
33stopwords = open('中文停用词表(比较全面,有1208个停用词).txt','r').read()
34stopwords = stopwords.split('\n')
35
36
37
38# 主要人物出现的总频数,人物名单从百度百科获取
39nameall = open('所有人物.txt','r').read().split('\n')
40nameall = pd.DataFrame(nameall,columns = ['name'])
41textsall = ''.join(AllChapters.text.tolist())
42nameall['num'] = nameall.name.apply(lambda x:textsall.count(x))
43
44nameall.loc[nameall.name=='熏儿','num'] = nameall.loc[nameall.name=='熏儿','num'].values[0] + nameall.loc[nameall.name=='熏儿','num'].values[0]
45nameall.loc[nameall.name=='熏儿','num'] = -886
46
47
48
49nameall.loc[nameall.name=='彩鳞', 'num'] = nameall.loc[nameall.name=='彩鳞','num'].values[0] + nameall.loc[nameall.name=='美杜莎','num'].values[0]
50nameall.loc[nameall.name=='美杜莎','num'] = -886
51
52nameall = nameall.sort_values('num',ascending = False)
53
54
55plt.figure(figsize=(8,10))
56fig = plt.axes()
57n = 50
58plt.barh(range(len(nameall.num[:n][::-1])),nameall.num[:n][::-1],color = 'darkred')
59fig.set_yticks(np.arange(len(nameall.name[:n][::-1])))
60fig.set_yticklabels(nameall.name[:n][::-1],fontproperties=font)
61plt.xlabel('人物出场次数',fontproperties = font)
62plt.show()
  • 女主分析

从出场频数来看,排名前四的是主角的老师和三个女主,那么究竟哪一个是女一?单从出场次数来看的话可能会太过简单,我们对小说分章节统计每章中所有女主的出场次数,来看看女主出场的时间分布,横轴为章节号,纵轴为出现次数:

从分布图来看,前中期各个女主出场的重叠不多,每个人陪男主走过不同的剧情副本,结尾合家欢。

 1# 女主每章出现次数统计:熏儿,云韵,小医仙,彩鳞,美杜莎
 2
 3names = ['熏儿','云韵' ,'小医仙','彩鳞','美杜莎']
 4result['熏儿'] = result.fenci.apply(lambda x:x.count('熏儿') + x.count('薰儿'))
 5result['云韵'] = result.fenci.apply(lambda x:x.count('云韵'))
 6result['小医仙'] = result.fenci.apply(lambda x:x.count('小医仙'))
 7result['彩鳞'] = result.fenci.apply(lambda x:x.count('彩鳞') + x.count('美杜莎'))
 8
 9
10plt.figure(figsize=(15,5))
11plt.plot(np.arange(1,result.shape[0]+1),result['熏儿'],color="r",label = u'熏儿')
12plt.plot(np.arange(1,result.shape[0]+1),result['云韵'],color="lime",label = u'云韵')
13plt.plot(np.arange(1,result.shape[0]+1),result['小医仙'],color="gray",label = u'小医仙')
14plt.plot(np.arange(1,result.shape[0]+1),result['彩鳞'],color="orange",label = u'彩鳞')
15plt.legend(prop =font)
16plt.xlabel(u'章节',fontproperties = font)
17plt.ylabel(u'出现次数',fontproperties = font)
18plt.show()
  • 人物社交关系网络

接下来,我们对小说中的人物关系做一些探究,如果两个人物同时出现在文章的一个段落里,我们就认为这两个人物之间有一定的联系(也可以以句或章节为单位),以此为规则,计算所有人物的共现矩阵。所以人物列表通过百度百科获取,保存为txt文件便于读取。

将小说文本按段落划分之后,会发现共有八万多个段落,人物有一百个左右,直接循环效率太低,但观察得到的段落,有很多单字成段的语气词,这些可以直接删掉。

因此,对于得到的段落,我们首先删掉段落长度小于20个字的,用剩余的段落计算共现矩阵,部分主要人物的共现矩阵如下:

用所有人物的共现矩阵构造社交关系网络图,计算出边和节点矩阵后,用Gephi软件直接作图(Python也可以用networkx作图):

删掉边权重小于10的值后,重新作图,结果相对清晰一些,连线越宽,表明人物见的联系越紧密:

1# 社交网络图  共现矩阵
 2# 两个人物出现在同一段,说明有某种关系
 3words = open('all(校对版全本).txt','r').readlines()
 4words = pd.DataFrame(words,columns = ['text'],index = range(len(words)))
 5words['wordnum'] = words.text.apply(lambda x:len(x.strip()))
 6words = words.loc[words.wordnum>20,]
 7wrods = words.reset_index(drop = True)
 8 relationmat = pd.DataFrame(index = nameall.name.tolist(),columns = nameall.name.tolist()).fillna(0)
 9
10
11wordss = words.text.tolist()
12for k in range(len(wordss)):
13    for i in nameall.name.tolist():
14        for j in nameall.name.tolist():
15            if i in wordss[k] and j in  wordss[k]:
16                relationmat.loc[i,j] += 1 
17    if k%1000 ==0:
18        print(k)
19
20relationmat.to_excel('共现矩阵.xlsx')
21
22# 网络图
23
24
25# 边与权重矩阵
26#relationmat1 = pd.DataFrame(index = range(relation.shape[]))
27relationmat1 = {}
28for i in relationmat.columns.tolist():
29    for j in relationmat.columns.tolist():
30        relationmat1[i, j] = relationmat.loc[i,j]
31
32
33edgemat = pd.DataFrame(index = range(len(relationmat1)))
34node = pd.DataFrame(index = range(len(relationmat1)))
35
36edgemat['Source'] = 0
37edgemat['Target'] = 0
38edgemat['Weight'] = 0
39
40node['Id'] = 0
41node['Label'] = 0
42node['Weight'] = 0
43
44
45names = list(relationmat1.keys())
46weights = list(relationmat1.values())
47for i in range(edgemat.shape[0]):
48    name1 = names[i][0]
49    name2 = names[i][1]
50    if name1!=name2:
51        edgemat.loc[i,'Source'] = name1
52        edgemat.loc[i,'Target'] = name2
53        edgemat.loc[i,'Weight'] = weights[i]
54    else:
55        node.loc[i,'Id'] = name1
56        node.loc[i,'Label'] = name2
57        node.loc[i,'Weight'] = weights[i]        
58    i+=1
59
60
61edgemat = edgemat.loc[edgemat.Weight!=0,]
62edgemat = edgemat.reset_index(drop = True)
63node = node.loc[node.Weight!=0,]
64 node = node.reset_index(drop = True)
65
66
67
68edgemat.to_csv('边.csv',index = False)
69node.to_csv('节点.csv',index = False)
  • 分词词云

最后,还是以小说文本的词云作为文章结尾,为了使文本分词更准确,这里我们使用了网上流传的包含1208个词的中文停用词表,以及通过搜狗细胞词库得到的两个词库,主要包含一些人名、地名、组织名称、异火等。

作者:量化小白一枚,上财研究生在读,偏向数据分析与量化投资,个人公众号量化小白上分记。

声明:本文为作者投稿,版权归对方所有。

推荐阅读:


征稿啦

CSDN 公众号秉持着「与千万技术人共成长」理念,不仅以「极客头条」、「畅言」栏目在第一时间以技术人的独特视角描述技术人关心的行业焦点事件,更有「技术头条」专栏,深度解读行业内的热门技术与场景应用,让所有的开发者紧跟技术潮流,保持警醒的技术嗅觉,对行业趋势、技术有更为全面的认知。

如果你有优质的文章,或是行业热点事件、技术趋势的真知灼见,或是深度的应用实践、场景方案等的新见解,欢迎联系 CSDN 投稿,联系方式:微信(guorui_1118,请备注投稿+姓名+公司职位),邮箱(guorui@csdn.net)。



今天看啥 - 高品质阅读平台
本文地址:http://www.jintiankansha.me/t/JfQWiP4f14
Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/24413
 
441 次点击