社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  Python

Python告诉你:拿下60亿流量的《惊雷》都是哪些人在听?

CDA数据分析师 • 4 年前 • 408 次点击  




 CDA数据分析师 出品  

作者:Mika

数据:真达  

后期:泽龙 

【导语】:今天我们聊聊《惊雷》, Python技术部分可以直接看第三部分。公众号后台,回复关键字“惊雷”获取完整数据。

Show me data,用数据说话

今天我们聊聊 《惊雷》

点击下方视频,先睹为快:


惊雷/通天修为/天塌地陷紫金锤
紫电/玄真火焰/九天玄剑惊天变
 

这看起来不着边际的歌词,配上简单粗暴的蹦迪音乐。

 

最近,一首《惊雷》的喊麦歌曲在短视频平台火了,震惊了整个音乐圈。

 

但4月10日歌手杨坤却在直播中批评《惊雷》“要歌没歌,要旋律没旋律,要节奏没节奏,要律动没律动”,评价其“难听”、“俗气”。

 

4月11日,MC六道以原唱者的身份对杨坤的指责做出回应表示,音乐没有高低之分,称《惊雷》现在比杨坤的任何一首歌都火。一时间更是把《惊雷》推上了风口浪尖。

 

那么《惊雷》这首歌到底怎么样?都是哪些人在听?今天我们就用Python来给你解读。


01


拿下60亿流量 

喊麦歌曲《惊雷》火了!

 

说道喊麦,作为近年来一种新兴的表演形式,其内容和表达方式则比较简单和浮夸,主要形式是在网上下载一些伴奏(以电音伴奏为主),跟着伴奏以简单的节奏和朗朗上口的押韵手法进行的语言表演。

 

更简单的说法就是,演唱时不讲究什么技法,带着伴奏对着麦喊就完事。比如之前爆火的《一人我饮酒醉》就是很具代表性的喊麦歌曲。

 

而喊麦歌曲也因为一味堆积看似没有关联的词,闹腾的电音,简单粗暴的唱法等,让大家各种吐槽。而在“全民抵制”喊麦的背景下,《惊雷》却火了。

 

从今年3月起,以《惊雷》为BGM的短视频在各大平台上迅速走红。截止到4月24日,在抖音的#惊雷#的标签页下显示共有23w个视频作品使用,产生64.1亿次播放。

 


一些网友更是跟风录制了各种翻唱版本。温柔版、方言版、戏腔版、小黄人版、种类之多,只有你想不到,没有网友做不到。瞬间《惊雷》就成了今年度的网络爆款神曲之一。在B站上搜索《惊雷》更是可以看到大量的相关视频。



我们对B站上《惊雷》的各类视频进行整理分析发现:

 


在3月底,《惊雷》就在B站小火了一把,总播放量突破50万。接着到了4月12日,随着杨坤和MC六道的“隔空互掐”,大量《惊雷》相关视频如雨后春笋一般爆发出来,无论是音乐、游戏、生活、影视和鬼畜各视频分区产生的相关视频突破300个,播放量更是水涨船高。

 


02



“精神小伙”专属歌曲 

都是哪些人在听《惊雷》?


我们使用Python获取并分析了网易云音乐上,MC六道的这首《惊雷》相关的评论数据。

 

经过去重得到1534条样本,从而来分析一下《惊雷》这首歌的用户和评价信息。

 

先看到结论:

 

评论时间趋势图

 


首先看到评论的时间,可以发现评论的高峰时间主要集中在:


  • 中午12-13点左右;

  • 下午5点之后的下班下课时间;

  • 以及傍晚睡前9-10点


看来主要的听歌时间是在忙完工作的午休时,下班后的路上,以及睡前,刷着手机听听歌写写评论,也比较符合用户的听歌习惯。

 

评论用户性别分布

 


听歌的人群性别分布是如何的呢?经过分析发现,男性占比达到压倒性的67.08%,女性占比较少为16.43%,另外16.49%的用户没有标注性别。可见听《惊雷》的更多是男性群体。

 

评论用户年龄分布


分析发现,用户大多集中在14-30岁之间,以20岁左右居多,除去异常和虚假年龄之外,这个年龄分布也符合网易云用户的年龄段。

  

评论用户地区分布


从城市分布图中可以看出,评论用户涵盖了全国各大省份,其中广东的评论用户排名第一,其次是山东、河北、河南等省份。

 


根据网易云曾发布的音乐数据,北上广深等发达地带的用户对小众音乐情有独钟,这些城市聚集了大量的小众音乐用户,其中广东也是聚集了众多热爱电音的用户,堪称“最电音省份”。

 

同时我们查询了2019年全国各省份的人口排名,排名前三的省份是:广东、山东、河南,这个结果也与分布图较为吻合,果然还是人多力量大。


评论情感正负分布


那么评论中大家对《惊雷》更多是称赞还是吐槽呢?接着我们对评论区的留言进行了情感分析,使用的是百度的API。

 

我们定义了一个函数获取情感评分正向和负向的概率值,值介于[0,1]之前,越接近1,情感越偏向于积极,反之则越消极。


 

通过评论情感得分分布图,可以发现:


在1534条数据中,有780条数据评分分值在[0,0.05]之间,占比50.08%,有一半以上的用户对这首歌表达了非常厌恶的情绪。我们还看到,有227个样本的评分在0.95以上,属于非常正向,这些正向评论真的正向吗?

 

我们不妨看几条这些评论:

 


比如这一条:


谢谢,这首‘歌’我笑吐了

 

明显是属于负向的情绪,但是因为正向的关键词比较多,百度的情感分析程序给了0.97分,所以可以看出这里的正向评分也是有误差。

 

还有这一条:

 

突然感觉杨坤老师有点伟大

 

这首歌虽然是赞扬杨坤老师,但是放到这里是表达贬义,但是程序并没有判断出来,间接说明程序还是没有人聪明啊(拟合能力不足+汉语语境情况复杂)。

 

所以实际上大部分评论带着反讽的口吻,我们可以大胆推断,这首歌的负向情绪占比至少上升10~15%个百分点。


评论词云分布:

 


通过文本分析,可以看出大家对这首歌的评论集中对杨坤MC六道的讨论上,吐槽点主要集中在关于歌曲的“难听”、“俗气”、"抄袭"等。同时也表达了对于“喊麦”和"音乐"的讨论上。



03



 教你用Python分析 

网易云音乐《惊雷》的评论


我们使用Python获取并分析了网易云音乐上《惊雷2020》相关的评论数据并进行了以下部分处理和分析,整个分析过程分为以下几个步骤:


  1. 数据获取

  2. 数据读入与数据预处理

  3. 数据分析和可视化


01 数据获取


此次爬虫部分主要是调用官方API,本次用到的API主要是:

http://music.163.com/api/v1/resource/comments/R_SO_4_{歌曲ID}?limit={每页限制数量}&offset={评论数总偏移}


参数说明如下:


{歌曲ID}:歌曲ID
limit:限制每页获取的数据条数
offset:翻页参数偏移量,offset需要是limit的倍数
返回的数据格式为json,通过此接口目前每天获取的数据量限制是1000条,代码思路如下:


  1. 先获取一页的数据,并封装成解析函数parse_one_page

  2. 变化offset参数,循环构建URL,并调用解析函数


具体代码如下:

# 导入库
import requests
import json
import time
import pandas as pd

def parse_one_page(comment_url):
    """
    功能:给定一页的评论接口,获取一页的数据。
    """

    # 添加headers
    headers = {
        'user-agent''Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.113 Safari/537.36'
    }

    # 发起请求
    r = requests.get(comment_url, headers=headers)

    # 解析数据
    comment_data = r.json()['comments']

    # 获取用户ID
    user_id = [i['user']['userId'for i in comment_data]
    # 获取用户昵称
    nick_name = [i['user']['nickname'for i in comment_data]
    # 获取评论ID
    comment_id = [i['commentId'for i in comment_data]
    # 获取评论内容
    content = [i['content'for i in comment_data]
    # 获取评论时间
    content_time = [i['time'for i in comment_data]
    # 获取点赞
    liked_Count = [i['likedCount'for i in comment_data]

    df_one = pd.DataFrame({
        'user_id': user_id,
        'nick_name': nick_name,
        'comment_id': comment_id,
        'content': content,
        'content_time': content_time,
        'liked_Count': liked_Count
    })

    return df_one


def get_all_page(song_id):
    """
    功能:获取100页短评:目前接口一天最多获取数据量
    """

    df_all = pd.DataFrame()

    for i in range(101):  # 最多100页
        url = 'http://music.163.com/api/v1/resource/comments/R_SO_4_{}?limit=10&offset={}'.format(song_id, i*10)
        # 调用函数
        df = parse_one_page(comment_url=url)
        # 循环追加
        df_all = df_all.append(df, ignore_index=True)
        # 打印进度
        print('我正在获取第{}页的信息'.format(i + 1))
        # 休眠一秒
        time.sleep(1)

    return df_all

if __name__ == '__main__':
    # 惊雷
    song_id = '1431580747'
    # 运行函数
    df_jl = get_all_page(song_id) 
获取到的数据如下所示,此次我们一共获取了两天的数据,经过去重得到1534条样本,来分析一下《惊雷》这首歌的用户和评价信息。

获取的数据集主要包含了以下的信息:评论ID、用户ID、用户昵称、用户评论、评论时间、评论点赞。根据用户ID可以获取评论用户相关信息,此处暂不做赘述。


df_comment.head() 



02 数据读入与数据预处理


此处,我们将对获取的评论数据集进行以下的处理以方便后续的分析:


  1. 读入数据和数据合并,去除重复值
  2. 评论时间:将评论时间转换为标准时间
  3. 用户评论:使用jieba分词对评论数据进行分词处理。


代码实现如下:


读入数据、合并、去重


# 导入包
import  numpy as np
import pandas as pd
import matplotlib.pyplot as plt 
import json
import time 
import requests

# 读入数据
df_comment_1 = pd.read_excel('jinglei.xlsx')
df_comment_2 = pd.read_excel('jinglei_2.xlsx'

# 数据合并
df_comment = pd.concat([df_comment_1, df_comment_2])

# 去除重复值
df_comment.drop_duplicates(inplace=True)
print(df_comment.info()) 


<class 'pandas.core.frame.DataFrame'>
Int64Index: 1534 entries, 0 to 983
Data columns (total 6 columns):
user_id         1534 non-null int64
nick_name       1534 non-null object
comment_id      1534 non-null int64
content         1534 non-null object
content_time    1534 non-null int64
liked_Count     1534 non-null int64
dtypes: int64(4), object(2)
memory usage: 83.9+ KB
None


评论时间处理


def timeStamp(timeNum): 
    '''功能:转换毫秒为标准时间'''
    timeStamp = float(timeNum/1000)  # 转换为秒
    timeArray = time.localtime(timeStamp) 
    otherStyleTime = time.strftime("%Y-%m-%d %H:%M:%S", timeArray) # 转换字符串
    return otherStyleTime

df_comment['content_time'] = df_comment['content_time'].apply(lambda x:timeStamp(x)) 


03 使用百度API进行情感分析


情感分析是NLP的重要部分。这里我们使用百度的API,来进行情感分析,经测试这个API接口结果相对比较准确。我们定义了一个函数获取情感评分正向和负向的概率值。返回结果解释:以正向概率positive_prob为例,值介于[0,1]之前,越接近1,情感越偏向于积极。


代码和结果如下:


百度情感分析的地址见下,点击立即使用就可以了

http://ai.baidu.com/tech/nlp/sentiment_classify


# 异常值处理
df_comment['content'] = df_comment['content'].replace('🕴🏿🕴🏿⚰️🕴🏿🕴🏿''黑人抬棺'


# 输入API Key和Secret Key
ak = '你的API Key'
sk = '你的Secret Key'

host = 'https://aip.baidubce.com/oauth/2.0/token?grant_type=client_credentials&client_id={}&client_secret={}'.format(ak, sk)

# 发起请求
r = requests.post(host) 
# 获取token
token = r.json()['access_token']

def get_sentiment_score(text):
    """
    输入文本,返回情感倾向得分
    """

    url = 'https://aip.baidubce.com/rpc/2.0/nlp/v1/sentiment_classify?charset=UTF-8&access_token={}'.format(token)
    data = {
        'text': text
    } 
    data = json.dumps(data)
    try:
        res = requests.post(url, data=data, timeout=3)
        items_score = res.json()['items']
    except Exception as e:
        time.sleep(1
        res = requests.post(url, data=data, timeout=3)
        items_score = res.json()['items']
    return items_score


# 获取情感倾向分值并存入列表
score_list = [] 

step = 0
for i in df_comment['content']:
    score = get_sentiment_score(i)
    # 打印进度
    step += 1
    print('我正在获取第{}个评分'.format(step), end='\r'
    score_list.append(score) 


最后提取正负向的概率,并添加标签。将positive_prob>0.5定义为正向。


# 提取正负概率
positive_prob = [i[0]['positive_prob'for i in score_list]
negative_prob = [i[0]['negative_prob'for i in score_list]

# 增加列
df_comment['positive_prob'] = positive_prob
df_comment['negative_prob'] = negative_prob

# 添加正向1 负向-1标签
df_comment['score_label'] = df_comment['positive_prob'].apply(lambda x:1 if x>0.5 else -1
df_comment.head() 



04 数据可视化


我们将进行以下的数据可视化


  1. 评论数时间(按小时)分布

  2. 评论用户性别占比

  3. 评论用户年龄分布

  4. 评论用户地区分布

  5. 评论情感得分正负向标签占比分析-基于百度自然语言处理API

  6. 评论情感得分分布

  7. 评论词云分析


评论数时间(按小时)分布

df_comment['content_time'] = pd.to_datetime(df_comment['content_time'])
df_comment['content_hour'] = df_comment.content_time.dt.hour
hour_num = df_comment.content_hour.value_counts().sort_index()

# 折线图
from pyecharts.charts import Line
from pyecharts import options as opts 

line1 = Line(init_opts=opts.InitOpts(width='1350px', height='750px'))
line1.add_xaxis(hour_num.index.tolist())
line1.add_yaxis('热度', hour_num.values.tolist(),
                label_opts=opts.LabelOpts(is_show=False))
line1.set_global_opts(title_opts=opts.TitleOpts(title='评论数时间(按小时)分布'),
                      visualmap_opts=opts.VisualMapOpts(max_=80))
line1.set_series_opts(linestyle_opts=opts.LineStyleOpts(width=3)) 
line1.render() 


经过统计,此次数据采样日期来自4.22~4.24日。


通过评论时间按小时分布图可以看出,评论数在一天当中从5点开始一路攀升,一天有三个小高峰:13点-17点-21点。


评论用户性别占比




    
# 计算占比
gender_perc = df_user['gender'].value_counts()  / df_user['gender'].value_counts() .sum()
gender_perc = np.round(gender_perc*100,2)

from pyecharts.charts import Pie

# 绘制饼图
pie1 = Pie(init_opts=opts.InitOpts(width='1350px', height='750px'))
pie1.add("",
         [*zip(gender_perc.index, gender_perc.values)],
         radius=["40%","65%"])
pie1.set_global_opts(title_opts=opts.TitleOpts(title='评论用户性别分布'),
                     legend_opts=opts.LegendOpts(orient="vertical", pos_top="15%", pos_left="2%"),
                     toolbox_opts=opts.ToolboxOpts()) 
pie1.set_series_opts(label_opts=opts.LabelOpts(formatter="{c}%"))
pie1.set_colors(['#D7655A''#FFAF34''#3B7BA9''#EF9050''#6FB27C'])
pie1.render() 


通过评论用户性别分布图可以看出,在评论用户中男性用户占到了67.08%。


评论用户年龄分布

age_num = pd.Series(df_user.age.value_counts())
# 删除异常值
age_num = age_num.drop(['未知',-5-90167]) 
age_num = pd.DataFrame(age_num).reset_index().rename({'index':'age''age':'num'}, axis=1)

# 分箱
age_num['age_cut'] = pd.cut(age_num.age, bins=[10,15,20,25,30,35]) 

# 分组汇总
age_cut_num = age_num.groupby('age_cut')['num'].sum()


from pyecharts.charts import Bar

# 绘制柱形图
bar1 = Bar(init_opts=opts.InitOpts(width='1350px' , height='750px'))
bar1.add_xaxis(age_cut_num.index.astype('str').tolist())
bar1.add_yaxis("数量", age_cut_num.values.tolist(), category_gap='20%')
bar1.set_global_opts(title_opts=opts.TitleOpts(title="评论用户年龄分布"),
                     visualmap_opts=opts.VisualMapOpts(max_=180),
                     toolbox_opts=opts.ToolboxOpts())
bar1.render()


用户年龄分布图可以看出,用户大多集中在14-30岁之间,以20岁左右居多,除去异常和虚假年龄之外,这个年龄分布也符合网易云用户的年龄段。


评论用户城市分布Top10

province_num = df_user.province_name.value_counts()
province_num.index = province_num.index.str[:2]
province_top10 = province_num[:10]

# 柱形图
bar2 = Bar(init_opts=opts.InitOpts(width='1350px', height='750px'))
bar2.add_xaxis(province_top10.index.tolist())
bar2.add_yaxis("城市", province_top10.values.tolist())
bar2.set_global_opts(title_opts=opts.TitleOpts(title="评论者Top10城市分布"),
                     visualmap_opts=opts.VisualMapOpts(max_=120),
                     toolbox_opts=opts.ToolboxOpts())
bar2.render() 


from pyecharts.charts import Geo
from pyecharts.globals import ChartType

# 地图
geo1 = Geo(init_opts=opts.InitOpts(width='1350px', height='750px'))
geo1.add_schema(maptype='china')
geo1.add("", [list(z) for z in zip(province_num.index.tolist(), province_num.values.tolist())], 
         type_=ChartType.EFFECT_SCATTER,
         blur_size=15
geo1.set_global_opts(title_opts=opts.TitleOpts(title='评论者国内城市分布'), 
                     visualmap_opts=opts.VisualMapOpts(max_=120))
geo1.set_series_opts(label_opts=opts.LabelOpts(is_show=False))
geo1.render()  


# 地图
map1 = Map(init_opts=opts.InitOpts(width='1350px', height='750px')) 
map1.add("", [list(z) for z in zip(province_num.index.tolist(), province_num.values.tolist())],
         maptype
='china')
map1.set_global_opts(title_opts=opts.TitleOpts(title='评论者国内城市分布'),
                     visualmap_opts=opts.VisualMapOpts(max_=120),
                     toolbox_opts=opts.ToolboxOpts())
map1.render() 


城市分布图中可以看出,评论用户涵盖了全国各大省份,其中广东的评论用户排名第一。


评论情感得分正负向标签占比分析




    
label_num = df_comment.score_label.value_counts() / df_comment.score_label.value_counts().sum()
label_perc = np.round(label_num,3) 
label_perc.index = ['负向', '正向'] 
label_perc


负向    0.701
正向    0.299
Namescore_labeldtypefloat64


# 绘制饼图
pie2 = Pie(init_opts=opts.InitOpts(width='1350px', height='750px'))
pie2.add("",
         [*zip(label_perc.index, label_perc.values)],
         radius=["40%","65%"])
pie2.set_global_opts(title_opts=opts.TitleOpts(title='评论情感标签正负向分布'),
                     legend_opts=opts.LegendOpts(orient="vertical", pos_top="15%", pos_left="2%"),
                     toolbox_opts=opts.ToolboxOpts()) 
pie2.set_series_opts(label_opts=opts.LabelOpts(formatter="{c}%"))
pie2.set_colors(['#3B7BA9''#EF9050'])
pie2.render() 


通过分布图可以看出,评论内容中70%左右的内容表达了负向的情绪,说明对于《惊雷》这首喊麦的歌曲,大众主要持批判的观点。


情感评论得分分布

# 定义分隔区间
bins = [0, 0.05, 0.1, 0.15, 0.2, 0.25, 0.3, 0.35, 0.4, 0.45, 0.5,
       0.55, 0.6, 0.65, 0.7, 0.75, 0.8, 0.85, 0.9, 0.95, 1.0]
positive_num = pd.cut(df_comment.positive_prob, bins).value_counts()
positive_num = positive_num.sort_index()
# 柱形图
bar3 = Bar(init_opts=opts.InitOpts(width='1350px', height='750px'))
bar3.add_xaxis(positive_num.index.astype('str').tolist())
bar3.add_yaxis("", positive_num.values.tolist(), category_gap='5%')
bar3.set_global_opts(title_opts=opts.TitleOpts(title="评论情感得分"), 
                     visualmap_opts=opts.VisualMapOpts(max_=500),
                     toolbox_opts=opts.ToolboxOpts()
                    )
bar3.render() 


通过评论情感得分分布图,可以发现,在1534条数据中,有780条数据评分分值在[0,0.05]之间,占比50.08%。


评论词云分析


此处数据处理主要使用jieba分词,步骤暂略。

from pyecharts.charts import WordCloud
from pyecharts.globals import SymbolType

word1 = WordCloud(init_opts=opts.InitOpts(width='1350px', height='750px'))
word1.add("", [*zip(key_words.words, key_words.num)],
          word_size_range=[20 200],
          shape=SymbolType.DIAMOND)
word1.set_global_opts(title_opts=opts.TitleOpts('网易云音乐关于惊雷评论词云'),
                      toolbox_opts=opts.ToolboxOpts(),
                     )
word1.render() 



关注CDA数据分析师公众号
回复关键字“惊雷” 
获取详细数据代码

CDA数据分析师 


文出品:CDA数据分析师(ID: cdacdacda)



📚推荐阅读 READ MORE

(点击下方图片阅读)

美国失业人数突破2200万!这个动态图我用Python画出来了

Python爬取15万条《我是余欢水》弹幕,还原一个丧到极致的中年人生

 

📌CDA课程咨询


喜欢本篇内容请点个“在看”哦!❤️

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/62193
 
408 次点击