在数据时代,我们每个人既是数据的生产者,也是数据的使用者,然而初次获取和存储的原始数据杂乱无章、信息冗余、价值较低。要想数据达到生动有趣、让人一目了然、豁然开朗的效果,就需要借助数据可视化。以前给大家介绍过使用Streamlit库制作大屏,今天给大家带来一个新方法。通过Python的Dash库,来制作一个酷炫的可视化大屏!主要使用Python的Dash库、Plotly库、Requests库。其中Requests爬取数据,Plotly制作可视化图表,Dash搭建可视化页面。原始数据是小F的博客数据,数据存储在MySqL数据库中。如此看来,和Streamlit库的搭建流程,所差不多。关于Dash库,网上的资料不是很多,基本上只能看官方文档和案例,下面小F简单介绍一下。Dash是一个用于构建Web应用程序的高效Python框架,特别适合使用Python进行数据分析的人。Dash是建立在Flask,Plotly.js和React.js之上,非常适合在纯Python中,使用高度自定义的用户界面,构建数据可视化应用程序。说明:https://dash.plotly.com/introduction案例:https://dash.gallery/Portal/源码:https://github.com/plotly/dash-sample-apps/下面就给大家讲解下如何通过Dash搭建可视化大屏~其中MySQL的安装,大家可以自行百度,都挺简单的。# 启动MySQL, 输入密码mysql -u root -p
# 创建名为my_database的数据库create database my_database;
# 显示MySQL中所有的数据库show databases;
# 选择my_database数据库use my_database;
# 显示my_database数据库中所有的表show tables;
# 删除表drop table info;drop table `2021-12-26`;
# 显示表中的内容, 执行SQL查询语句select * from info;select * from `2021-12-26`;
数据爬取代码如下。这里使用到了pymysql这个库,需要pip安装下。import requestsimport refrom bs4 import BeautifulSoupimport timeimport randomimport pandas as pdfrom sqlalchemy import create_engineimport datetime as dt
def get_info(): """获取大屏第一列信息数据""" headers = { 'User-Agent': 'Mozilla/5.0 (MSIE 10.0; Windows NT 6.1; Trident/5.0)', 'referer': 'https: // passport.csdn.net / login', } # 我的博客地址 url = 'https://blog.csdn.net/river_star1/article/details/121463591' try: resp = requests.get(url, headers=headers) now = dt.datetime.now().strftime("%Y-%m-%d %X") soup = BeautifulSoup(resp.text, 'lxml') author_name = soup.find('div', class_='user-info d-flex flex-column profile-intro-name-box').find('a').get_text(strip=True) head_img = soup.find('div', class_='avatar-box d-flex justify-content-center flex-column').find('a').find('img')['src'] row1_nums = soup.find_all('div', class_='data-info d-flex item-tiling')[0].find_all('span', class_='count') row2_nums = soup.find_all('div', class_='data-info d-flex item-tiling')[1].find_all('span', class_='count') level_mes = soup.find_all('div', class_='data-info d-flex item-tiling')[0].find_all('dl')[-1]['title'].split(',')[0] rank = soup.find('div', class_='data-info d-flex item-tiling').find_all('dl')[-1]['title'] info = { 'date': now,#时间 'head_img': head_img,#头像 'author_name': author_name,#用户名 'article_num': str(row1_nums[0].get_text()),#文章数 'fans_num': str(row2_nums[1].get_text()),#粉丝数 'like_num': str(row2_nums[2].get_text()),#喜欢数 'comment_num': str(row2_nums[3].get_text()),#评论数 'level': level_mes,#等级 'visit_num': str(row1_nums[3].get_text()),#访问数 'score': str(row2_nums[0].get_text()),#积分 'rank': str(row1_nums[2].get_text()),#排名 } df_info = pd.DataFrame([info.values()], columns=info.keys()) return df_info except Exception as e: print(e) return get_info()
def get_type(title): """设置文章类型(依据文章名称)""" the_type = '其他' article_types = ['项目', '数据可视化', '代码', '图表', 'Python', '可视化', '数据', '面试', '视频', '动态', '下载'] for article_type in article_types: if article_type in title: the_type = article_type break return the_type
def get_blog(): """获取大屏第二、三列信息数据"""
headers = { 'User-Agent': 'Mozilla/5.0 (MSIE 10.0; Windows NT 6.1; Trident/5.0)', 'referer': 'https: // passport.csdn.net / login', } base_url = 'https://blog.csdn.net/river_star1/article/list/' resp = requests.get(base_url+"1", headers=headers, timeout=3) max_page = int(re.findall(r'var listTotal = (\d+);', resp.text)[0])//40+1 df = pd.DataFrame(columns=['url', 'title', 'date', 'read_num', 'comment_num', 'type']) count = 0 for i in range(1, max_page+1): url = base_url + str(i) resp = requests.get(url, headers=headers) soup = BeautifulSoup(resp.text, 'lxml') articles = soup.find("div", class_='article-list').find_all('div', class_='article-item-box csdn-tracking-statistics') for article in articles[1:]: a_url = article.find('h4').find('a')['href'] title = article.find('h4').find('a').get_text(strip=True)[2:] issuing_time = article.find('span', class_="date").get_text(strip=True) num_list = article.find_all('span', class_="read-num") read_num = num_list[0].get_text(strip=True) if len(num_list) > 1: comment_num = num_list[1].get_text(strip=True) else: comment_num = 0 the_type = get_type(title) df.loc[count] = [a_url, title, issuing_time, int(read_num), int(comment_num), the_type] count += 1 time.sleep(random.choice([1, 1.1, 1.3])) return df
if __name__ == '__main__': # 今天的时间 today = dt.datetime.today().strftime("%Y-%m-%d") # 连接mysql数据库 engine = create_engine('mysql+pymysql://root:123456@localhost/my_database?charset=utf8')
# 获取大屏第一列信息数据, 并写入my_database数据库的info表中, 如若表已存在, 删除覆盖 df_info = get_info() print(df_info) df_info.to_sql("info", con=engine, if_exists='replace', index=False)
# 获取大屏第二、三列信息数据, 并写入my_database数据库的日期表中, 如若表已存在, 删除覆盖 df_article = get_blog() print(df_article) df_article.to_sql(today, con=engine, if_exists='replace', index=True)
info表,包含日期、头图、博客名、文章数、粉丝数、点赞数、评论数、等级数、访问数、积分数、排名数。
日期表,包含文章地址、标题、日期、阅读数、评论数、类型。其中爬虫代码可设置定时运行,info表为60秒,日期表为60分钟。尽量不要太频繁,容易被封IP,或者选择使用代理池。导入相关的Python库,同样可以通过pip进行安装。from spider_py import get_info, get_blogfrom dash import dccimport dashfrom dash import htmlimport pandas as pdimport plotly.graph_objs as gofrom dash.dependencies import Input, Outputimport datetime as dtfrom sqlalchemy import create_enginefrom flask_caching import Cacheimport numpy as np
设置一些基本的配置参数,如数据库连接、网页样式、Dash实例、图表颜色。这里将缓存代码注释掉了,如有频繁的页面刷新请求,就可以选择使用。def indicator(text, id_value): """第一列的文字及数字信息显示""" return html.Div([ html.P(text, className="twelve columns indicator_text"), html.P(id=id_value, className="indicator_value"),], className="col indicator")def get_news_table(data): """获取文章列表, 根据阅读排序""" df = data.copy() df.sort_values('read_num', inplace=True, ascending=False) titles = df['title'].tolist() urls = df['url'].tolist() return html.Table([html.Tbody([ html.Tr([ html.Td( html.A(titles[i], href=urls[i], target="_blank",)) ], style={'height': '30px', 'fontSize': '16'})for i in range(min(len(df), 100)) ])], style={"height": "90%", "width": "98%"})
网页可以划分为三列。第一列为info表中的数据展示,第二、三列为博客文章的数据展示。相关的数据需要通过回调函数进行更新,这样才能做到实时刷新。图表的数据和样式全在这里设置,两个下拉栏的数据交互也在这里完成。需要注意右侧下拉栏的类型,需和你所要点击图表类型一致,这样文章列表才会更新。每日情况对应热力图,类型阅读量对应第二列第三个图表,类型占比对应饼图,每月文章对应第一个柱状图的点击事件。if __name__ == '__main__': # debug模式, 端口7777 app.run_server(debug=True, threaded=True, port=7777) # 正常模式, 网页右下角的调试按钮将不会出现 # app.run_server(port=7777)
这样就能在本地看到可视化大屏页面,浏览器打开如下地址。对于网页的布局、背景颜色等,主要通过CSS进行设置。body{ margin:0; padding: 0; background-color: #161D33; font-family: 'Open Sans', sans-serif; color: #506784; -webkit-user-select: none; -moz-user-select: none; -ms-user-select: none; user-select: none; }.modal { display: block; position: fixed; z-index: 1000; left: 0; top: 0; width: 100%; height: 100%; overflow: auto; background-color: rgb(0,0,0); background-color: rgba(0,0,0,0.4); }.modal-content { background-color: white; margin: 5% auto; padding: 20px; width: 30%; color:#506784;}._dash-undo-redo { display: none;}.app-title{ color:white; font-size:3rem; letter-spacing:-.1rem; padding:10px; vertical-align:middle}.header{ margin:0px; background-color:#161D33; height:70px; color:white; padding-right:2%; padding-left:2%}.indicator{ border-radius: 5px; background-color: #f9f9f9; margin: 10px; padding: 15px; position: relative; box-shadow: 2px 2px 2px lightgrey;}.indicator_text{ text-align: center; float: left; font-size: 17px; }.indicator_value{ text-align:center; color: #2a3f5f; font-size: 35px;}.add{ height: 34px; background: #119DFF; border: 1px solid #119DFF; color: white;}.chart_div{ background-color: #f9f9f9; border-radius: 5px; height: 390px; margin:5px; padding: 15px; position: relative; box-shadow: 2px 2px 2px lightgrey;}.col-4 { flex: 0 0 32.65%; max-width: 33%;}.col-6 { flex: 0 0 49.3%; max-width: 50%;}.chart_div p{ color: #2a3f5f; font-size: 15px; text-align: center;}td{ text-align: left; padding: 0px;}table{ border: 1px; font-size:1.3rem; width:100%; font-family
:Ubuntu;}.tabs_div{ margin:0px; height:30px; font-size:13px; margin-top:1px}tr:nth-child(even) { background-color: #d6e4ea; -webkit-print-color-adjust: exact;}
如今低代码平台的出现,或许以后再也不用去写烦人的HTML、CSS等。拖拖拽拽,即可轻松完成一个大屏的制作。好了,今天的分享到此结束,大家可以自行去动手练习。
https://github.com/ffzs/dash_blog_dashboardhttps://www.cnblogs.com/feffery/p/14826195.htmlhttps://github.com/plotly/dash-sample-apps/tree/main/apps/dash-oil-and-gas《新程序员003》正式上市,50余位技术专家共同创作,云原生和数字化的开发者们的一本技术精选图书。内容既有发展趋势及方法论结构,华为、阿里、字节跳动、网易、快手、微软、亚马逊、英特尔、西门子、施耐德等30多家知名公司云原生和数字化一手实战经验!
☞臭名昭著的黑客组织REvil全员被捕,现场缴获现金物品超550万美元
☞22岁天才少女加入华为,曾获“编程界的奥林匹克”世界冠军
