pyecharts

PyEchart--数据分析师的利器

匿名 (未验证) 提交于 2019-12-02 23:52:01
Echart https://echarts.baidu.com/ ECharts,一个使用 JavaScript 实现的开源可视化库,可以流畅的运行在 PC 和移动设备上,兼容当前绝大部分浏览器(IE8/9/10/11,Chrome,Firefox,Safari等),底层依赖轻量级的矢量图形库 ZRender ,提供直观,交互丰富,可高度个性化定制的数据可视化图表。 丰富的可视化类型 ECharts 提供了常规的 折线图 、 柱状图 、 散点图 、 饼图 、 K线图 ,用于统计的 盒形图 ,用于地理数据可视化的 地图 、 热力图 、 线图 ,用于关系数据可视化的 关系图 、 treemap 、 旭日图 ,多维数据可视化的 平行坐标 ,还有用于 BI 的 漏斗图 , 仪表盘 ,并且支持图与图之间的混搭。 PyEchart Echarts 是一个由百度开源的数据可视化,凭借着良好的交互性,精巧的图表设计,得到了众多开发者的认可。而 Python 是一门富有表达力的语言,很适合用于数据处理。当数据分析遇上数据可视化时, pyecharts 诞生了。 简洁的 API 设计,使用如丝滑般流畅,支持链式调用 囊括了 30+ 种常见图表,应有尽有 支持主流 Notebook 环境,Jupyter Notebook 和 JupyterLab 可轻松集成至 Flask,Sanic,Django

【python可视化系列】关于 pyecharts 的 'No coordinate is specified for' 报错解决

匿名 (未验证) 提交于 2019-12-02 22:54:36
pyecharts 是一个用于生成 Echarts 图表的类库。Echarts 是百度开源的一个数据可视化 JS 库。用 Echarts 生成的图可视化效果非常棒,pyecharts 是为了与 Python 进行对接,方便在 Python 中直接使用数据生成图。 在 实现地图可视的过程过遇到如下问题: Traceback (most recent call last): File "/Users/a6/PycharmProjects/Attempt_new/try_echarts/echarts.py", line 8, in <module> symbol_size=10, is_visualmap=True) File "/Library/Python/2.7/site-packages/pyecharts/charts/geo.py", line 47, in add self.__add(*args, **kwargs) File "/Library/Python/2.7/site-packages/pyecharts/charts/geo.py", line 103, in __add _coordinate = self.get_coordinate(_name, raise_exception=True) File "/Library/Python/2.7/site

如何用Python制作3D动态航线图

匿名 (未验证) 提交于 2019-12-02 22:51:30
用于带有起点和终点信息的线数据的绘制,主要用于地图上的航线,路线的可视化。 GeoLines.add() 方法签名 1 add(name, data, 2 maptype='china', 3 symbol=None, 4 symbol_size=12, 5 border_color="#111", 6 geo_normal_color="#323c48", 7 geo_emphasis_color="#2a333d", 8 geo_cities_coords=None, 9 geo_effect_period=6, 10 geo_effect_traillength=0, 11 geo_effect_color='#fff', 12 geo_effect_symbol='circle', 13 geo_effect_symbolsize=5, 14 is_geo_effect_show=True, 15 is_roam=True, **kwargs) name -> str 图例名称 data -> [list], 包含列表的列表 数据项,数据中,每一行是一个『数据项』,每一列属于一个『维度』。每一行包含两个或三个数据,如 ["广州", "北京"] 或 ["广州", "北京",100],则指定从广州到北京。第三个值用于表示该 line 的数值,该值可省略。 maptype ->

Python数据可视化神器--pyecharts 快速入门

匿名 (未验证) 提交于 2019-12-02 22:51:08
matplotlib pyecharts Echarts Echarts 是百度开源的一个数据可视化 JS 库,凭借着良好的交互性,精巧的图表设计,得到了众多开发者的认可。而 Python,很适合用于数据处理。当数据分析遇上数据可视化时,pyecharts 就诞生了。 pyecharts :sparkles: 特性 简洁的 API 设计,使用如丝滑般流畅,支持链式调用 囊括了 30+ 种常见图表,应有尽有 支持主流 Notebook 环境,Jupyter Notebook 和 JupyterLab 可轻松集成至 Flask,Django 等主流 Web 框架 高度灵活的配置项,可轻松搭配出精美的图表 详细的文档和示例,帮助开发者更快的上手项目 多达 400+ 地图,为地理数据可视化提供强有力的支持 :sparkles: 安装 1pip install pyecharts 复制代码 注意:pyecharts 共有两个版本,v0.5.X 和 V1.0.X 间完全不兼容,且v0.5.X版本作者已经不维护了,请使用V1.0.X Bar:柱状图/条形图 柱状图对应的模块是 Bar 除此之外可以设置全局配置和系列配置项。配置项都是基于 options 示例代码: 1# coding: utf-8 2from example.commons import Faker 3from

数据分析――pyecharts

匿名 (未验证) 提交于 2019-12-02 22:11:45
1 from pyecharts import Pie, Bar, Gauge, EffectScatter, WordCloud, Map, Grid, Line, Timeline 2 import random make_point:标注,类似于matplotlib的text is_stack:堆叠,将同一图表中的不同图像堆叠显示 is_label_show:显示每个数据的标注 is_datazoom_show:数据缩放显示 1 value = [120, 110] 2 attr = [u'河南', u'浙江'] 3 map = Map(u'Map 结合 VisualMap 示例', width=1200, height=600) 4 map.use_theme('dark') 5 map.add('', attr, value, maptype=u'china', is_visualmap=True, visual_text_color='#000') 6 map.render('map.html') 1 attr = ['衬衫', '羊毛衫', '雪纺衫', '裤子', '高跟鞋', '袜子'] 2 v1 = [5, 20, 36, 10, 75, 90] 3 v2 = [10, 25, 8, 60, 20, 80] 4 bar = Bar('柱状图数据堆叠示例') 5

猫眼电影之哪吒数据爬取、数据分析

℡╲_俬逩灬. 提交于 2019-12-02 12:59:13
最近哪吒大火,所以我们分析一波哪吒的影评信息,分析之前我们需要数据呀,所以开篇我们先讲一下爬虫的数据提取;话不多说,走着。 首先我们找到网站的url = " https://maoyan.com/films/1211270 ",找到评论区看看网友的吐槽,如下 F12打开看看有没有评论信息,我们发现还是有信息的。 但是现在的问题时,我们好像只有这几条评论信息,完全不支持我们的分析呀,我们只能另谋出路了; f12中由手机测试功能,打开刷新页面,向下滚动看见查看好几十万的评论数据,点击进入后,在network中会看见url = " http://m.maoyan.com/review/v2/comments.json?movieId=1211270&userId=-1&offset=15&limit=15&ts=1568600356382&type=3 " api,有这个的时候我们就可以搞事情了。 但是随着爬取,还是不能获取完整的信息,百度、谷歌、必应一下,我们通过时间段获取信息,这样我们不会被猫眼给墙掉,所以我们使用该url=" http://m.maoyan.com/mmdb/comments/movie/1211270.json?_v_=yes&offset=0&startTime= " 效果如下: 开始构造爬虫代码: 1 #!/usr/bin/env python 2 # -*-

从当当客户端api抓取书评到词云生成

我的梦境 提交于 2019-12-01 09:17:56
看了好几本大冰的书,感觉对自己的思维有不少的影响。想看看其他读者的评论。便想从当当下手抓取他们评论做个词云。 想着网页版说不定有麻烦的反爬,干脆从手机客户端下手好了。 果其不然,找到一个书评的api。发送请求就有详情的json返回,简直不要太方便... 要是对手机客户端做信息爬取,建议安装一个手机模拟器。 思路: 在安装好的手机模拟器设置好用来抓包的代理,我用的charles。记得安装证书,不然抓不了https的数据包。 然后安装当当客户端,打开进到书评页面。 然后成功在charles找到了这个接口。发送get请求就会返回书评... 然后这个接口只有page参数需要注意下,代表请求的第几页。然后其他参数我照抄过来了。 当当边好像没有对这些参数做检验,用很久之前抓的的链接的参数还是能请求到数据... 之后就是请求链接在脚本里解析返回的json就好了,我只需要评论,十几行代码就行。 如果要抓其他书的书评应该修改参数product_id就好。 爬虫代码: import requests import json import random import time url='http://api.dangdang.com/community/mobile/get_product_comment_list?access-token=&product_id=25288851&time_code

python数据可视化:pyecharts

天涯浪子 提交于 2019-12-01 05:06:05
发现了一个做数据可视化非常好的库:pyecharts。 非常便捷好用,大力推荐!! 官方介绍:pyecharts 是一个用于生成 Echarts 图表的类库。Echarts 是百度开源的一个数据可视化 JS 库。用 Echarts 生成的图可视化效果非常棒,pyecharts 是为了与 Python 进行对接,方便在 Python 中直接使用数据生成图。 中文教程也非常具体: https://pyecharts.org/#/zh-cn/quickstart?id=%e5%a6%82%e4%bd%95%e5%ae%89%e8%a3%85 展示几个教程中有的例子。 柱状图/折线图 基本的柱状图&折线图 from pyecharts import Bar bar = Bar("我的第一个图表", "这里是副标题") bar.add("服装", ["衬衫", "羊毛衫", "雪纺衫", "裤子", "高跟鞋", "袜子"], [5, 20, 36, 10, 75, 90],is_more_utils=True) bar 基本柱状图和折线图.gif 堆叠柱状图 from pyecharts import Bar attr = ["衬衫", "羊毛衫", "雪纺衫", "裤子", "高跟鞋", "袜子"] v1 = [5, 20, 36, 10, 75, 90] v2 = [10, 25, 8

关于pyecharts里面导入Bar以及出现'str' object has no attribute 'get'

穿精又带淫゛_ 提交于 2019-11-30 09:11:39
一、Bar等模块的导入问题 上网查了一下,大家都说pyecharts因为作者将后面的版本重构了,所以导入方式和前面有点不一样。 在这里插入代码片 from pyecharts.chart import Bar. 老版本: 在这里插入代码片 from pyechart import Bar 二、导入了Bar后出现问题’str’ object has no attribute ‘get’ 首先我使用的是最新版本的,也就是第一种导入方法。之后,我在实例对象时bar = Bar(’’)。我上网找了半天应该这个问题有点偏,没找到怎么解决。我个人解决办法是重新安装了老版本,也就是重构前的版本。安装时后面指定版本,我的是0.1.9.5版本,1.0之后的版本好像是重构的。之后就没这问题了。至于是不是最新版本的问题我也没事,感兴趣的可以去试试。顺便附上我做的东西。 爬取的全国最低气温的排名前十的地方。果然南方人想象不出北方这温度=.=。 来源: CSDN 作者: 清风怜明月 链接: https://blog.csdn.net/qq_43671933/article/details/103246394

数据可视化:python调用pyecharts库绘制航线专题图

跟風遠走 提交于 2019-11-28 20:57:14
写在前面 这学期上了数据通讯这门课,其中有一个作业是要求爬取某一天各重要城市到上海虹桥以及上海浦东两机场的航班信息,然后进行可视化、数据分析。在这一份作业用到的可视化工具是python的pyecharts库,其中一幅图的效果如下: 事实上这航线图是可以动的,只是截了个屏,下面具体说一下怎么操作。用到的库除了pyecharts,还有numpy、panda. 第一步 获取数据 要做数据的可视化,首先肯定要获取数据。我是采用C#+selenium动态爬取携程网上的10月30号的数据,selenium通过调用命令模拟人与浏览器的交互,效果不错。爬取下来的数据放在了一个文件夹里,每个城市到上海的存入一个文本文档中。 第二步 数据处理 在这里我是用numpy+pandas处理数据的,没安装这两个包的先安装再进行操作。 1.读取原始数据 import numpy as np import pandas as pd import os df = pd . read_fwf ( r "C:\Users\58381\Desktop\data\北京—上海.txt" , encoding = "utf-8" , header = None , names = [ "航班号" , "飞机机型" , "出发时间" , "出发机场" , "到达时间" , "到达机场" , "出发城市" ] ) for