pip

python concurrent.futures教程使用

余生颓废 提交于 2020-11-10 07:06:30
python异步并发模块concurrent.futures简析 本文主要介绍python 异步 并发 模块 concurrent . futures 。它非常简单易用,主要用来实现 多线程 和 多进程 的 异步 并发 。 1. 模块安装 1) python 3.x中自带了 concurrent . futures 模块 2) python 2.7需要安装 futures 模块,使用命令pip install futures安装即可 pypi地址: https://pypi.python.org/pypi/futures/ 2. Executor对象 class concurrent.futures.Executor Executor是一个抽象类,它提供了异步执行调用的方法。它不能直接使用,但可以通过它的两个子类ThreadPoolExecutor或者ProcessPoolExecutor进行调用。 2.1 Executor. submit (fn, *args, **kwargs) fn:需要异步执行的函数 *args, **kwargs:fn参数 示例: 1 2 3 4 5 6 7 8 9 10 11 12 13 #-*- coding:utf-8 -*- from concurrent import futures def test(num): import time

Python 量化投资原来这么简单(6) — 交易平均收益率

﹥>﹥吖頭↗ 提交于 2020-11-10 06:30:00
在之前的五篇系列文章中,计算收益率时没有考虑每次按策略进行交易时的收益率,而是单纯回测一段时间后,通过计算最终价值和本金的差距并除以本金,得到最终收益率。 这样的计算方法其实是不准确的,因为交易时每次都采用100股的形式进行,在没有引入调仓技术前,我们应该以每次交易的平均收益率为准。 具体计算方法如下: 在每次买入股票的时候,记录购买价格:self.buyprice 在每次卖出股票的时候,计算收益率: (卖出价格-买入价格)/买入价格 ,忽略佣金。 将每次交易收益存入params变量中,以便后续分析。 1.准备 开始之前,你要确保Python和pip已经成功安装在电脑上噢,如果没有,请访问这篇文章: 超详细Python安装指南 进行安装。如果你用Python的目的是数据分析,可以直接安装Anaconda: Python数据分析与挖掘好帮手—Anaconda Windows环境下打开Cmd(开始—运行—CMD),苹果系统环境下请打开Terminal(command+空格输入Terminal),准备开始输入命令安装依赖。 当然,我更推荐大家用VSCode编辑器,把本文代码Copy下来,在编辑器下方的终端运行命令安装 依赖模块 ,多舒服的一件事啊: Python 编程的最好搭档—VSCode 详细指南 。 在终端输入以下命令安装我们所需要的依赖模块: pip install

Docker 内pip安装package报错: Failed to establish a new connection: [Errno -3] Temporary failure in nam...

天大地大妈咪最大 提交于 2020-11-09 14:32:33
说来奇幻(对本菜来说, 经常遇到堪称奇幻的问题) 之前在docker里面各种安装都没问题, 也不知道什么引起的, 昨天晚上调试的时候卸载了一个包的版本,然后就安不上了. 宿主机安装依然各种流畅,唯独docker容器不行. 网上找了许多方法, 最后在 /etc/resolv.conf 文件内添加如下的代码解决了: nameserver 8.8 . 8.8 https://blog.csdn.net/qq_17351077/article/details/77498173 上面的博客提到了这个方法,但是不明白什么原因, 所以就没试, 然后在 https://stackoverflow.com/questions/28668180/cant-install-pip-packages-inside-a-docker-container-with-ubuntu/41989423 上又找到了同样的方案,这次这哥们给了点说明: Docker没有使用正确的DNS服务器。将谷歌的DNS服务器地址 添加到那个配置文件 Your problem comes from the fact that Docker is not using the proper DNS server. You can fix it in three different ways : 1. Adding Google DNS

[Python从零到壹] 五.网络爬虫之BeautifulSoup基础语法万字详解

為{幸葍}努か 提交于 2020-11-09 08:51:07
欢迎大家来到“Python从零到壹”,在这里我将分享约200篇Python系列文章,带大家一起去学习和玩耍,看看Python这个有趣的世界。所有文章都将结合案例、代码和作者的经验讲解,真心想把自己近十年的编程经验分享给大家,希望对您有所帮助,文章中不足之处也请海涵。Python系列整体框架包括基础语法10篇、网络爬虫30篇、可视化分析10篇、机器学习20篇、大数据分析20篇、图像识别30篇、人工智能40篇、Python安全20篇、其他技巧10篇。您的关注、点赞和转发就是对秀璋最大的支持,知识无价人有情,希望我们都能在人生路上开心快乐、共同成长。 前一篇文章讲述了基于正则表达式的Python爬虫以及Python常用的爬虫模块,而Python强大的网络支持能力和丰富的扩展包是否也提供了相关的爬虫包呢?答案是肯定的。本篇文章主要讲解BeautifulSoup技术。BeautifulSoup是一个可以从HTML或XML文件中提取数据的Python库,一个分析HTML或XML文件的解析器。本章将介绍BeautifulSoup技术,包括安装过程和基础语法,并通过分析HTML实例来介绍BeautifulSoup解析网页的过程。 本文参考了作者CSDN的文章,链接如下: https://blog.csdn.net/Eastmount https://github.com/eastmountyxz

在Python中创建文字云或标签云

与世无争的帅哥 提交于 2020-11-08 20:56:52
作者|ISHA5 编译|Flin 来源|analyticsvidhya 介绍 从开始从事数据可视化工作的那一天起,我就爱上它了。我总是喜欢从数据中获得有用的见解。 在此之前,我只了解基本图表,例如条形图,散点图,直方图等,这些基本图表内置在tableau中,而Power BI则用于数据可视化。通过每天完成此任务,我遇到了许多新图表,例如径向仪表盘,华夫图等。 因此,出于好奇,最近我正在搜索数据可视化中使用的所有图表类型,这些词云引起了我的注意,我发现它非常有趣。直到现在,看到这个词云图像迫使我认为这些只是随机排列的图像,这些单词是随机排列的,但是我错了,而且一切都从这里开始。之后,我尝试使用Tableau和Power BI中的少量数据制作词云。在成功尝试之后,我想通过编写条形图,饼图和其他图表的代码来尝试使用它。 词云是什么? 定义:词云是一个简单但功能强大的可视化表示对象,用于文本处理,它以更大,更粗的字母和不同的颜色显示最常用的词。单词的大小越小,重要性就越小。 标签云的用途 1) 社交媒体上的热门标签 (Instagram,Twitter): 全世界,社交媒体都在寻找最新更新的趋势,因此,我们可以获取人们在其帖子中使用最多的标签。 2) 媒体中的热门话题 : 分析新闻报道,我们可以在头条新闻中找到关键字,并提取出前n个需求较高的主题,并获得所需的结果,即前n个热门媒体主题。

Win10下数据增强及标注工具安装

自古美人都是妖i 提交于 2020-11-08 16:30:19
Win10 下 数据增强及 标注工具安装 一. 数据增强利器—Augmentor 1.安装 只需在控制台输入:pip install Augmentor 2.简介 Augmentor是用于图像增强的软件包,重点在于提供通常用于生成机器学习问题的图像数据的操作。其包含许多用于标准图像处理功能的类,例如Rotate 旋转类、Crop 裁剪类等等。 包含的操作有:旋转rotate、裁 剪crop、透视perspective skewing、shearing、弹性形变Elastic Distortions、亮度、对比度、颜色等等;更多的操作及其参数设定, 点击 。 数据增强通常是一个多阶段过程,Augmentor因此采用基于管道的处理方法,操作依次添加形成最终的操作管道。图像送到管道中,管道的操作依次作用到图片上形成新的图片,保存下来。Augmentor 管道中定义 的操作按照一定的概率随机地作用于图片上。 3.实例 二.LabelImg的简介 LabelImg是用于制作VOC数据集时,对数据集进行标注的工具。生成的 XML 文件是遵循 PASCAL VOC 的格式的。Faster R-CNN,YOLO,SSD等目标检测网络所需要的数据集,均需要借此工具标定图像中的目标。 三.labelImg的安装 1. 安装anaconda3 具体的安装方法可自行百度 2. 下载labelimg

毕业设计之 --- 爬虫

眉间皱痕 提交于 2020-11-08 08:49:12
简介 爬虫常用与毕业设计的数据收集阶段, 多同学要求和反应, 让学长出一片讲解爬虫的文章. 本文将描述和解析爬虫怎么使用, 并且给出实例. 所谓爬虫就是编写代码从网页上爬取自己想要的数据,代码的质量决定了你能否精确的爬取想要得到的数据,得到数据后能否直观正确的分析。 Python无疑是所有语言中最适合爬虫的。Python本身很简单,可是真正用好它需要学习大量的第三方库插件。比如matplotlib库,是一个仿照matalab的强大的绘图库,用它可以将爬下来的数据画出饼图、折线图、散点图等等,甚至是3D图来直观的展示。 Python第三方库的安装可以手动安装,但是更为简便的是在命令行直接输入一行代码即可自动搜索资源并安装。而且非常智能,可以识别自己电脑的类型找到最合适的版本。 Pip install +你所需要的第三方库 或者是easy install +你所需要的第三方库 这里建议大家使用pip安装,因为pip可以安装也可以卸载,而另一种方法只能安装。如果遇到你想使用新的版本的第三方库,使用pip的优势就会显现出来。 交互界面 [图片上传失败...(image-7b940a-1604630578613)] def web(): root = Tk() Label(root,text='请输入网址').grid(row=0,column=0) #对Label内容进行表格式布局