Jupyter Notebook

Jupyter Notebook配置多个kernel

只谈情不闲聊 提交于 2020-11-23 05:19:02
Jupyter Notebook配置多个kernel 前言: 在anaconda下配置了多个环境,而Jupiter Notebook只是安装在 base 环境下,为了能在Jupiter Notebook中使用不同的环境,进行如下配置。 此次配置在windows10系统下 步骤 打开 Anaconda Prompt ; 查看现有的环境 conda info -e ,我此时的环境如下: # conda environments: # base * C:\Software\Anaconda3 tensorflow -cpu C:\Software\Anaconda3\envs\tensorflow- cpu tensorflow -gpu C:\Software\Anaconda3\envs\tensorflow-gpu 转到相应的环境 conda activate tensorflow-cpu 在激活的环境中安装 ipykernel 次数,若我使用 conda install ipykernel 都安装失败了; 因此采用pip安装: pip3 install ipykernel -i https://pypi.tuna.tsinghua.edu.cn/simple/ 选择环境写入Jupiter Notebook中: python -m ipykernel install --user

Python可视化 | Python可视化进阶必备

若如初见. 提交于 2020-11-21 15:51:28
作者:费弗里 博客地址: https://www.cnblogs.com /feffery/p/9293745.h tml 本文仅作学术分享,若侵权,请联系后台删文处理 一、简介 Plotly是一个非常著名且强大的开源数据可视化框架,它通过构建基于浏览器显示的web形式的可交互图表来展示信息,可创建多达数十种精美的图表和地图,本文就将以jupyter notebook为开发工具,详细介绍Plotly的基础内容。 二、绘图语法规则 2.1 离线绘图方式 Plotly中绘制图像有在线和离线两种方式,因为在线绘图需要注册账号获取API key,较为麻烦,所以本文仅介绍离线绘图的方式。 离线绘图又有plotly.offline.plot()和plotly.offline.iplot()两种方法,前者是以离线的方式在当前工作目录下生成html格式的图像文件,并自动打开; 后者是在jupyter notebook中专用的方法,即将生成的图形嵌入到ipynb文件中,本文即采用后面一种方式(注意,在jupyter notebook中使用plotly.offline.iplot()时,需要在之前运行plotly.offline.init_notebook_mode()以完成绘图代码的初始化,否则会报错)。 plotly.offline.iplot()的主要参数如下: figure_or_data

Python可视化 | Python可视化进阶必备

社会主义新天地 提交于 2020-11-21 10:27:39
点击上方“ 咸鱼学Python ”,选择“ 加为星标 ” 第一时间关注Python技术干货! 作者:费弗里 博客地址: https://www.cnblogs.com /feffery/p/9293745.h tml 本文仅作学术分享,若侵权,请联系后台删文处理 一、简介 Plotly是一个非常著名且强大的开源数据可视化框架,它通过构建基于浏览器显示的web形式的可交互图表来展示信息,可创建多达数十种精美的图表和地图,本文就将以jupyter notebook为开发工具,详细介绍Plotly的基础内容。 二、绘图语法规则 2.1 离线绘图方式 Plotly中绘制图像有在线和离线两种方式,因为在线绘图需要注册账号获取API key,较为麻烦,所以本文仅介绍离线绘图的方式。 离线绘图又有plotly.offline.plot()和plotly.offline.iplot()两种方法,前者是以离线的方式在当前工作目录下生成html格式的图像文件,并自动打开; 后者是在jupyter notebook中专用的方法,即将生成的图形嵌入到ipynb文件中,本文即采用后面一种方式(注意,在jupyter notebook中使用plotly.offline.iplot()时,需要在之前运行plotly.offline.init_notebook_mode()以完成绘图代码的初始化,否则会报错)。

jupyter notebook 无法自动跳转到谷歌浏览器的解决方法

血红的双手。 提交于 2020-11-12 02:42:32
自从去年换了新电脑(联想拯救者Y7000),我的电脑安装Anaconda一直都无法自动跳转到谷歌浏览器,一直都是手动复制粘贴链接到搜索栏的,实在是麻烦。之前试过其它方法,但因为工作使用公司电脑的缘故,还有同事的电脑都没有出现这个问题。今晚心血来潮上CSDN随便搜索了一下,发现解法大致如下: 1. 先在 Anaconda Prompt 里面输入以下指令: jupyter notebook --generate-config 2. 把连接复制到计算机中或者手动按照路径找到改文件。 3. 用PyCharm打开该文件,在第95~99行找到以下脚本: ## Specify what command to use to invoke a web browser when opening the notebook. # If not specified, the default browser will be determined by the `webbrowser` # standard library module, which allows setting of the BROWSER environment # variable to override it. #c.NotebookApp.browser = '' 4. 紧跟其下,注入这几行脚本: import webbrowser

win10配置Keras及GPU环境

五迷三道 提交于 2020-11-10 05:15:51
今天搭建了Keras深度学习的环境 详细记录一下 安装Anaconda3 Anaconda指的是一个开源的Python发行版本,其包含了conda、Python等180多个科学包及其依赖项。 Anaconda3官网下载: https://www.anaconda.com/distribution/#download-section 选适合的版本安装即可 安装的时候记得勾选add anaconda to my PATH environment variable 安装好之后检查一下: 没有问题。 在Anaconda中创建TensorFlow的虚拟环境 conda info --envs 这个命令是检测Anaconda所有的环境变量的 然后创建虚拟环境: conda create --name tensorflow python=3.5 TensorFlow官方现在还不支持python3.7 所以我装的是3.5 安装完之后再来看一下: 现在已经创建了一个TensorFlow的虚拟环境了。 进入这个虚拟环境的命令是: activate tensorflow 退出是: deactivate 安装CUDA和CUDNN 先安装cuda: https://developer.nvidia.com/cuda-toolkit-archive 我下的是cuda10.0 注意这里安装的时候 visual

win10配置Keras及GPU环境

情到浓时终转凉″ 提交于 2020-11-10 02:50:36
今天搭建了Keras深度学习的环境 详细记录一下 安装Anaconda3 Anaconda指的是一个开源的Python发行版本,其包含了conda、Python等180多个科学包及其依赖项。 Anaconda3官网下载: https://www.anaconda.com/distribution/#download-section 选适合的版本安装即可 安装的时候记得勾选add anaconda to my PATH environment variable 安装好之后检查一下: 没有问题。 在Anaconda中创建TensorFlow的虚拟环境 conda info --envs 这个命令是检测Anaconda所有的环境变量的 然后创建虚拟环境: conda create --name tensorflow python=3.5 TensorFlow官方现在还不支持python3.7 所以我装的是3.5 安装完之后再来看一下: 现在已经创建了一个TensorFlow的虚拟环境了。 进入这个虚拟环境的命令是: activate tensorflow 退出是: deactivate 安装CUDA和CUDNN 先安装cuda: https://developer.nvidia.com/cuda-toolkit-archive 我下的是cuda10.0 注意这里安装的时候 visual

Using DeepChem with Amazon SageMaker for virtual screening

人走茶凉 提交于 2020-11-09 05:10:51
https://amazonaws-china.com/blogs/machine-learning/using-deepchem-with-amazon-sagemaker-for-virtual-screening/ Virtual screening is a computational methodology used in drug or materials discovery by searching a vast amount of molecules libraries to identify the structures that are most likely to show the target characteristics. It is becoming a ground-breaking tool for molecular discovery due to the exponential growth of available computer time and constant improvement of simulation. Deep learning technologies are widely used in this computational virtual compound screening, and such

在Python中创建文字云或标签云

与世无争的帅哥 提交于 2020-11-08 20:56:52
作者|ISHA5 编译|Flin 来源|analyticsvidhya 介绍 从开始从事数据可视化工作的那一天起,我就爱上它了。我总是喜欢从数据中获得有用的见解。 在此之前,我只了解基本图表,例如条形图,散点图,直方图等,这些基本图表内置在tableau中,而Power BI则用于数据可视化。通过每天完成此任务,我遇到了许多新图表,例如径向仪表盘,华夫图等。 因此,出于好奇,最近我正在搜索数据可视化中使用的所有图表类型,这些词云引起了我的注意,我发现它非常有趣。直到现在,看到这个词云图像迫使我认为这些只是随机排列的图像,这些单词是随机排列的,但是我错了,而且一切都从这里开始。之后,我尝试使用Tableau和Power BI中的少量数据制作词云。在成功尝试之后,我想通过编写条形图,饼图和其他图表的代码来尝试使用它。 词云是什么? 定义:词云是一个简单但功能强大的可视化表示对象,用于文本处理,它以更大,更粗的字母和不同的颜色显示最常用的词。单词的大小越小,重要性就越小。 标签云的用途 1) 社交媒体上的热门标签 (Instagram,Twitter): 全世界,社交媒体都在寻找最新更新的趋势,因此,我们可以获取人们在其帖子中使用最多的标签。 2) 媒体中的热门话题 : 分析新闻报道,我们可以在头条新闻中找到关键字,并提取出前n个需求较高的主题,并获得所需的结果,即前n个热门媒体主题。

Flagging suspicious healthcare claims with Amazon SageMaker

别等时光非礼了梦想. 提交于 2020-10-29 00:59:16
https://amazonaws-china.com/blogs/machine-learning/flagging-suspicious-healthcare-claims-with-amazon-sagemaker/ The National Health Care Anti-Fraud Association (NHCAA) estimates that healthcare fraud costs the nation approximately $68 billion annually—3% of the nation’s $2.26 trillion in healthcare spending. This is a conservative estimate; other estimates range as high as 10% of annual healthcare expenditure, or $230 billion. Healthcare fraud inevitably results in higher premiums and out-of-pocket expenses for consumers, as well as reduced benefits or coverage. Labeling a claim as fraudulent

写一手漂亮的代码,走向极致的编程 二、代码运行时内存分析

谁说我不能喝 提交于 2020-10-25 17:52:23
前言 上篇 文章 中介绍了如何对代码性能进行分析优化,这篇文章将介绍如何对代码运行时内存进行分析。 说到内存,就想起之前在搞数据挖掘竞赛的时候,往往要跑很大的数据集,经常就是炸内存。当时的解决办法就是对着任务管理器用 jupyter notebook 分 cell 的跑代码,将需要耗费大量内存的代码块找出来,然后考虑各种方式进行优化。 这篇文章将会介绍些更好的方法,来对代码运行时内存进行分析,通过这些方法了解了代码的内存使用情况之后,我们可以思考: 能不能重写这个函数让它使用更少的 RAM 来工作得更有效率 我们能不能使用更多的 RAM 缓存来节省 CPU 时间 开始分析 代码仍采用上篇文章中的 memory_profiler 通过 pip install memory_profiler 来安装这个库。在需要进行分析的函数前加上修饰器 @profile from memory_profiler import profile ... ... @profile def calculate_z_serial_purepython(maxiter, zs, cs): ... @profile def calc_pure_python(desired_width, max_itertions): ... ... 然后命令行输入 python -m memory_profiler code