Mac OS X

好程序员Python教程从零开始学Python系列-第2讲

三世轮回 提交于 2020-04-24 12:32:56
  好程序员Python教程从零开始学Python系列-第2讲:第一个Python程序我们已经了解了Python这门语言并安装了运行Python程序所需的环境,接下来我们就可以写Python程序了,不知道大家是不是已经迫不及待了。首先我们来告诉大家在哪些地方可以写Python程序。 编写代码的工具 交互式环境 我们打开Windows的“命令行提示符”工具,输入命令python然后回车就可以进入到Python的交互式环境中。所谓交互式环境,就是我们输入一行代码回车,代码马上会被执行,如果代码有产出结果,那么结果会被显示在窗口中。例如: Python 3.7.6 Type "help", "copyright", "credits" or "license" for more information. 2 * 3 6 2 + 3 5 温馨提示:使用macOS系统的用户需要打开“终端”工具,输入python3进入交互式环境。 如果希望退出交互式环境,可以在交互式环境中输入quit(),如下所示。 quit() 文本编辑器 - Visual Studio Code Visual Studio Code(通常简称为VS Code)是一个由微软开发能够在Windows、 Linux和macOS等操作系统上运行的代码编辑神器。它支持语法高亮、自动补全、多点编辑、运行调试等一系列便捷功能

TextMate for Mac(专业文本编辑工具) 2.0.10

梦想与她 提交于 2020-04-24 09:50:56
Mac上好用的文本编辑器是哪个?TextMate for Mac是一款多功能的纯文本编辑器,支持所有主要的编程语言,是一款操作简单又实用的编辑工具,macdown提供TextMate Mac破解版软件下载,需要的朋友,一定不要错过喽。 TextMate for Mac https://www.macdown.com/mac/3102.html TextMate for mac软件介绍 TextMate是一款多功能的纯文本编辑器,它具有独特而创新的功能集,使其在2006年8月赢得了苹果设计大奖,成为最佳Mac OS X开发工具。一个快速发展的社区已经为超过一百种不同的“模式”创建了模式,包括支持所有主要的编程语言,以结构化格式编写散文,如LaTeX,Markdown,Textile等,博客,运行SQL查询,编写屏幕播放,做你的预算,还有更多。TextMate将Apple的操作系统方法带入了文本编辑的世界。通过桥接UNIX基础和GUI,TextMate选择了两全其美的优点,使专家脚本和新手用户都受益匪浅。无论你是程序员还是设计师,代码和标记的制作都是很难的。如果没有专门负责该任务的编辑器,它也常常是繁琐,压倒性和重复性的。特别是当你一次处理大量文件时 - 就像大多数项目一样。TextMate让你重新控制,减少精神开销,并将手动工作变成计算机所做的事情。 TextMate for

和马斯克Zoom开个会,竟是AI换脸,GitHub 4000星项目登上热榜

半城伤御伤魂 提交于 2020-04-24 09:46:24
「昨天我和马斯克开会了,正在聊一个两亿的项目。」 机器之心报道,参与:Racoon、蛋酱、兔子。 要是你这么跟朋友说,她可能不信,但你可以甩给她一张 Zoom 的截图,她没准就信了。 实际上,马斯克才不会找你来聊项目,这都是 deepfake 生成的。数以万计的国外网友正在忍受在家办公的枯燥,Zoom 和 Skype 已经成为他们最厌倦的软件。 因此很多人迷上了 AI 换脸。现在,你可以用 Avatarify 将自己的脸替换成别人的脸,并且是实时的,在视频会议中的表现也十分流畅。目前这个项目已经登上了 GitHub 热榜,短短几天揽获 4000 多星。 项目地址: https:// github.com/alievk/avata rify 效果展示 如上图所示,作者将一张红色格子衫的照片导入,照片中的五官也会随着视频中真人的五官动作做出相应的变化。当挑起眉毛,眨眼睛,说话等等动作时,新的图像都会和真实的操作者保持一致。所以,在实时视频中换脸也就毫无违和感了,看起来真如同换了个人在开会! 当然,你也可以尝试一些更有意思的,比如看爱因斯坦眨眼睛,埃米纳姆的凝视,乔布斯挑眉毛,还有被玩坏了的蒙娜丽莎等等...... 只要你想,可以换成任何人。 方法介绍 项目作者之一 Ali Aliev 介绍说,Avatarify 使用了今年三月一篇 arXiv 论文的方法「First Order

每周分享五个 PyCharm 使用技巧(三)

一笑奈何 提交于 2020-04-24 06:55:24
文章首发于 微信公众号: Python编程时光 PyCharm 是大多数 Python 开发者的首选 IDE,每天我们都在上面敲着熟悉的代码,写出一个又一个奇妙的功能。 一个每天都在使用的工具,如果能掌握一些高效的使用技巧,肯定会给我们的开发效率带来质的提升。今天我就来写一写我在平时开发中一直在用的,可以明显改善开发效率的使用技巧,一旦学会,受用一生。 这是本系列 PyCharm 的高效使用技巧的第一篇。按照惯例,本次还是分享 5 个。 本系列其他文章如下,若还没看的,你可以点击查阅 每周分享五个 PyCharm 使用技巧(一) 每周分享五个 PyCharm 使用技巧(二) 每周分享五个 PyCharm 使用技巧(三) 每周分享五个 PyCharm 使用技巧(四) 每周分享五个 PyCharm 使用技巧(五) 每周分享五个 PyCharm 使用技巧(六) 11. 一键进行代码性能分析 在 Python 中有许多模块可以帮助你分析并找出你的项目中哪里出现了性能问题。 比如,常用的模块有 cProfile,在某些框架中,也内置了中间件帮助你进行性能分析,比如 Django ,WSGI。 做为Python 的第一 IDE, PyCharm 本身就支持了这项功能。而且使用非常方便,小白。 假设现在要分析如下这段代码的性能损耗情况,找出到底哪个函数耗时最多 import time def

操作系统,C/S B/S架构,网络通信,

半腔热情 提交于 2020-04-24 05:10:13
操作系统:是一个软件,是操作链接计算机硬件与计算机软件的纽带,有windows,linux,macOS C/S B/S架构: C:client 客户端 B:browser 浏览器 S:server服务器 C/S:基于客户端与服务器的架构,QQ,微信,暴风影音,快播 B/S:特殊的C/S架构 网络通信:从一台计算机的一个软件将一个数据(文件,视频,音频)发送到另一台电脑的这个软件上   1一系列的物理连接介质   2地址确定对方的软件的位置   3一系类互联网协议 五层协议:   物理层:     物理连接介质,光纤,双绞线     物理层发送的数据:高低电平.010101011,物理层只是单纯的发送01010101,但是数据应该进行分组,源地址,目标地址,这些物理层做不了   数据链路层:主要就是对数据进行分组,封包:源地址,目标地址,早期每个公司都有不同的标准,后来统一标准:以太网协议        规定数据分为两部分:           数据头 | 数据           数据头规定 固定18个字节           数据头部分:             源地址:6个字节             目标地址:6个字节             数据类型:6个字节     将数据分为组的形式:一组电信号:数据报,也叫一帧     head长度+deta长度=最短64字节

python | mac安装brew 软件包管理工具Homebrew

我的梦境 提交于 2020-04-24 03:31:32
mac 安装 brew Homebrew brew 全称Homebrew 是Mac OSX上的软件包管理工具 Homebrew 安装和卸载工具 只用一行命令就能完成 官方地址 mac 自带ruby 打开命令行 terminal 输入 : ruby -version 安装命令 ruby -e "$(curl -fsSL https://raw.github.com/Homebrew/homebrew/go/install)" 假如已经安装了 输入如下命令 ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)" 命令行输出: image brew 使用方法 命令行 输入: brew 输出: Example usage: brew [info | home | options ] [FORMULA...] brew install FORMULA... brew uninstall FORMULA... brew search [foo] brew list [FORMULA...] brew update brew upgrade [FORMULA...] brew pin/unpin [FORMULA...] Troubleshooting: brew

MacOS安装Docker傻瓜式教程

微笑、不失礼 提交于 2020-04-24 03:01:08
最近电脑越来越卡了,为了减少系统开销,以及后期维护方便,所以考虑将本地安装一些服务迁移到docker中去管理,这一切的基础是要先有docker服务,所以本文就先记录怎样在mac上安装配置docker,也给后面需要的朋友一点借鉴。想了解centos安装docker的可以查看以前的文章 Docker学习笔记一:Docker简介与安装 。 关于docker简介,本文不做过多讲解,感兴趣的同学可以自行去官网或者中文网查看。 docker官网:https://www.docker.com/ docker中文网:http://www.docker.org.cn/ 下面就开始macos系统的docker容器的安装之旅,所有步骤都是亲身实践,可放心观看。 一、安装Docker 1、先检查有无安装docker 2、使用brew安装,耐心等待下载完成 3、在应用程序中找到docker图标,点击运行 4、一路next 5、输入电脑密码 6、输入dockerid登录或者直接关闭后面输入 至此,docker就算安装完成,打开iterm,查看docker相关信息。 二、查看docker相关信息 1、查看docker信息 2、检查Docker Engine,Docker Compose和Docker Machine的版本 如果你的docker,docker-compose和docker

跟着minium官网介绍学习minium-----(二)

て烟熏妆下的殇ゞ 提交于 2020-04-24 02:58:45
一: 进入minium官方 文档 1. 进入 minium 目录然后运行服务,出现以下提示说明打开成功 , 2. 浏览器直接运行 http://localhost:3000 即可看到效果。 3. 下图为进入网页后的效果图,选择 For MiniProgram(minium) 进入即可 ( 如果小程序是游戏版本则进入 For MiniGame) 二: 打开微信开发工具的安全模式,这一步的作用主要是让工具打开一个端口,用于实现端口连接。跟 appium 运行时要指定端口一样的原理。 2.1 进入微信开发工具界面。 2.2 在工具栏菜单中点击设置 2.3 在下拉 option 中选择安全设置 2.4 设置菜单弹窗中切换的“安全”分页 2.5 服务端口处点击开启 ( 开启之后会自动随机一个端口号 ) 2.6 关闭设置弹窗即可自动保存 三:确认开发者工具调试基础版本大于 >=2.7.3 3.1 进入微信开发工具界面。 3.2 在工具栏菜单中点击设置 3.3 在下拉 option 中选择项目设置 3.3 切换到“本地设置”分页 3.4 将调试基础库选择大于 2.7.3 的库 四:开始运行 minium: 1. 进入工具 cli所在目录,执行下面指令。如果出现错误,可先看看下面的注意说明。 指令:path/to/cli --auto /miniprogram/project/path -

python爬虫实例,一小时上手爬取淘宝评论(附代码)

你。 提交于 2020-04-24 00:39:22
前言 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。 1 明确目的 通过访问天猫的网站,先搜索对应的商品,然后爬取它的评论数据。可以作为设计前期的市场调研的数据,帮助很大。 2 爬取评论并储存 (首先要进行登录,获取cookie)搜索你想收集的信息的评价,然后点开对应的产品图片。找到对应的评价的位置。 找到对应的位置之后就可以进行数据的爬取了,但是在爬取的过程中发现始终无法获取对应的数据。判断可能是因为没有添加cookie导致的,但是在添加了cookie之后发现依旧无法解决问题。 最后,发现应该是显示的数据是通过json解析之后显示在网页上的,因此需要多一些步骤来获取真正的爬取链接。 首先在network中,清除掉以往的数据信息,然后将页面进行刷新,复制其中的一条信息,进行搜索。在4中获得链接,并在5中获取到链接。 找到文件里面的访问url、cookie、referer、agent,将其复制在程序里。 大功告成,现在就可以进行数据的爬取了。 import pandas as pd import requests import re import time data_list = [] for i in range(1,20,1 ): print ( " 正在爬取第 " + str(i) + " 页 " ) #

python爬虫实例,一小时上手爬取淘宝评论(附代码)

纵然是瞬间 提交于 2020-04-23 22:32:48
前言 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。 1 明确目的 通过访问天猫的网站,先搜索对应的商品,然后爬取它的评论数据。可以作为设计前期的市场调研的数据,帮助很大。 2 爬取评论并储存 (首先要进行登录,获取cookie)搜索你想收集的信息的评价,然后点开对应的产品图片。找到对应的评价的位置。 找到对应的位置之后就可以进行数据的爬取了,但是在爬取的过程中发现始终无法获取对应的数据。判断可能是因为没有添加cookie导致的,但是在添加了cookie之后发现依旧无法解决问题。 最后,发现应该是显示的数据是通过json解析之后显示在网页上的,因此需要多一些步骤来获取真正的爬取链接。 首先在network中,清除掉以往的数据信息,然后将页面进行刷新,复制其中的一条信息,进行搜索。在4中获得链接,并在5中获取到链接。 找到文件里面的访问url、cookie、referer、agent,将其复制在程序里。 大功告成,现在就可以进行数据的爬取了。 import pandas as pd import requests import re import time data_list = [] for i in range(1,20,1 ): print ( " 正在爬取第 " + str(i) + " 页 " ) #