github

How to cache docker-compose build inside github-action

不羁的心 提交于 2021-02-16 02:49:40
问题 Is there any way to cache docker-compose so that it will not build again and again? here is my action workflow file: name: Github Action on: push: branches: - staging jobs: test: runs-on: ubuntu-18.04 steps: - uses: actions/checkout@v1 - name: Bootstrap app on Ubuntu uses: actions/setup-node@v1 with: node-version: '12' - name: Install global packages run: npm install -g yarn prisma - name: Install project deps if: steps.cache-yarn.outputs.cache-hit != 'true' run: yarn - name: Build docker

机器学习画图神器来啦!PPT下载!

江枫思渺然 提交于 2021-02-16 02:11:52
↑↑↑点击上方 蓝字 ,回复 资料 ,10个G的惊喜 作者:蛋酱、小舟,编辑:机器之心 神经网络画图神器 ML Visuals 正在持续更新。 去年 5 月,机器之心曾向大家推荐一款名为 ML Visuals 的机器学习画图模板,该项目受到广泛关注,迄今已收获 2.2K Star。ML Visuals 专为解决神经网络画图问题设计,最近,这一模板进行了更新。( 文末附PPT下载链接 ) 项目地址:https://github.com/dair-ai/ml-visuals ML Visuals 现在包含了 100 多个可用的自定义图形,使用者可以在任何论文、博客、PPT 中使用这些资源。 这份 101 页的模板共包含几个部分: 基础组件 架构 机器学习概念 抽象背景 渐变背景 机器学习 & 健康 其他 机器学习系统设计 基础组件 这套画图模板首先提供了多种基础组件,比如表示过程、操作或转换的圆角矩形,表示神经元或任意操作的小圆圈,表示向量的一排小方块以及表示多维数组的网格等。 架构 架构部分的模板数量最多,共有 32 张。对于复杂的模型架构来说,套模板显然事半功倍,比亲手画图要便捷得多。 比如,画出卷积操作的示意图: 使用该模板重现一些经典架构也是得心应手,比如下图是使用该模板绘制的 Transformer 架构图: 机器学习概念 该模板还可以用来表示机器学习中的一些基本概念,比如

Python 多线程爬取站酷(zcool.com.cn)图片

旧时模样 提交于 2021-02-16 01:21:10
极速爬取下载站酷( https://www.zcool.com.cn/ ) 设计师/用户 上传的全部 照片/插画 等图片。 项目地址: https://github.com/lonsty/scraper 特点: 极速下载:多线程异步下载,可以根据需要设置线程数 异常重试:只要重试次数足够多,就没有下载不下来的图片 (^o^)/ 增量下载:设计师/用户有新的上传,再跑一遍程序就行了 O(∩_∩)O嗯! 支持代理:可以配置使用代理 环境: python3.6 及以上 1. 快速使用 1) 克隆项目到本地 git clone https://github.com/lonsty/scraper 2) 安装依赖包 cd scraper pip install -r requirements.txt 3) 快速使用 通过用户名 username 下载所有图片到路径 path 下: python crawler.py -u <username> -d <path> 运行截图 爬取结果 2. 使用帮助 查看所有命令 python crawler.py --help Usage: crawler.py [OPTIONS] Use multi-threaded to download images from https://www.zcool.com.cn in bulk by username or

两款非常赞的程序员画图神器,快用起来吧

自作多情 提交于 2021-02-16 00:36:39
有一段时间没有发文了,看到后台有伙伴问,作为程序员,有没有好的画图工具推荐,领导说Microsoft Visio画图工具很强,让我们使用,但是我就是用的不习惯。 还有没有其他高端的牛逼的,容易上手,一用就爽的画图工具么。 针对这么个问题,我其实也是经验不足,Microsoft Visio我也用过,安装包大,还要破解,用的不多,还买个正版,我的脑子还没瓦塌,我是不会买的。 那么趁着周末给大家分享两款好用的画图工具,作为程序员还是经常需要画一画图的,你应该能明白我说的画图指的是什么,我也就不过多的强调了。 还是强调下吧: 1、程序员不要认为写好代码就好,画好图也很重要,难道你没听过PPT架构师,PPT架构师不就天天画图么 这点就是轻松一下,周末愉快! 2、关于画图,俗话说,有图有真相!哦,不对,是一图胜千言。一图胜千言,沟通效率那不是刚刚的 这点很重要,不!是特别特别特别的重要!!! 如果你在工作中没有画过图,或者你没有找到合适的画图工具的话,那么读完本文,建议尝试用其中一个开始你画图的表演吧。 第一个款画图工具:Draw.io Draw.io 是一个很好用的免费流程图绘制工具。你可以利用它绘制一系列的图表、图示或图形,包括流程图、UML 类图、组织结构图、泳道图、E-R 图、文氏图等等,适用于商务、工程、电气、网络设计、软件设计等诸多领域的专业绘图。它致力于成为完全开源、免费

为你的IDEA集成AI,解放双手,我推荐这款神器!

非 Y 不嫁゛ 提交于 2021-02-15 20:23:47
我们平时写代码的时候,多少都会依赖编辑器的代码补全功能,敲几个字母就能补全一个词。可是这么多年过去了,语言升级了很多次,而代码提示却没有升级,还是只能限定在一个词,毫无意义地按照字典表顺序排列,这对于编程来讲,又有什么价值呢? 传统的代码补全,一大篇毫无意义的推荐 试想一下,如果用 【AI】 来做代码提示,按照上下文和以往代码用深度学习技术分析之后,在个人编程的时候,根据个人编程习惯做推荐,把编码常用的结果前置,紧接着给出更长甚至补完一整行的推荐结果,对于编程就非常有价值了。 用AI做代码补全,根据使用情况智能排序,甚至补完整个语 近期,一款AI代码补全工具—— aiXcoder (官网: www.aixcoder.com ),在程序员间掀起了波澜,很多群和朋友圈都在寻求共同编程好友一起领取官方专业版。深度了解一下,aixcoder是 国内硅心科技 开发,安装使用傻瓜式操作,推荐效果秒杀一切代码提示工具。 于是我测试了一下这个号称 【帮助程序员节省时间】 的工具,看看AI编程进展到什么程度,是如何帮助程序员节省时间。 本着 【独立客观第三方】 的原则,挑选第三方的代码进行测试。 既然说可以节省编程时间,从 【键盘按键】 数量的角度进行统计与比较,因为敲击键盘数量越少,从开发的角度越省时间。 【Round One:Tensorflow】

如果有人问你 MySql 怎么存取 Emoji,把这篇文章扔给他

穿精又带淫゛_ 提交于 2021-02-15 16:51:28
01、前言 Emoji 在我们生活中真的是越来越常见了,几乎每次发消息的时候不带个 Emoji,总觉得少了点什么,似乎干巴巴的文字已经无法承载我们丰富的感情了。对于我们开发者来说,如何将 Emoji 存入 MySql 数据库或者取出来,就变成了一种必须掌握的技能了。 <!--more--> Emoji 是一种图形符号,能够很直观地反应出某种文字含义。它让我想起远古时代的象形文字。 Emoji 其实是一个日语词(えもじ), E 表示"絵", moji 表示"文字";连在一起就是"絵文字",可以更形象化地表情达意。 02、糟糕 如果我们直接将 Emoji 表情存入数据库的话,通常会出现下面这个错误。 因为数据库的字符编码一般是 utf8(支持的编码范围为 \u0000-\uFFFF ),而 Emoji 所在的编码范围是 \u1F601-\u1F64F ,超出 MySql 的边界了。 怎么解决这个问题呢? 03、utf8mb4 可以将 MySql 的字符集由 utf8 调整为 utf8mb4。utf8mb4 是 MySql 在 5.5.3 版本之后增加的一个编码方式,用来兼容四字节的 Unicode(包括 Emoji)。 理论上,utf8mb4 是 utf8 的超集,其中 mb4 是 most bytes 4 的意思,将字符集修改为“utf8mb4”,并不会对已有的 utf8

egret 发布ios记录

断了今生、忘了曾经 提交于 2021-02-15 13:25:31
根据官方文档 http://developer.egret.com/cn/github/egret-docs/Native/native/hybrid/hybrid/index.html 将现有的项目发布成Hybird。 发布成功之后,使用xcode打开xcworkspace工程。 然后点击运行按钮。成功调用启动了iphone模拟器,但是内容确实一片空白,即手机模拟器屏幕上显示的是一片空白。 到这里为止,我再次回到官方文档查看。 逐个排查工程模版。 1.默认工程是从本地启动游戏。 我没有做任何改动,那就是从本地启动游戏。 1.1 启动流程     1.1.1初始化EgretWebViewLib; [EgretWebViewLib initialize:@"/egretGame/preload/"]; // "/egretGame/preload/"是缓存目录,在应用的document目录下。    成功;      1.1.2检查游戏资源是否已经部署到本地服务器; [EgretWebViewLib checkLoaded:zipFilePath Host:host] // zipFilePath是游戏资源zip的绝对路径 // host是游戏映射到哪个url下,如host为"https://egret.com/game/",对应的游戏url为"https://egret.com

【Mac + Appium + Java1.8学习(三)】之IOS自动化环境安装配置以及简单测试用例编写(模拟器、真机)

梦想与她 提交于 2021-02-15 13:03:37
前提条件: =========================================== 1.Xcode版本为Xcode10及以上 2.Appium版本必须为1.9及以上,因为Xcode为10.0 3.appium-desktop 4.安装所需依赖库,包括: a.Homebrew b.Git c.node ( brew install node ) d.npm ( brew install npm ) e.carthage ( brew install carthage ) f.libimobiledevice(真机测试需要)( brew install libimobiledevice ) g.ios-deploy(真机测试需要)( brew install ios-deploy ) 5、WDA配置 =========================================== 上面的环境配置具体参考: 《 【Mac + Appium学习(一)】之安装Appium环境前提准备 》 《 【Mac + Appium + Python3.6学习(三)】之IOS自动化测试环境配置 》 环境: MacOS:10.13.6 Appium:1.9.1 Appium-desktop:1.7.1 Java:1.8 XCode:10.0 一、安装测试环境 1

开发谷歌浏览器插件会上瘾,搞了一个JSONViewer,一个页面格式化多条JSON,提升工作效率

流过昼夜 提交于 2021-02-15 12:15:36
最近写了一个谷歌浏览器插件(Chrome extension),拿出来分享下,希望能提升大家的工作效率。 一、背景 先说痛点:日常开发中,经常需要不停的把接口输出的JSON拷贝到在线JSON格式化页面进行校验、查看和对比等操作,但是现在主流的在线JSON格式化网站都只支持单个操作,如果想同时查看多条JSON,那么就得开多个浏览器标签页,效率非常低下。比如这样 想看另一条JSON必须切换标签页,重复的操作一两次还可以,久而久之就无法忍受了。如果能把这些JSON都在一个页面上格式化就好了。 二、尝试解决 一个页面格式化多条JSON,那就是从本来的一个操作区域变成多个操作区域。首先想到的是拷贝下别人的代码,初始化对象的时候多初始化几个,这样就一个变多个了。于是找到国内某搜索排名靠前的JSON格式化网站来研究。看看他们的js 看了后非常疑惑,js为什么要写成这样?这个_0x6eb0对象里的元素为什么都转成了16进制的,刚开始还想着挨个转回来看看到底是什么,突然想到Chrome已经拿到了这个对象,打印一下就可以了 到这里才明白了,就是不让你舒服的看源码。不过这个js还好,想拿来用的话恢复和修改的难度不大,看看另一个js 1万多行混淆的代码,变量名都替换成了短的,想看某个变量怎么定义的、方法在哪里调用过,搜索都没办法搜索,基本放弃了。 三、拨云见日 既然国内的JSON格式化网站没法抄了

scrapy框架爬取妹子图片

孤人 提交于 2021-02-15 12:09:52
首先,建立一个项目#可在github账户下载完整代码:https://github.com/connordb/scrapy-jiandan2 scrapy startproject jiandan2 打开pycharm,把建立的此项目的文件打开,在中断新建一个爬虫文件 scrapy genspide jiandan jandan.net/ooxx 在Items中配置我们需要的信息 import scrapy class Jiandan2Item(scrapy.Item): # define the fields for your item here like: img_url = scrapy.Field() # 图片的链接 img_name = scrapy.Field() 在jian_pan 文件开始我们对网页的解析 import base64 from jiandan2 import item class JiandanSpider(scrapy.Spider): name = 'jiandan' allowed_domains = ['jandan.net'] start_urls = ['http://jandan.net/ooxx'] def parse(self, response): img = response.xpath('//div[@id="comments