YAML

Auto update of requirements.yml in conda

守給你的承諾、 提交于 2021-01-24 09:37:09
问题 We are using conda to manage the environment of our Python projects. One thing that bugs us is someone in the team occasionally installs a new package in the environment but forget to update the requirements.yml file. Instead of typing this before every commit: conda env export > requirements.yml Is there away to have that file automatically updated when someone install or remove a package? 回答1: Git Hooks I don't know of a hook for conda (install/upgrade/remove) . However, one could add a Git

Spring Boot 2.4发布了,但 Spring Cloud 用户不推荐着急升级

非 Y 不嫁゛ 提交于 2021-01-24 01:09:34
点击上方蓝色“ 程序猿DD ”,选择“设为星标” 回复“ 资源 ”获取独家整理的学习资料! 前段时间Spring Boot发布了本年度最后一个重要更新版本:Spring Boot 2.4.0。 最近在社群里也开始有讨论关于Spring Boot 2.4的一些使用问题。我发现有很多Spring Cloud用户也急切着想要体验最新版本的Spring Boot,然后碰到了一些问题,其中被提出来最多的就是配置无法加载的问题。 我没有去深究这个问题如何去解决,因为之前,在 发布说明 中有提及过,在Spring Boot 2.4版本中对配置文件的处理做了较大的改动,如果你只是简单的使用application.properties或application.yaml,那么还能无缝衔接。但如果用了更为复杂的配置方式,很可能会失败。 所以,当你采用Spring Cloud Config来管理配置和加载的时候,就很容易出现这样的问题。同时,从Spring Boot和Spring Cloud的版本支持关系来看,Spring Boot 2.4.x版本本身还没有对应的Spring Cloud版本。 上图截取自:http://www.springcloud.com.cn/ 因此,对于Spring Cloud的用户的话,当前时间节点之下,并不太推荐马上去应用Spring Boot 2.4.x。 往期推荐

ansible-playbook流程控制-when条件判断

独自空忆成欢 提交于 2021-01-23 22:45:48
1. ansible-playbook添加判断 when相当于shell脚本里的if 判断,when语句就是用来实现这个功能的,它是一个jinja2的语法,但是不需要双大括号,用法很简单 1.1) 示例1: 1 [root@test-1 when] # vim when_test1.yaml 2 [root@test-1 when] # cat when_test1.yaml 3 --- 4 - hosts: web1 5 gather_facts: yes 6 7 tasks: 8 - name: " IP if " 9 debug: msg= {{ansible_default_ipv4.address}} 10 when: ansible_default_ipv4.address == ' 192.168.200.133 ' 11 12 # 注意 Ansible facts和vars 比如 ansible_os_family 应能被引用 13 # 直接写,不带双大括号。 1.2) 示例2:使用括号对条件进行分组 1 [root@test-1 when] # vim when_test2.yaml 2 [root@test-1 when] # cat when_test2.yaml 3 --- 4 - hosts: localhost 5 gather_facts: yes 6

OpenFaaS-无服务器应用

大城市里の小女人 提交于 2021-01-23 11:24:46
https://docs.openfaas.com/ OpenFaaS®使开发人员可以轻松地将事件驱动的功能和微服务部署到Kubernetes,而无需重复的样板代码。将您的代码或现有二进制文件打包到Docker映像中,以获得具有自动扩展和指标的高度可扩展的端点。 重点说明 通过UI门户易于使用, 一键 安装 为Linux或Windows用任何语言编写函数,并以Docker / OCI图像格式打包 可移植-使用 Kubernetes 或容器在现有硬件或公共/私有云上 运行 提供YAML格式的 CLI 以用于模板化和定义功能 随着需求增加自动缩放 OpenFaaS 总览 介绍 社区 入门 部署方式 Kubernetes as OpenShift 故障排除 命令行界面 安装 创建功能 构建功能 管理机密 日志 使用图像标签 壳牌自动完成 参考 CI / CD TLS 机密 异步 扳机 工作量 验证码 CORS 克朗 命名空间 个人资料 YAML OpenFaaS云 介绍 自托管 用户指南 管理机密 建筑 认证方式 多阶段 设计与建筑 叠放 网关 看门狗 自动缩放 指标 性能 生产 FaaS提供商 日志提供者 讲解 作坊 超时延长 带有Node.js的CLI 第一个Python函数 Kubernetes HPAv2 Kubernetes HPAv2自定义指标 KinD的本地注册表 精选

Azure DevOps CI pipeline for master being triggered by changes in branch and vice versa

徘徊边缘 提交于 2021-01-23 06:51:11
问题 I have a CI build trigger setup for a repo as follows: trigger: - master I have a branch of the same repo that I would like to have it's own pipeline. In the pipeline.yml for the branch I have: trigger: - ops-workshop/ms-lab01 However, if I commit changes to my branch, builds are triggered for both the master and branch pipelines. Committing to master also triggers the pipeline for the branch (which it shouldn't). I have tried using the branches node to exclude master but it doesn't seem to

Ansible 之 自动化部署redis主从(单机)

隐身守侯 提交于 2021-01-22 15:29:47
一、playbook文件redis.yaml --- - hosts: test vars_files: - vars.yml remote_user: "{{user}}" become: yes tasks: - name: "安装epel源" command: yum -y install epel-release - name: "安装redis" yum: name: redis state: latest - name: "修改redis配置文件监听IP为本机" lineinfile: path: /etc/redis.conf regexp: '^bind 127' line: bind {{master_redis}} - name: "设置开机启动" service: name: redis enabled: yes - name: "启动主库redis6379端口" service: name: redis state: started - name: "制作从库配置文件" command: cp /etc/redis.conf /etc/redis_slave.conf - name: "创建从库的数据存放位置" command: mkdir -p /var/lib/redis_slave - name: "编辑从库配置文件的绑定IP" lineinfile:

docker部署sharding-proxy

泪湿孤枕 提交于 2021-01-22 02:51:14
1、背景 Sharding-proxy定位为透明化的数据库代理端,提供封装了数据库二进制协议的服务端版本,用于完成对异构语言的支持。 目前先提供PostgreSQL版本,它可以使用任何兼容PostgreSQL协议的访问客户端(如:PostgreSQL Command Client, Navicat等)操作数据,对DBA更加友好。 向应用程序完全透明,可直接当做PostgreSQL使用。 适用于任何兼容MySQL/PostgreSQL协议的的客户端。 2、安装docker,这一步没什么可讲的 3、制作sharding proxy镜像 先制作配置文件:config-sharding.yaml 主要分片所用,文末 schemaName: sharding_db dataSources: ds0: url: jdbc:postgresql: // 127.0.0.1:5432/ds0 username: postgres password: 123456 connectionTimeoutMilliseconds: 30000 idleTimeoutMilliseconds: 60000 maxLifetimeMilliseconds: 1800000 maxPoolSize: 65 ds1: url: jdbc:postgresql: // 127.0.0.1:5432/ds1

Kubernetes Dashboard 【转】

不问归期 提交于 2021-01-22 02:49:31
前面章节 Kubernetes 所有的操作我们都是通过命令行工具 kubectl 完成的。为了提供更丰富的用户体验,Kubernetes 还开发了一个基于 Web 的 Dashboard,用户可以用 Kubernetes Dashboard 部署容器化的应用、监控应用的状态、执行故障排查任务以及管理 Kubernetes 各种资源。 在 Kubernetes Dashboard 中可以查看集群中应用的运行状态,也能够创建和修改各种 Kubernetes 资源,比如 Deployment、Job、DaemonSet 等。用户可以 Scale Up/Down Deployment、执行 Rolling Update、重启某个 Pod 或者通过向导部署新的应用。Dashboard 能显示集群中各种资源的状态以及日志信息。 可以说,Kubernetes Dashboard 提供了 kubectl 的绝大部分功能,大家可以根据情况进行选择。 安装 Kubernetes 默认没有部署 Dashboard,可通过如下命令安装: kubectl create -f https://raw.githubusercontent.com/kubernetes/dashboard/master/src/deploy/recommended/kubernetes-dashboard.yaml

干货丨如何用Redash连接DolphinDB数据源

梦想与她 提交于 2021-01-21 10:03:58
Redash是一款开源的BI工具,提供了基于Web的数据库查询和可视化功能。DolphinDB支持通过https协议的POST和GET接口获取数据,可以使用Redash中的JSON和URL两种数据源来连接DolphinDB database。 1. 使用JSON数据源连接DolphinDB Redash目前只有在线版本(SAAS)中支持JSON,因此使用在线版本的用户可以选择这种连接方式。这种方式需要DolphinDB能够外网访问。要使用Redash版本,需要在 Redash官网 注册并登录。 登录后,在首页创建数据源,按照下面步骤进行配置: (1)建立新的数据源 (2)选择JSON数据源 (3)在Name中配置数据源名称,并保存 (4)点击Create按钮,创建一个Query JSON数据源需要使用yaml格式编辑。 query中需要包含三种基本的元素:url, method和json。 url:接受数据的地址,即DolphinDB数据节点,如 http:// host :port method:http提交方式,JSON接口必须使用POST方式 json:提交的JSON数据,DolphinDB接口需要提供固定的key值client和queries,如:{client:"redash","queries":"[sql query]"},用户可以使用任意的sql语句来替换[sql

k0otkit:Hack K8s in a K8s Way

為{幸葍}努か 提交于 2021-01-20 17:46:37
简介 本文涉及到的技术仅供教学、研究使用,禁止用于非法用途。 2020年的倒数第二天,我们在CIS网络安全创新大会上跟大家分享了一种针对Kubernetes集群的通用后渗透控制技术(简称k0otkit[1]),利用Kubernetes自身特性、动态容器注入、无文件攻击等技术,在容器逃逸后实现对集群所有节点(无论集群规模大小)的快速、隐蔽、持续控制,同时还介绍了针对这种技术的防御和检测方法。 k0otkit的名称来自Kubernetes和rootkit。从该名称不难看出,我们希望k0otkit成为“Kubernetes集群内的rootkit”。k0otkit的新颖点在于: “快速、隐蔽、持续”实现对Kubernetes集群所有节点的控制。 因地制宜:利用多个Kubernetes自身特性(DaemonSet、Secret资源,kube-proxy镜像等)。 应用动态容器注入技术,极大提高隐蔽性。 应用无文件攻击技术,从内存发起攻击,全程不落地。 无限制条件,几乎适用于所有Kubernetes集群。 优秀的矛才能激发出优秀的盾,安全正是在一轮轮的攻防对抗中不断得到强化。本文将对k0otkit进行详细介绍,引导大家发掘云原生攻防的更多可能。 本文首先向大家介绍Kubernetes环境下的一般渗透过程,然后从k0otkit最初的基本思路开始