records

Autel MaxiTPMS TS601 Wireless TPMS Sensor Reset Relearn Activate Programming Tool

余生颓废 提交于 2020-04-26 14:59:35
Why Choose Autel TPMS TS601? MaxiTPMS TS601 is a TPMS tool with highest performance in the world. It’s the best solution for tire shops and automotive workshops to perform various TPMS services! * Capable of fully diagnosing TPMS problems as well as activating TPMS sensors and reading/ writing sensor ID to the vehicle ECU with the included obdi interface. Additional Basic OBD2 code reader function * Reads, records and plays back Autel TPMS Sensors TPMS Live data including tire pressure, signal status, temperature, battery status and more * Easy to use with intuitive navigation and step-by-step

基于Repository模式设计项目架构—你可以参考的项目架构设计

梦想与她 提交于 2020-04-26 14:57:17
关于Repository模式,直接百度查就可以了,其来源是《企业应用架构模式》。 我们新建一个Infrastructure文件夹,这里就是基础设施部分,EF Core的上下文类以及Repository层都放在这里面。 新建一个IReposotory的接口,其内容就是封装了基本的CRUD: public interface IRepository<TEntity> where TEntity : class { /// 获取当前实体的查询数据集 IQueryable<TEntity> Entities{ get ;} /// 获取当前实体的数据集 DbSet<TEntity> DbEntities{ get ;} /// <summary> /// Gets all objects from database /// </summary> /// <returns></returns> IQueryable<TEntity> All(); /// <summary> /// Gets objects from database by filter. /// </summary> /// <param name="predicate"> Specified a filter </param> /// <returns></returns> IQueryable<TEntity>

kafka入门 第十篇 消费者组进度监控都怎么实现?

你。 提交于 2020-04-26 09:49:17
对于kafka消费者来说,最重要的事情就是监控它们的消费进度了,或者说是监控它们消费的滞后程度。这个滞后程度有个专门的名称:消费者Lag或Consumer Lag。 所谓滞后程度,就是指消费者当前落后生产者的程度。比方说,kafka生产者想某主题成功生产了100万条消息,你的消息者当前消费了80万条消息,那么我们就说你的消费者滞后了20万条消息,即Lag等于20万。 通常来说,Lag的单位是消息数,而且我们一般是在主题这个级别讨论Lag的,但实际上,kafka监控Lag的层级实在分区上的。如果要计算主题级别的,你需要手动汇总所有主题分区的Lag,将它们累加起来,合并成最终的Lag值。 一般来说,正常的工作的消费者,它的Lag值应该很小,甚至是接近于0,这表示该消费者能够及时地消费生产者产生的消息。如果Lag值很大,通常表明它无法跟上生产者的速度,最终Lag会越来越大,从而拖慢下游消息的处理速度。 既然消费进度这么重要,我们应该怎么监控它?简单来说,有3中方法: 使用kafka自带的命令行工具kafka-consumer-groups.sh脚本查看 使用kafka Consumer API编程 使用kafka自带的JMX监控指标 kafka自带命令: / usr / local / kafka / bin / kafka - consumer - groups . sh --

mysql/sqlserver数据库sql语句练习

半腔热情 提交于 2020-04-26 07:28:07
1、在test数据库上建表 create table Student ( StudentName varchar(200) not null, BatchID int comment '批次编号', RegNo varchar(100) comment '注册号码', StudentAddress varchar(200) comment '注册地址', Phone varchar(15) comment '电话', DateOfBirth datetime comment '生日', AdmissionDate datetime comment '注册日期' ); create table DemoTable(Name VarChar(20),Age VarChar(3)); create table ThisTable(Firstname Text,Lastname Text); mysql: mysql> create Table get0(Word nvarchar(31) NOT NULL,Comment nvarchar(50) NOT NULL); mysql报错的写法: mysql> create Table get0(Word nvarchar(31) COLLATE Chinese_PRC_CI_AS NOT NULL,Comment nvarchar(50)

JavaScript-Tool:jqgrid

旧巷老猫 提交于 2020-04-25 19:18:48
ylbtech-JavaScript-Tool:jqgrid jqGrid 是一个用来显示网格数据的jQuery插件,文档比较全面,附带中文版本。 1. 返回顶部 2. 返回顶部 3. 返回顶部 4. 返回顶部 1、 jqGrid提供了大量的选项设置,开发者可以通过设置选项对应值来控制jqGrid,比如表格的宽度、高度、数据类型以及列名称等等都是通过选项设置来完成的。jqGrid的选项一般是名称:值(name:value)的形式,也可以是对象(object)及数组(array)的形式配置。 jqGrid选项(Option) 调用jqGrid只需要执行以下代码: jQuery( "#grid_id").jqGrid(options); options即jqGrid的选项设置,请参照以下表格。 属性 类型 描述 默认值 ajaxGridOptions object 此项用于设置当表格设置获得数据时,ajax的全局属性,注意此项可能覆盖所有当前的ajax设置(包括error, complete和beforeSend 事件)。 empty ajaxSelectOptions object 此项用于设置在editoptions或searchoptions对象中通过dataUrl选择元素时, ajax的全局属性。 empty altclass string 交替行的类。

Gatling脚本编写技巧篇(一)

落爺英雄遲暮 提交于 2020-04-25 13:23:38
一、公共类抽取 熟悉Gatling的同学都知道Gatling脚本的同学都知道,Gatling的脚本包含三大部分: http head配置 Scenario 执行细节 setUp 组装 那么针对三部分我们需要在一套全流程测试当中把公共的部分提取出来写成Scala脚本公共类,来避免重复的工作和代码冗余: 在工程创建一个单独的目录如下图所示: 定义一个报头的基本格式: package computerdatabase.JieOuData import io.gatling.core.Predef._ import io.gatling.http.Predef._ import io.gatling.http.config.HttpProtocolBuilder object phHttpProtocol { implicit val noneWhiteList: io.gatling.core.filter.WhiteList = WhiteList () implicit val noneBlackList: io.gatling.core.filter.BlackList = BlackList () implicit val staticBlackList: io.gatling.core.filter.BlackList = BlackList (""".*\.js""", ""

【zabbix监控+python爬虫+shell脚本】 理财对接天天基金网实现相关基金波动邮件/钉钉提醒

天大地大妈咪最大 提交于 2020-04-24 17:53:48
前序 刚开始接触理财, 第一次朋友介绍的是[安信证券]这款app, 看了几天, 以每笔500的价格入手了两个基金玩玩接触一下行情, 后来发现, 每次都不知道它什么时候更新这个变动净值参数,每次都要自己去搜索, 或者又要登录一遍去看盈亏, 够懒吧, 嘿嘿, 后来突发奇想, 跟朋友了解一下是不是有什么公式能计算得到相关的净值参数的, 于是翻了一遍, 发现对[天天基金网]这个web来比较轻松愉快一些, 那么既然有了想法, 就开干吧。 目的展示 当基金发现波动的时候, 来信息提示, -代表下跌,正数代表上涨 架构拓展 容器: zabbix-server : Docker zabbix-agent : CentOS Linux release 7.7.1908 (Core) 版本: nginx1.17 + mysql5.7.22 + php7 + zabbix4.2.5 python2.7.5 技术模型 【zabbix】 zabbix这块, 使用到的无非就是一个开源的项目而已, 不难, 自行搭建, 至于有伙伴说不知道怎么搭, 那么建议你去找度娘聊一下, 或者搜一下我之前写的zabbix搭建的文章, 但是我的文章水平都很有限,没办法,人就这样,还想上天不成[/哭泣/]。 【python】 python这块, 用爬虫,使用的是原生的python2.7, 由于我的是centos7.7, 有点抗拒8

使用flink Table &Sql api来构建批量和流式应用(2)Table API概述

£可爱£侵袭症+ 提交于 2020-04-24 09:15:47
从flink的官方文档,我们知道flink的编程模型分为四层,sql层是最高层的api,Table api是中间层,DataStream/DataSet Api 是核心,stateful Streaming process层是底层实现。 其中, flink dataset api使用及原理 介绍了DataSet Api flink DataStream API使用及原理 介绍了DataStream Api flink中的时间戳如何使用?---Watermark使用及原理 介绍了底层实现的基础Watermark flink window实例分析 介绍了window的概念及使用原理 Flink中的状态与容错 介绍了State的概念及checkpoint,savepoint的容错机制 上篇< 使用flink Table &Sql api来构建批量和流式应用(1)Table的基本概念 >介绍了Table的基本概念及使用方法 本篇主要看看Table Api有哪些功能? org.apache.flink.table.api.Table抽象了Table Api的功能 /** * A Table is the core component of the Table API. * Similar to how the batch and streaming APIs have DataSet and

Java 8 到 Java 14,改变了哪些你写代码的方式?

孤人 提交于 2020-04-23 18:13:27
云栖号资讯:【 点击查看更多行业资讯 】 在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来! 前几天,JDK 14 正式发布了,这次发布的新版本一共包含了16个新的特性。 其实,从Java8 到 Java14 ,真正的改变了程序员写代码的方式的特性并不多,我们这篇文章就来看一下都有哪些。 Lambda表达式 Lambda 表达式是 Java 8 中最重要的一个新特性,Lambda 允许把函数作为一个方法的参数。 lambda 表达式的语法格式如下: 如以下例子: Lambda表达式具有简洁、容易进行并行计算、是未来的编程趋势等优点,但同时也会带来调试困难,新人理解成本高等缺点。 Streams API 除了Lambda 表达式外,Java 8中还引入了Stream API,这使得Java终于进入到函数式编程的行列中来了。 Stream 使用一种类似用 SQL 语句从数据库查询数据的直观方式来提供一种对 Java 集合运算和表达的高阶抽象。 Stream API可以极大提高Java程序员的生产力,让程序员写出高效率、干净、简洁的代码。 如下图,就是通过Stream API对集合进行了一系列的操作: Stream s = strings.stream().filter(string -> string.length()<= 6).map(String::length)

Kubernetes addons 之 coredns部署

只谈情不闲聊 提交于 2020-04-23 11:13:08
Kubernetes addons 之 coredns部署 2019.06.04 18:04:35字数 1045阅读 121 DNS 是 Kubernetes 的核心功能之一,通过 kube-dns 或 CoreDNS 作为集群的必备扩展来提供命名服务。 Kubernetes基于DNS的服务发现 在Kubernetes集群推荐使用Service Name作为服务的访问地址,因此需要一个Kubernetes集群范围的DNS服务实现从Service Name到Cluster Ip的解析,这就是Kubernetes基于DNS的服务发现功能。 Kubernetes DNS服务发展史 Kubernetes DNS服务发展史 从Kubernetes 1.11开始,可使用CoreDNS作为Kubernetes的DNS插件进入GA状态,Kubernetes推荐使用CoreDNS作为集群内的DNS服务。 CoreDNS从2017年初就成为了CNCF的的孵化项目,CoreDNS的特点就是十分灵活和可扩展的插件机制,各种插件实现不同的功能,如重定向、定制DNS记录、记录日志等等。下图描述了CoreDNS的整体架构: coredns DNS 格式 Service A records 普通(不是headless)service被分配了一个名为my-svc.my-namespace.svc.cluster