utm

JESD204B核时钟学习记录

…衆ロ難τιáo~ 提交于 2020-10-14 19:53:42
原文: https://blog.csdn.net/iamgold9/article/details/95761218?utm_medium=distribute.pc_relevant.none-task-blog-title-3&spm=1001.2101.3001.4242 1 JESD Core的时钟列举 JESD TX (RX) Core的配置选择为Include Shared Logic in example design时,其时钟如下图所示: JESD TX (RX) Core的配置选择为Include Shared Logic in core时,其时钟如下图所示: Include Shared Logic in core将JESD204 PHY、teansceiver differential refclk buffer和global clock buffers包括在JESD Core这个Core内部,而Include Shared Logic in example design是将上述三者包括在例程种。 JESD PHY Core的时钟如下图所示: 2 JESD Core的时钟框图 JESD TX(RX) Core时钟框图如下: JESD PHY Core时钟框图如下: 3 JESD Core的时钟概述 来源: oschina 链接: https://my

笑联 x mPaaS | 12 个模块,全面小程序化,如何打造真正的一次开发复用多端?

房东的猫 提交于 2020-10-14 11:04:09
这篇故事围绕着一款 App 基于 mPaaS 小程序进行改造娓娓展开。 作为国内校园服务场景最丰富的平台,笑联 App 已覆盖国内 130 所高校,服务近百万高校学生。 截止目前,笑联 App 内的 12 个业务模块目前已顺利实现小程序化。不仅获得媲美原生应用的用户体验,同时有效规避“发版周期长”、“无法快速在线修复 Bug”等弊端,实现真正的动态发布与更新能力。 项目背景 开篇先做个自我介绍,笑联 App 目前已是国内提供校园服务场景最丰富的平台,目前已覆盖 130 所高校,服务近百万高校学生。 因我们提供的服务类型囊括洗衣机、热水器、淋浴等多项功能,业务模块多元化,并且需满足每所学校在服务类型、标准方面的个性化设计,笑联 App 长期堆叠业务模块,缺乏规范的模块化设计,导致代码愈发臃肿,开发效率低下。 与此同时,随着业务的持续扩张,任一需求的迭代均需要重新发版审核,很显然如此繁琐的发版工期已无法满足高频更新的业务需要。 我们急需在技术侧找到对应的解决思路,一方面简化业务模块之间的耦合,加速日常的开发速度;另一方面架构上需实现模块化,找到动态发布与更新的解决方式。 我们针对市面上已开放的技术选型做了调研,Flutter 和 mPaaS 理论上都可以满足我们当时的选型要求,但 mPaaS 小程序动态更新的能力跟我们业务需求相吻合,避免需要频繁更新整个 App。 接入过程 回顾

python读取红外图

青春壹個敷衍的年華 提交于 2020-10-14 00:36:34
1.opencv读的话,读取方式 unchanged,值为-1, img=(img/4).astype(np.uint8) 2.换用np.fromfile接口,有时读的图不对,还没找到原因 def bin2numpy_ex(file_path, shape): rawImg = np.fromfile(file_path, dtype=np.uint16) rawImg = rawImg[: shape[0]*shape[1]] pic_gray = rawImg.reshape(shape) return pic_gray KinectV2+opencv获取红外图 https://download.csdn.net/download/cs2539263027/9882136?utm_medium=distribute.pc_aggpage_search_result.none-task-download-2~download~first_rank_v2~rank_v25-1-9882136.nonecase&utm_term=opencv%E6%98%BE%E7%A4%BA%E7%BA%A2%E5%A4%96%E5%9B%BE&spm=1000.2123.3001.4430 https://blog.csdn.net/pancast/article/details

由io到kafka

前提是你 提交于 2020-10-13 23:58:54
IO 基于字节流和字符流,每次读一个或多个字节直至读取all字节,没有缓存 各种流也是阻塞的,当一个线程调用read或write,被阻塞直到有数据被读取或数据完全写入,期间不能做其他的事情 NIO 核心:channel通道、buffer缓冲、selector多路复用器,基于channel、buffer 数据从通道读取到缓冲区,或从缓冲区写入到通道中:缓冲区离用户近 NIO线程从某通道发送请求读取数据、仅能得到可用的数据、如果目前无可用数据则说明都不会获取,直到该数据变得可用读取之前,该线程可继续做其他时区 于字节流和字符流,每次读一个或多个字节直至读取all字节,没有缓存 各种流也是阻塞的,当一个线程调用read或write,被阻塞直到有数据被读取或数据完全写入,期间不能做其他的事情 NIO 核心:channel通道、buffer缓冲、selector多路复用器,基于channel、buffer 数据从通道读取到缓冲区,或从缓冲区写入到通道中:缓冲区离用户近  NIO线程从某通道发送请求读取数据、仅能得到可用的数据、如果目前无可用数据则说明都不会获取,直到该数据变得可用读取之前,该线程可继续做其他时区 kafka O(1)时间复杂度提供消息持久化能力,log和index文件 https://blog.csdn.net/qq_41568597/article/details

从PageRank到反欺诈与TextRank

六月ゝ 毕业季﹏ 提交于 2020-10-12 11:25:27
©PaperWeekly 原创 · 作者|贲忠奇 单位|混沌大学推荐算法工程师 研究方向|推荐算法、反作弊 PageRank 是一种利用网页之间的连接数量和质量来计算网页重要性的技术。PageRank 算法基础上衍生出来很多重要的链接分析算法,TextRank 是其重要的衍生之一,在 nlp 领域用于文章摘要和关键词提取。 PageRank 也可以用于反作弊,网页的连接数量和质量可以类比成某个黑产团伙中的成员之间的连接数量和连接的质量,可以用于黑产成员重要性分析。 背景 最早的搜索引擎采用的是分类目录方法,即通过人工编辑审核进行网页分类并整理出高质量的网站,并按照人工编辑认为的重要程度去排序。由于早期的网页比较少,那时 Yahoo 和国内的 hao123 就是使用这种方法,在那一历史时期是可以行的。后来网页越来越多,人工分类已经不可能了。 搜索引擎采用文本检索的方式,即计算用户查询关键词与网页内容的相关程度来返回搜索结果,被搜索词语在网页中的出现次数来决定排序——出现次数越多的网页排在越前面。但是总有一些垃圾网站,来回地倒腾某些关键词使自己的搜索排名靠前,使得李鬼取代李逵,显然这种方式是不合理的。 1996 年初,谷歌公司的创始人, 当时还是美国斯坦福大学(Stanford University)研究生的佩奇(Larry Page)和布林(Sergey Brin

springboot整合email

蹲街弑〆低调 提交于 2020-10-12 04:19:03
一。pom文件 <? xml version ="1.0" encoding ="UTF-8" ?> <project xmlns ="http://maven.apache.org/POM/4.0.0" xmlns: xsi ="http://www.w3.org/2001/XMLSchema-instance" xsi :schemaLocation ="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd" > <modelVersion> 4.0.0 </modelVersion> <parent> <groupId> org.springframework.boot </groupId> <artifactId> spring-boot-starter-parent </artifactId> <version> 2.3.1.RELEASE </version> <relativePath/> <!-- lookup parent from repository --> </parent> <groupId> com.huawei </groupId> <artifactId> demo </artifactId> <version> 0.0.1-SNAPSHOT <

傀儡进程学习

浪子不回头ぞ 提交于 2020-10-09 00:19:58
0x00 前言 最近做了一道18年swpuctf的题,分析了一个病毒,正巧都用到了傀儡进程,就想着把傀儡进程学习一下。本文权当个人的学习总结了一些网上的文章,如有错误,还请路过的大佬斧正。 0x01 SWPUCTF -- GAME 进入main函数 先获取当前目录,再拼上GAME.EXE 进入sub_4011D0 首先寻找资源,做准备工作,进入sub_4012C0 1)检测PE结构 2) CreateProcessA 创建进程 3)GetThreadContext 得到进程上下文信息,用于下文计算基地址 4)sub_4016F0 到ntdll.dll里找到NtUnmapViewOfSection函数 5)VirtualAllocEx 跨进程,在目标进程申请空间 6)写入文件 7)SetThreadContext 恢复现场 8) 运行傀儡进程 我们来找找注入的程序 把GAME.EXE载入到010editor里,搜索"MZ" dump出来,就是刚刚注入到傀儡进程的程序了。 我们把它命名为 game2.exe 载到IDA里分析 发现是D3D绘制 之后的解题与本文关系不大,这里直接把官方的WP搬运来了 https://www.anquanke.com/post/id/168338#h3-16 通过字符串[Enter]可以跟踪到获取输入以及返回上一层的地 这里用了’ –

不会 JVM 的类加载机制,你很难在实际场景中应用

余生颓废 提交于 2020-10-08 02:25:17
作者简介:李国。前京东高级架构师。本文选自:拉勾教育专栏 《深入浅出 Java 虚拟机》​ 本课时我们主要从覆盖 JDK 的类开始讲解 JVM 的类加载机制。其实,JVM 的类加载机制和 Java 的类加载机制类似,但 JVM 的类加载过程稍有些复杂。 前面课时我们讲到,JVM 通过加载 .class 文件,能够将其中的字节码解析成操作系统机器码。那这些文件是怎么加载进来的呢?又有哪些约定?接下来我们就详细介绍 JVM 的类加载机制,同时介绍三个实际的应用场景。 我们首先看几个面试题。 我们能够通过一定的手段,覆盖 HashMap 类的实现么? 有哪些地方打破了 Java 的类加载机制? 如何加载一个远程的 .class 文件?怎样加密 .class 文件? 关于类加载,很多同学都知道双亲委派机制,但这明显不够。面试官可能要你讲出几个能打破这个机制的例子,这个时候不要慌。上面几个问题,是我在接触的一些比较高级的面试场景中,遇到的一些问法。在平常的工作中,也有大量的相关应用,我们会理论联系实践综合分析这些问题。 类加载过程 现实中并不是说,我把一个文件修改成 .class 后缀,就能够被 JVM 识别。类的加载过程非常复杂,主要有这几个过程:加载、验证、准备、解析、初始化。这些术语很多地方都出现过,我们不需要死记硬背,而应该要了解它背后的原理和要做的事情。 如图所示。 大多数情况下

python3安装gmpy2

 ̄綄美尐妖づ 提交于 2020-10-07 07:48:59
和py2py3共存的那篇随笔背景一样,还是新换了电脑,重装很多环境,记录一下 先安装 wheel 文件包 pip3 install wheel 再安装 gmpy2 所需要的 whl 文件,下载地址: https://www.lfd.uci.edu/~gohlke/pythonlibs/ whl 文件包需要和你所安装的 python3 版本一致,我是 python3.7 下载了这个 在 cmd 中输入以下命令完成安装,import 一下没有报错验证成功安装 pip3 install whl文件路径 pip3 install gmpy2 参考: https://blog.csdn.net/qq_43302174/article/details/102933164?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task 来源: oschina 链接: https://my.oschina.net/u/4345306/blog/4473303

某银行业务数据分析和挖掘

人盡茶涼 提交于 2020-10-07 07:27:06
内容简介 第一,对某银行某次营销活动受众客户的特征进行了描述性统计,考察了营销活动的总体效果;同时还进行了特征间的相关性分析,筛选掉了与响应行为之间没有显著相关性的特征。 第二,分别考察了存款和个贷客户在年龄、年收入等6个特征上的分布情况,分析了存款和个贷客户的自然属性和消费行为特征,并据此构建了存款客户画像和个贷客户画像。 第三,运用Apriori关联规则算法分析了各类业务之间的关联,并重点总结出了存款客户中潜在个贷客户的特征。 第四,根据以上分析结果尝试为该银行扩大各类业务客户基数,提高获客能力提出建议。 最后,根据分析出的个贷客户画像对客户是否办理个贷业务进行建模,得出最优分类器;当有新的客户数据时便可以使用该模型对客户办理个贷业务的可能性进行预测。 关键词:Python,客户画像,二分类,关联分析 一、项目描述 1、项目说明 (1)数据来源:本项目所用数据来源于kaggle平台,该数据集展示了某银行某年一次贷款营销活动的5,000条客户信息记录。 (2)使用工具:本项目的分析和可视化都是使用Python完成的,但相关性分析用到了SPSS。 (3)数据描述:数据字典如下所示: 表1 数据字典 2、业务需求 2.1 业务背景 某银行是一家客户群不断增长的银行,但其贷款业务的客户基数较小,因此该银行希望能够将存款用户转化为贷款用户,扩大贷款业务量