Amp

ZYNQ 双核运行并交互,一个linux,一个裸核

自闭症网瘾萝莉.ら 提交于 2020-07-29 03:53:42
zynq 7000 一般有2个cpu (arm A9),我们一般都用一个cpu0,本实验让2个cpu 都运行起来,cpu0 运行操作系统petalinux 2018.2, cpu1: 裸机流水灯。同时通过共享内存的方式,实现2个核之间的交互。 关于zynq 双核运行的官方文档有如下3篇: xapp1078-amp-linux-bare-metal.pdf xapp1079-amp-bare-metal-cortex-a9.pdf ug1186-zynq-openamp-gsg.pdf 我们这个实验对应xapp1078, 但文档对应petalinux2014 的版本,有点太老了,而我的实验是在petalinux2018.2 上完成的。 前提条件 1:会做petalinux 2018.2 或其他版本的启动制作。如果不会请看: petalinux 2018.2 在ubuntu 16 下的工程制作并启动实验 2:熟悉 zynq 7000 AMP模式 双裸核CPU同时运行 ,因为这个比较简单,可以作为本实验的热身。 硬件平台的建立 硬件工程的建立是在Vivado2018.2 上完成的。其实要求很简单,符合linux下流水灯实验的要求即可,当然还需要挂接上SD卡。我的硬件就用的那个流水灯实验的工程,若有不清楚,请参考: zynq 7000 petalinux 2018.2下的流水灯实验

基于Zynq的数据采集系统设计与调试(三) —— FIFO的使用

喜夏-厌秋 提交于 2020-07-29 03:21:04
前言: FIFO是数据采集系统中必不可少的环节,AD采回来的数据要送至ARM/DSP处理,或将采回来的数据写到本地,都需要解决读写速度匹配问题,解决这类问题,首选FIFO。 在我们的设计当中,使用的是ADI公司的AD7989,18bit,100KSPS,采用三线SPI数据传输模式。采用两级FIFO,第一级FIFO用于缓存AD采样点数据,第二级FIFO用于DMA数据传输。 一. FIFO的使用 在本设计中,将数据这样打包:一个package包含1024个字(4096Byte)其中1020个AD采样数据点(AD采样数据扩展成32bit),4个字的数据包信息:通道号(有两个通道)、块号(package编号)、触发信号位置、CRC校验码。 第一级FIFO(FIFO1)缓存AD采样点,时钟与AD时钟相同,都是50MHz,第二级FIFO(FIFO2)从第一级FIFO取数据,当取到1020个数据时,就往FIFO2中写4个字的数据包信息,第二级FIFO用于DMA将数据流送至内存DDR3的数据缓存。FIFO2采用异步时钟,因为触发信号(Trig)是一个脉冲,触发信号模块使用的时钟也是50MHz,因此写时钟仍然是50MHz,读时钟采用DMA时钟(200MHz)。FIFO都是Xilinx Vivado下自带的IP core。 FIFO1的写使能信号是ad模块的ad_data_rdy

阿里云学生服务器购买地址配置选择及续费攻略详细说明

眉间皱痕 提交于 2020-07-29 02:37:55
阿里云云翼计划是阿里云为学生群体推出的9.5元优惠购买云服务器的活动,阿里云提供两种学生机,新手站长网分享阿里云学生机购买地址、学生服务器购买条件、续费条件等详细规则: 阿里云学生服务器(云翼计划) 阿里云学生服务器购买地址?阿里云学生服务器ECS和轻量如何选择?阿里云学生服务器可以续费几次?阿里云学生机申请条件?新手站长网详细说下: 学生服务器申请地址 阿里云学生服务器优惠活动名为「云翼计划」,地址: 阿里云「云翼计划」学生服务器申请 ,在云翼计划上,学生群体以9.5元/月的价格即可获取一台1核2G的ECS云服务器或者轻量应用服务器。 阿里云学生机配置及选择 阿里云学生服务器可选ECS云服务器或轻量应用服务器,配置如下: 1、云服务器ECS:(CPU性能不限)固定机型 9.5元/月:CPU1核,内存2G,带宽1M,系统盘40G,专有网络,系列三,优惠地域为华北2、华东1; 2、轻量应用服务器:(CPU性能不限)固定机型 9.5元/月:CPU1核,内存2G,峰值带宽5M,系统盘40G,1000G流量包,专有网络,系列三,优惠地域为华北2、华东2; 3、轻量应用服务器和云服务器ECS学生优惠二选一:即当前已经保有学生专享云服务器的用户,实例到期释放后,即可购买学生优惠轻量应用服务器;选购学生优惠轻量应用服务器的用户,在实例到期释放后,也可选择购买学生优惠云服务器;

PrestaShop 1.7 中的 Size 如何配置

China☆狼群 提交于 2020-07-29 01:09:42
在一些商品上,我们可能会对商品的大小进行配置。 比如下面的商品,我们有大中小 3 个选择,如何在商品中进行配置? 这个是在后台的产品中进行配置的。 选择你要配置的产品,然后在 Combinations 中选择 Product With Combinations 随后在 Combinations 的标签页中可以对你需要组合的属性进行配置。 在这里,你可以配置大小,你也可以配置颜色,当然你也可以对你自定义的组合进行配置。 如果每一个组合的价格都不一样的话,你可以在 impact on price 上面对价格进行调整,你可以增加或者减少价格。 在这里我一般是设置一个最低的价格,然后根据大小的价格对其他的价格进行增加。 同时你也可以选择默认的 Combination,这个默认的组合就是在产品页面进行展示的是默认选择的。 https://www.cwiki.us/display/PrestaShop/questions/62619807 来源: oschina 链接: https://my.oschina.net/honeymoose/blog/4275242

PrestaShop 1.7 如何添加网站的跟踪代码

心已入冬 提交于 2020-07-28 20:10:33
在 PrestaShop 创建购物车的时候,我们希望 PrestaShop 能够跟踪用户的访问。 比如说使用 Google Analytics 或者 matomo 来对购物车网站进行跟踪,如何进行操作和进行配置呢? 这里有一些捷径可以去做。如果你安装 Matomo 的话,你可能需要被要求安装 Matomo,但是这个插件不是免费的,你可能需要支付不少的费用。 但是 Google Analytics 插件是免费的,并且是官方提供的,因此我们可以考虑在安装 Google Analytics 插件后将 Matomo 进行修改后嵌入进去来进行网站访问的跟踪。 进入 PrestaShop 的后台控制台界面,然后在模块部分搜索模块名称 Google Analytics。 单击配置后,输入你的 Google Analytics 的 Tracking ID,然后保存后你就可以到 Google Analytics 上去访问查看你的配置是否生效了。 同时你也可以到 PrestaShop 的前台界面中查看源代码,看源代码中是否已经有 Google 分析的配置在里面了。 如果已经有了就说明配置已经成功了。 如果你还希望配置 Matomo 的话,那么你就没有这么简单了。我们的经验是在你已经安装的 Google Analytics 源代码上添加 Matomo 的跟踪 JavaScript 跟踪脚本。 你可以在

ftp 64上传工具,ftp 64上传工具使用教程,windows定时自动从FTP服务器取数据教程。

痴心易碎 提交于 2020-07-28 19:37:40
ftp传输工具简介 iis7服务管理工具是一款功能强大的FTP软件,具备极好的交互界面和强大的功能。它支持ftp的 定时上传下载 、 定时备份 、 自动更新 、批量上传下载、ftp多站点管理,在线编辑等功能。同时它还支持支持windows和linux系统服务器的批量操作和管理 ,并且它还可以作为VNC客户端和vps连接的工具,同样支持批量操作。软件体积小、免安装、功能多,非常推荐大家使用。 1. ftp传输工具使用教程 **下载地址: IIS7服务器管理工具 添加ftp服务器信息 操作步骤 第一步:点击主程序图中“上传下载”键; 第二步:点击“ Ftp”; 第三步:点击“添加”; 第四步:在弹出服务器信息框中填写Ftp信息,注意:FIP ip端口、账号、密码为必填项; 第五步:选择需要打开的FTP服务器; 第六步:点击打开,即刻见FTP效果图。 批量打开ftp服务器 操作步骤 第一步:选择需要打开的ftp服务器后,在上方点击打开按钮。 第二步:等待打开后效果如上图所示,就可以进行多台ftp的文件传输工作了。 2.定时自动从FTP服务器取数据 某些情况下经常需要向FTP服务器取文件,可以用定时任务执行简单脚本自动去取相应文件。 一般用法: ~]# ftp IP地址 端口    //ftp命令可以通过yum install ftp方式安装 脚本示例: 示例1.

整理左神讲的,用于以后复习

妖精的绣舞 提交于 2020-07-28 19:04:02
今天听了一节课,有点叼啊,之前不明白的地方,今天一下子明白了 N^0=N N^N=0 获取右侧为1的第一个位置:int a = N & ((~N) + 1); 取得一个数组中,有两组数出现奇数次,求这两个数,数组如[12,12,12,12,13,13,13,13,14,14,14,21,21,21],最后的期望值应该为14,21 public static void main(String[] args) { // 一组数,有两个数出现奇数次 int [] array = new int []{ 12 , 12 , 12 , 12 , 13 , 13 , 13 , 13 , 14 , 14 , 14 , 21 , 21 , 21 }; int eor = 0 ; int tag = 0 ; int num = 0 ; for ( int i= 0 ;i<array. length ;i++){ eor ^= array[i]; } tag = eor & ((~eor) + 1 ); // 右侧第一位 1 ,说明异或前这个位置两个数当前位置一个为 1 ,一个为 0 //eor = 11011 (14^21) //tag = 00001 (eor & ((~eor) + 1)) 01 0 00 0 10 11 1 //12 = 01100 //13 = 01101 //14 =

swoole+PHP实现自动取消订单,还原库存等操作

拟墨画扇 提交于 2020-07-28 15:09:11
一、业务场景: 当客户下单在指定的时间内如果没有付款,那我们需要将这笔订单取消掉,比如好的处理方法是运用延时取消,这里我们用到了swoole,运用swoole的异步毫秒定时器不会影响到当前程序的运行,具体参考: https:// wiki.swoole.com/wiki/pa ge/319.html 二、说明, order_status为1时代表客户下单确定,为2时代表客户已付款,为0时代表订单已取消(正是swoole来做的),下面的代表我没有用框架,比较纯的PHP代表方便理解和应用 三、举例说明, 库存表csdn_product_stock产品ID为1的产品库存数量为20,产品ID为2的库存数量为40,然后客户下单一笔产品ID1减10,产品ID2减20,所以库存表只够2次下单,例子中10秒后自动还原库存,如下图: 图解: 1、第一次下完单产品ID1库存从20减到了10,产品ID2库存从40减到了20;2、第二次下完单产品ID的库存为0了,产品ID2的库存也为0了,3、第三次下单时,程序提示Out of stock;4、过了10秒钟(每个订单下单后往后推10秒),客户两次下单,由于没有付款(csdn_order表的order_status为1),产品1和产品2的库存被还原了(csdn_order表的order_status变为0),客户又可以继续下单了 1、所需要sql数据库表

多个 EXCEL 文件如何合并成一个文件

独自空忆成欢 提交于 2020-07-28 13:57:26
同一文件夹里有多个格式相同的EXCEL文件,需要把它们合并到一个EXCEL文件中,应该怎么做呢? 自己编写程序来实现?尽管好些程序语言都提供了读取EXCEL文件的API,但还是需要写程序去打开每一个文件,循环读取所需的每个单元格数据,在内存中把各文件数据保存到同一个数据集对象,最后再写出一个新的EXCEL文件,编写代码的工作量往往比较大。而且因为每批EXCEL文件的格式不相同,编写的程序并不能通用,下次还需重新编写程序。 使用集算器SPL来进行合并,那就很简单了,只需要几行代码。 编写SPL脚本如下: A B C 1 >dir="E:/work/excel/" =file(dir+"merged.xlsx") 2 =directory(dir+"*.xlsx") 3 for A2 =file(dir+A3).xlsimport@t() 4 If #A3==1 =B1.xlsexport@t(B3) 5 else =B1.xlsexport(B3) 此外还有合并同一个 EXCEL 文件中不同 Sheet 为一个 Sheet,以及合并后做分组、汇总等,请参阅 EXCEL 合并汇总 SPL还可以很方便地处理以下EXCEL需求: 1、 读取自由格式、交叉表、主子表等格式的EXCEL文件 2、 将数据导出、追加到EXCEL文件,输出预设精美格式的EXCEL文件 3、

上亿条数据,如何查询分析简单又高效?

若如初见. 提交于 2020-07-28 12:30:15
摘要: 正值618大促,小张遇到了一个棘手的问题,需要在一周内将公司近1年电商部门的营收和线下门店经营数据进行联合分析。 这将产生哪些数据难题呢? 数据孤岛:电商部门的数据存在数仓A、门店经营收入数据存在数仓B,如何便捷的进行多仓联合分析? PB级数据量:多电商平台+全国线下门店每天将产生TB级数据量,年数据量高达PB级! 他在第一时间联系了集团CTO,希望将各部门数据在一天内导出给他。 这时候,CTO犯难了: 公司现有的资源池可自如应对TB级数据量,而小张要的数据量粗略估计达到了PB级,大大超出了公司现有资源池承受范围,只能以时间为代价导出;而为了不常见场景扩大公司资源池,整体的成本太高。 面对小张遇到的棘手问题,云湖湖推荐了一款华为云大数据查询分析神器——数据湖探索(DLI)服务;一个DLI即可撬动EB级数据量联合查询,每CU仅需0.35元/小时(1CU=1Core4G Mem),1CU包月仅需150元。 数据湖探索(DLI)服务 2.0是完全兼容Apache Spark和Apache Flink生态的Serverless大数据计算分析服务,用户仅需使用标准SQL或程序即可查询分析各类异构数据源。 DLI是如何解决小张问题的呢? DLI服务架构——Serverless DLI是无服务器化的大数据查询分析服务它的优势在于: (1)按量计费:真正的按使用量(扫描量/CU时)计费