振幅

Cocos2d-x学习笔记(二十二)之 网格动作

一个人想着一个人 提交于 2020-02-07 03:55:03
  网格动作类似于特效,可以实现翻转、抖动、震荡、水波纹等效果。Cocos2D-x中,网格类的基类CCGridBase有两个子类,即CCGrid3D和CCTiledGrid3D。这两个类的共同点是,网格的每个子块都可以分离出来,CCGridBase的继承关系如下:   CCGrid3D、CCTiledGrid3D-->CCGridBase-->CCObject。   网格没有什么直接应用的场合,只要明白CCGrid3D和CCTiledGrid3D,并且网格动作是基于网格的即可。运行网格动作的节点好像被分成了大小相同的很多矩形,通过这些矩形的动作形成整体动作,这些矩形就好像形成了一个矩阵。16x12的网格将会运行的非常快,但是效果并不是非常好。32x24的网格看起来非常棒,但是在有些时候运行起来不会太快。   使用网格之前需要取消OpenGL的深度检测,调用如下语句: 1 CCDirector::sharedDirector()->setDepthTest( false );   网格动作的使用和普通动作一样,可以使用runAction来运行动作,具体的动作如下:   CCShaky3D:格扭曲,create函数的参数是扭曲范围、是否扭曲z轴、格的大小、间隔时间。   CCWaves3D:波浪式,create函数的参数是波浪数、振幅、格的大小、间隔时间。   CCFlipX3D

吴恩达《深度学习》第二门课(2)优化算法

心不动则不痛 提交于 2019-12-04 21:53:00
2.1Mini-batch梯度下降 (1)例如有500万个训练样本,这时可以每1000个组成一个Mini-batch,共用5000个Mini-batch。主要是为了加快训练。 (2)循环完所有的训练样本称为(1 epoch)。 (3)使用大括号X {t} ,Y {t} 表示一个Mini-batch。(小括号(i)表示第i个样本,中括号[l]表示神经网络第l层)。 2.2理解mini-batch梯度下降法 (1)batch梯度下降时,每一次迭代代价函数都会降低(如果某一次不是,说明出问题了,可能要改变学习率),而mini-batch梯度下降时,不一定每次都降低,但是总的趋势是下降的。如下图所示: (2)Mini-batch的大小设为m(总样本数)时,变成了batch梯度下降(训练慢当样本总数大时),当设为1,变成了随机梯度下降(这时没能很好利用多样本的向量化的优势,也会导致变慢)。所示实际中选择不大不小的mini-batch尺寸,下降速度达到最快。 (3)不管是随机梯度下降还是mini-batch梯度下降都不会达到收敛,如下图所示紫色线条,所以后期需要减小学习率来使其趋向收敛。 (4)当样本数小于2000时可直接使用batch梯度下降,当样本数很大时,一般把mini-batch的大小设为2的n次方,比如64,126,512等,这样是考虑到电脑内存设置和使用方法。 (5)同第四点