从今天开始学习pytorch,在论文进度更新的同时也更新pytorch的学习过程。
在CNN中,有个重要的操作成为卷积,尤其是在图像处理中使用的最多,这里是对torch中nn模块的二维卷积的介绍。
这里是一个计算公式,是比较复杂的计算公式,正常的话输出形状为图像和过滤器相加+1
output_shape = (image_shape-filter_shape+2*padding)/stride + 1
为了让程序能够在后台良好的运行,可以使用这个命令,nohup命令,具体可以参考这里:https://www.jb51.net/article/169825.htm
论文讨论结果
probeset和galleryset的详细定义实在是太难找了,我弄了半天也怎么整明白,probe是探针的意思,galley是画廊的意思,我们需要以probe作为探测数据集,向gallery中进行查询,一般来说,probeset的规模要比galleryset的规模要小,今天对数据集进行了反转,居然发现mAp的值有所提高,显然这样确实会让map的值有所提高,也就是说每次查询不回稀释mAp的值,具体的定义还要再和老师以及学姐进行讨论,暂时先按照目前的理解来记录算了。
另外就是关于loss的,昨天重新看了一下网络结构,发现只是看懂代码的话好像也没有那么难,你只需要定义网络的结构,然后利用pytorch中nn模块的squatial这个函数将网络模型展开就可以,DCNN中网络中最后提高算法精度的话着重还是要看最后的部分和loss计算的部分,loss这块有好几种,无非就是为了收敛起来快,计算的合理这样。
其中之前有个点一直不太理解,就是CNN和NN是不太一样的,在CNN中,w指的是卷积核,我们要训练的也是这个,那么在nn中,指的就是这样的一条条线代表的数字,最后输出的特征和softmax之后点的那个一维的值也是不一样的,要区分清楚自己提取的是特征还是网络最后要进行预测的值,2048-1024这种称为全连接层也就不奇怪了。
代码处理部分
学校迟迟不开学,导致服务器也没人开,这就很尴尬了,老的服务器连起来真的是比较难顶,这边要使用ssh去连接服务器,那么ssh连接服务器的命令是ssh username@ip 这种形式,然后会要求你输入密码。文件传输命令是scp -r localfile username@ip:location。另外在这种形式下为了让服务器能够后台执行任务,需要使用这个命令nohup,jobs 查看任务,然后fg %jobnumber可以将这个放到前台上了并终止掉,在linux中ctrl c是强制终止,然后ctrl z是暂停,关于nohup的详细使用可以查看这里 nohup命令使用
就这样,加油!
来源:CSDN
作者:宋老狗
链接:https://blog.csdn.net/ECHOSON/article/details/104341380