分辨率

第2章 计算机图形系统概述

匿名 (未验证) 提交于 2019-12-03 00:37:01
备注: * 为重要内容 硬件与软件示意图 硬件 输入设备 输出设备 存储设备 图形处理设备 软件 软件包 应用程序 应用模型 计算:图形处理(如图形变换、光照等) 存储:远程和本机 输入:人机交互及数据文件等 输出:显示器、打印机等 对话图形:人机交互 显示器: (1)阴极射线管CRT CRT与彩色CRT【射线穿透、影孔板法】 、 (2)平板型显示器 共同特点 都是通过单个发光元素(点,像素)来显示图形或文字。 不同点 (1)LCD体积小,厚度薄,重量轻,耗能少,无辐射。 (2)CRT显示亮度高,色彩鲜艳,分辨率高。 (1) 像素(Pixel: Picture Cell):构成屏幕(图像)的最小元素 (2) 分辨率(Resolution) CRT在水平或竖直方向单位长度上能识别的最大像素个数,单位通常为dpi(dots per inch) 在假定屏幕尺寸一定的情况下,也可用整个屏幕所能容纳的像素个数描述,如640*480,800*600, 1024*768,1280*1024 等等 (3) 分辨率越高显示的图形就越精细 显示设备:显示器 视频控制器:控制显示设备(有的含图形加速处理器), 通过访问帧缓存来刷新屏幕 显示缓冲器:可以在内存或显示控制器中 电子束可以任意移动。画线设备 (1) 特点 电子束可随意移动,只扫描荧屏上要显示的部分像素 对应的显示器为画线设备的 (2)

Android Camera2 拉伸问题

匿名 (未验证) 提交于 2019-12-03 00:27:02
Camera2在一些低端机器上出现拉伸问题,当然首先排除不是笔者低级错误设置的分辨率有问题。 Camera2在某些机型上画面拉伸,表象是我们设置16:9的输出(当然是查询到支持的分辨率),但是Camera实际输出的是4:3。 整个过程如下: 获取Camera支持的输出分辨率 StreamConfigurationMap streamConfigurationMap = cameraInfo .get (CameraCharacteristics .SCALER _STREAM_CONFIGURATION_MAP) ; outputSizes = streamConfigurationMap .getOutputSizes (SurfaceTexture .class ) ; getBestMatchCameraPreviewSize(outputSizes) ; 笔者选取oppo a37f为例,其支持的分辨率如下: 选择适合的分辨率 public static TESizei getClosestSupportedSize ( List<TESizei> supportedSizes, final int requestedWidth, final int requestedHeight) { return Collections.min(supportedSizes, new

Android dimens适配,特殊分辨率dimens文件生成教程

匿名 (未验证) 提交于 2019-12-03 00:26:01
关于dimens适配的好处和方法,我就不介绍了,请点击: android各版本分辨率适配(项目亲测) 本文重点说下,当遇到文中提供的dimens文件没有的分辨率如何去添加,比如(新分辨率)新机发布。 第一步:下载 文件 ,解压到D盘 第二步:使用cmd命令进入文件夹。 第三步:输入以下代码 java -jar autolayout .jar 750 1334 720 , 1184 _1080, 1812 _1080, 1776 720,1184 1080,1812 1080,1776 分别为特殊分辨率,这里举例是3组,想要几个自己写 这样就成功了,我们进入res文件夹下看 至于如何使用,请看前面链接文章 文章来源: Android dimens适配,特殊分辨率dimens文件生成教程

图像超分辨率及相关知识 简介

匿名 (未验证) 提交于 2019-12-03 00:22:01
初学者可能往往会把图像分辨率和超分辨率搞混淆,先来看一下他们的概念。 图像分辨率指图像中存储的信息量,是每英寸图像内有多少个像素点,分辨率的单位为PPI(Pixels Per Inch),通常叫做像素每英寸。一般情况下,图像分辨率越高,图像中包含的细节就越多,信息量也越大。图像分辨率分为 空间分辨率和时间分辨率 。通常,分辨率被表示成每一个方向上的像素数量,例如64*64的二维图像。但分辨率的高低其实并不等同于像素数量的多少,例如一个通过插值放大了5倍的图像并不表示它包含的细节增加了多少。图像超分辨率重建关注的是恢复图像中丢失的细节,即高频信息。 在大量的电子图像应用领域,人们经常期望得到高分辨率(简称HR)图像。但由于设备、传感器等原因,我们得到的图像往往是低分辨率图像(LR)。 增加空间分辨率最直接的解决方法就是通过传感器制造技术减少像素尺寸(例如增加每单元面积的像素数量);另外一个增加空间分辨率的方法是增加芯片的尺寸,从而增加图像的容量。因为很难提高大容量的偶合转换率,所以这种方法一般不认为是有效的,因此,引出了图像超分辨率技术。 图像超分辨率(Image Super Resolution)是指由一幅低分辨率图像或图像序列恢复出高分辨率图像。图像超分辨率技术分为超分辨率复原和超分辨率重建。目前, 图像超分辨率研究可分为 3个主要范畴: 基于插值、 基于重建和基于学习的方法。

YOLOѧϰ

匿名 (未验证) 提交于 2019-12-03 00:22:01
yolo1 将图像分成7*7个小块,每个小块有两个boundingbox(每个bounding有5个值,x,y,w,h,和置信度),一共有20个类别 7*7*(2*5+20)输出 yolo2 参考这个文章https://blog.csdn.net/u011507206/article/details/60884602 主要改进是 1、增加了batch normalization方法 一旦每批训练数据的分布各不相同(batch),那么网络就要在每次迭代都去学习适应不同的分布,这样将会大大降低网络的训练速度。使用 batch normalization可以是收敛更快并且不加dropout等约束也可以不容易过拟合 。使得mAP(mean average precision)获得了2%的提升。 2、 所有state-of-the-art的检测方法基本上都会使用ImageNet预训练过的模型(classifier)来提取特征,例如AlexNet输入图片会被resize到不足256 * 256,这导致分辨率不够高,给检测带来困难。所以YOLO(v1)先以分辨率224*224训练分类网络,然后需要增加分辨率到448*448,这样做不仅切换为检测算法也改变了分辨率。所以作者想能不能在预训练的时候就把分辨率提高了,训练的时候只是由分类算法切换为检测算法。

纯C++超分辨率重建SRCNN --改编--(六)彩色

匿名 (未验证) 提交于 2019-12-03 00:22:01
现在来加上色彩 流程: 1。RGB转化为YUV 2。拿Y通道去重建 3。重建后转回RGB RGB转换为YUV: //RGB转换为YUV void RGB2YUV(IMAGE * jpg,卷积矩阵 * Y,卷积矩阵 * U,卷积矩阵 * V) { int w=Y->width; int h=Y->height; //对原图像获取指针 DWORD* M=GetImageBuffer(jpg); DWORD t; float r,g,b; int p; //图像转化单色并保存结果 for (int i = 0; i < h; i++) { for (int j = 0; j < w; j++) { p=j+i*w; t=M[p]; r=GetRValue(t); g=GetGValue(t); b=GetBValue(t); //Y = 0.299R + 0.587G + 0.114B //U = -0.147R - 0.289G + 0.436B //V = 0.615R - 0.515G - 0.100B Y->data[p]= (0.299*r + 0.587*g + 0.114*b)/255;//255 U->data[p] = -0.147*r - 0.289*g + 0.436*b; V->data[p] = 0.615*r - 0.515*g - 0.100*b; } }

04_相机_20180601

匿名 (未验证) 提交于 2019-12-03 00:22:01
整理出的---希望大家补充 相机 格式 1英寸 2/3英寸 1/2英寸 1/3英寸 1/4英寸 高度 9.6mm 6.6mm 4.8mm 3.6mm 2.4mm 宽度 12.8mm 8.8mm 6.4mm 4.8mm 3.2mm 1、相机的分类 的转换,同时产生数字信号。在相机的选择中,不能大概地说 CCD 相机好还是 CMOS 相机更好,具体选择过程要根据应用的具体需求和所选择相机的参数指标。 1.2 按照传感器结构分: 如何选择线阵相机? 线阵相机的分辨率 通常表示多少 K,如1K(1024), 2K(2048), 3K(4096)等;12KHz 表示相机在 1 秒钟内最多能采集 12000 行图像数据。 1.计算分辨率;幅宽除以最小检测精度得出每行需要的像素。 2.检测精度;幅宽除以像素得出实际检测精度。 3.扫描行数;每秒运动速度长度除以精度得出每秒扫描行数。 根据以上计算结果选择线阵相机 举例如下:如幅宽为 1600 毫米、精度 1 毫米、运动速度 22000mm/s 2. 实际检测精度:1600/2048=0.8; 3. 扫描行数:22000mm/0.8mm=27.5KHz; 所以:应选定相机为 2048 像素 28kHz 相机。 1.3 按照输出模式分类: 被数字相机所替代,模拟相机所占市场份额正越来越小。数字相机具有通用性好、控制简单、可增加更多图像处理功能

图像超分辨

匿名 (未验证) 提交于 2019-12-03 00:21:02
原博客地址: https://blog.csdn.net/u011630458/article/details/65635155   这段时间在看基于字典的单帧图像超分辨率重建,本篇主要是对这块做个笔记记录。 1 、准备好用于字典训练的低分辨率图像 LR 及与之对应的高分辨率图片 HR 。 2 、将低分辨率图像双线性或者三次方插值到高分辨率图像相同大小,得到 MR 。 3 、将 MR 图像分成若干个 3x3 或者 5x5 之类的小块,小块之间有 1x1 或者 2x2 之类的重叠区域,对应的高分辨率图像同样对应坐标位置,分成这个多块。 4 、对 MR 的图像块做特征提取操作,可以是每个块减去该块平均值、或者是每个块做梯度散度提取。 1 、 MR 特征块集合作为低分辨率字典,对应的高分辨率块集合作为高分辨率字典。 2 、输入待处理的低分辨率图像,并用和字典训练一样的块大小做分割。 3 、所有低分辨率图像分割块做特征提取。 4 、每个特征块 X ,在低分辨率字典中找到最接近的 K 个块。 5 、通过这 K 个块,拟合得到最接近该特征块的权重系数 A 。 6 、找到高分辨率字典上对应的该 K 个块,乘上权重系数 A ,得到低分辨率块 X 对应的高分辨率图像块 Y 。 7 、循环计算,直到所有低分辨率块都得到对应高分辨率块。 8 、所有高分辨率块,根据之前分割坐标,反向贴合

webrtc视频初始分辨率和码率配置代码

匿名 (未验证) 提交于 2019-12-03 00:19:01
一、视频分辨率码率初始配置 1、分辨率默认值 webrtc\pc\videocapturertracksource.cc 选取的原则是,在kVideoFormats里面找参数与kDefaultFormat默认值最接近的一组参数,作为本端的编码能力。 2、码率默认值 webrtc\media\engine\webrtcvideoengine.cc 3、默认QP、帧率最大值配置 webrtc\media\engine\webrtcvideoengine.cc static const int kDefaultQpMax = 56; const int kDefaultVideoMaxFramerate = 60; 二、生效新的帧率码率流程 在webrtc里面函数实现如下: ->VideoStreamEncoder::EncodeVideoFrame ->VideoSender::AddVideoFrame----在这个函数中读取全局变量encoder_params_,判断是否需要调整视频参数。 ->VideoSender::SetEncoderParameters ->VCMGenericEncoder::SetEncoderParameters ->H264EncoderImpl::SetRateAllocation---传递新的帧率码率到编码器。 文章来源: