摄像机

Unity目录结构设置

可紊 提交于 2020-04-05 14:51:45
摄像机 Main Camera 跟随主角移动,不看 UI 剧情摄像机 当进入剧情时,可以关闭 main camera,启用剧情摄像机,不看 UI UI 摄像机 看 UI Unity编辑器常用的settings File->Build Settings File->Build Settings->Player Settings File->Build Settings->Player Settings->Other Settings Edit->Project Settings 坐标 Unity 中 Z 轴朝前(在本地坐标中) 默认在 Transform 中看到的是本地的坐标,角度,缩放 控制器 分类 主角控制器(移动,打怪 ) 怪物控制器(巡逻,打主角) NPC 控制器(没有 AI,没有移动,仅仅是发布任务等简单的功能) 精灵(Sprite) 包括 主角 Boss 怪物 NPC 目录结构 特定 Editor:放在此下面的脚本在创建 C# 脚本时会调用,可以实现自定义模板 Plugins/iOS/PC Resources:预制体放在此目录下用于加载 StreamingAssets:在游戏运行时此目录是只读的 Hierachy:场景物体 通用 Editor Plugins/iOS/PC Resources Role UI StreamingAssets Audio Effects

GB28181出内网

こ雲淡風輕ζ 提交于 2020-03-31 07:26:11
最近关注 GB28181 的朋友很多,昨天有位朋友问到 GB28181 出内网的问题,希望我花 5 分钟的时间 讲讲如何通过 GB28181 协议将内网的摄像机视频推送到公网。要说清楚这个问题, 5 分钟的时间应该不 够,还是写篇文章跟大家分享下。 说这个问题之前,我想先聊聊 GB28181 协议,首先我们需要了解的是 GB28181 是应用层协议,而 不是传输层协议。所谓应用层协议说简单点就是发送方跟接收方商议怎么协作:比如第一个信令由谁 发起,视频流的采用什么封装格式,什么时候开始推送视频,什么时候结束推送等等。 GB28181 协议 规定下级(也可以理解为客户端)首先向上级(服务端)注册,这一点让内网摄像机设备通过 GB281 81 协议主动推送视频到公网有了可能性。局域网的摄像机设备只有内网 IP ,公网下的服务无法主动找 到摄像机设备,然公网下的服务有公网 IP, 内网中的摄像机通过路由转换最终可以将注册信息发送给公 网下的服务(这一点 rtsp 协议是做不到的, rtsp 协议规定首先得服务端向客户端发送命令,所以内网摄 像机设备通过 rtsp 协议主动推送视频到公网是行不通,通过在内网部署流媒体服务主动推送视频流到公 网可行,代价是增加一台服务器)。 客户端设备已经注册上来了,接下来服务端要做的事情是查询设备信息以及发起视频流请求命令。

摄像头定位:ICCV2019论文解析

爱⌒轻易说出口 提交于 2020-03-29 07:54:29
摄像头定位: ICCV2019论文解析 SANet: Scene Agnostic Network for Camera Localization 论文链接: http://openaccess.thecvf.com/content_ICCV_2019/papers/Yang_SANet_Scene_Agnostic_Network_for_Camera_Localization_ICCV_2019_paper.pdf The code is available at: https://github.com/ sfu-gruvi-3dv/sanet_relocal_demo 摘要 提出了一种场景不可知的摄像机定位神经网络结构,模型参数和场景相互独立。尽管最近在基于学习的方法方面取得了进展,但大多数方法都需要对每个场景逐一进行训练,这不适用于 SLAM和机器人导航等在线应用,因为在这些应用中,模型必须建立在平面上。本文的方法学习建立分层的场景表示,并预测查询的密集场景坐标图给定任意场景的地面上的 RGB图像。利用预测出的场景坐标图可以估计出查询图像的 6D摄像机姿态。此外,稠密预测还可用于其他在线机器人和 AR应用,如避障。本文在室内和室外基准上证明了本文的方法的有效性和效率,实现了最先进的性能。 1. Introduction

摄像机标定

我怕爱的太早我们不能终老 提交于 2020-03-25 07:45:52
转自: http://blog.sina.com.cn/s/blog_b5aa3e0f0101a4tx.html 1、摄像机外参:决定摄像机坐标与世界坐标系之间相对位置关系。 其中Pw为世界坐标,Pc是摄像机坐标,他们之间关系为 Pc = RPw + T 式中,T= (Tx,Ty,Tz),是平移向量,R = R(α,β,γ)是旋转矩阵,分别是绕摄像机坐标系z轴旋转角度为γ,绕y轴旋转角度为β,绕x轴旋转角度为α。6个参数组成(α,β,γ,Tx,Ty,Tz)为摄像机外参。 2、摄像机内参:确定摄像机从三维空间到二维图像的投影关系。 针孔_摄像机模型为6个参数(f,κ,Sx,Sy,Cx,Cy);远心摄像机模型为5个参数(f,Sx,Sy,Cx,Cy)。 线阵摄像机为9个参数(f,κ,Sx,Sy,Cx,Cy,width.highth)。 其中,f为焦距; κ表示径向畸变量级,如果κ为负值,畸变为桶型畸变,如果为正值,那畸变为枕型畸变。 Sx,Sy是缩放比例因子。对针孔_摄像机来讲,表示图像传感器上水平和垂直方向上相邻像素之间的距离; 对于远心摄像机模型,表示像素在世界坐标系中的尺寸。 Cx,Cy是图像的主点。对针孔_摄像机来讲,这个点是投影中心在成像平面上的垂直投影,同时也是径向 畸变的中心 。 对于远心摄像机模型,只表示畸变的中心 。 Vx,Vy,Vz

Halcon相机标定

与世无争的帅哥 提交于 2020-03-14 15:31:05
摄像机标定程序: 注意:E:/calibration_image :为标定图像文件路径 'E:/calibration_description/caltab_123mm.descr:为标定描述文件路径 *作者:骑蚂蚁上高速 *程序开始 list_files ('E:/calibration_image', 'files', ImageFiles) TmpCtrl_AllMarkRows := [] TmpCtrl_AllMarkColumns := [] TmpCtrl_StartPoses := [] TmpCtrl_ReferenceIndex := 0 StartParameters := [0.008,0,5.2e-006,5.2e-006,640,512,1280,1024] for Index := 0 to |ImageFiles|-1 by 1 read_image (Image, ImageFiles[Index]) find_caltab (Image, TmpObj_PlateRegion, 'E:/calibration_description/caltab_123mm.descr', 3, 112, 5) find_marks_and_pose (Image, TmpObj_PlateRegion, 'E:/calibration_description

Occlusion Culling(遮挡剔除)

前提是你 提交于 2020-03-09 22:22:12
遮挡剔除指一个物体被其他物体遮挡后,当前摄像机是不可见的,可以不对其渲染。遮挡剔除在unity不是自动进行的,很多时候离摄像机远的物体先渲染,从而覆盖了先前渲染的物体。 这和视椎体剔除不一样,视椎体剔除是指摄像机可视距离之外的不渲染。使用遮挡剔除功能时,视椎体剔除依然有效 来源: oschina 链接: https://my.oschina.net/u/1391394/blog/693045

UGUI组件(1)Canvas 和 RectTransform

佐手、 提交于 2020-03-07 18:41:00
版本:Unity5.4.2f1 Canvas(画布) 手册: https://docs.unity3d.com/Manual/class-Canvas.html 这个组件是代表UI布局和渲染的空间。所有UI元素必须是在一个有Canvas组件的对象下。当在没有Canvas场景中创建一个UI元素时,同时也会生成一个Canvas对象。 参数: Pixel Perfect (Screen Space modes only) :不使用反锯齿渲染UI Render Camera (Screen Space - Camera mode only) :选择一个绘制UI的摄像机 Plane Distance (Screen Space - Camera mode only) :放置UI平面在摄像机前面的距离大小 Event Camera (World Space mode only) :处理UI事件的摄像机 Receives Events :是否通过该摄像机处理UI事件 补充: 一个场景中只有一个Canvas是足够的,但也允许同时存在多个Canvas。也可以嵌套多个Canvas,但嵌套的Canvas是和父级的渲染方式一样。 嵌套的Canvas截图: 通常是把UI元素作为一个绘制在屏幕上的图形,而没有把UI元素当作为一个3D空间内的对象。 在Unity中不仅支持使用传统的渲染概念

SONY索尼PXW-X280摄像机断电MXF/RSV视频文件损坏修复技术

断了今生、忘了曾经 提交于 2020-03-06 16:06:26
MXF视频文件简介 MXF是素材交换格式Material eXchange Format的首字母缩写。MXF是美国电影与电视工程师学会组织(SMPTE)定义的一种专业音视频媒体文件格式。MXF格式视频主要应用于影视行业媒体制作、编辑、发行和存储等环节。相对于MOV,MP4来说具有完全不同的文件结构和封装技术,MXF视频损坏修复在技术上有更大的难度,目前市场上还没有非常成熟可靠的修复软件。 MXF视频文件损坏 有这样一个MXF格式的视频,是由索尼SONY PXW-X280摄像机拍摄的,拍摄过程中由于电池耗尽,造成最后一个MXF视频文件没有封装完成,在卡里显示视频大小为93G,但是文件后缀是RSV,却不是MXF,如下图。 正常封装的文件为MXF,并且有对应的XML文件,而且这个视频并没有对应的XML文件。无XML文件即表示MXF视频并没有正常封装完成,没有封装的MXF视频是无法播放的,更不能编辑。 MXF频文件修复 1. 首先打开损坏的视频文件看文件代码,检查视频数据的有效性。如下图所示,有明显的MXF视频代码特征,表示视频可以被修复。如果打开发现全部是0X0000000的,代表视频文件源代码缺失,无法修复。 2. 检查正常的MXF视频的编码,了解编码参数,以便于修复: General Format MXF Format version 1.3 Format profile OP-1a

Codeforces Round #620 Div2F Animal Observation(前缀和+动态规划+线段树维护)

眉间皱痕 提交于 2020-03-06 15:56:26
题意: 作者喜欢观察动物,因此他购买了两个照相机,以拍摄森林中野生动物的视频,一台摄像机的颜色是红色,一台摄像机的颜色是蓝色。 从第1天到第N天,作者将拍摄N天的视频。森林可以分为M个区域,编号从1到M。他将通过以下方式使用相机: 在每个奇数天,将红色相机带到森林中并录制两天的视频。 在每个偶数天,将蓝色相机带到森林中并录制两天的视频。 如果他在第N天使用其中一台摄像机开始录制,则该摄像机仅录制一天。 每个摄像机可以连续观察森林的K个连续的区域。 作者已经获得了有关每天在每个区域看到多少动物的信息。由于他想观察尽可能多的动物,因此他希望你找到放置两台摄像机N天的最佳方法。请注意,如果两个摄像机在同一天观察同一区域,则在该区域观察到的动物仅被计数一次。 输出一个整数,可以观察到的最大动物的数量。 题解: 开一个二维数组记录每一天每个区域的动物数量。 开一个二维数组保存每一天每个区域的前缀和,方便统计。 然后开一个二维dp数组,i表示第i天,j表示从j开始到j+k-1的区域,dp的值表示当前该区域所能拍摄的最大动物数量(前面的日子最大化操作)。 初始化dp数组,第1天dp值为区域当天的动物总和。 然后遍历第2天到第N天,每一天开始,先更新所有的dp值,即把dp值直接加上新一天区域内动物总和。 然后遍历每个区域,把与前一天拍到的重复的区域剪掉,再更新dp的值。

论文分享--Networked Cameras Are the New Big Data Clusters

心已入冬 提交于 2020-02-27 12:57:17
论文分享–Networked Cameras Are the New Big Data Clusters ABSTRACT 深度学习复杂性和处于计算边缘的摄像头的日益增加已大幅提高了边缘数据分析的资源需求。相比传统互联网Web的应用程序,类似(计算、存储和网络)这类的资源需求并不选育数百万用户,而是数十亿美元为单位的传感器的连续活动。在此背景下,本文将摄像机抽象为一个集群试图解决这类的视频分析的挑战。我们设想了一种分析堆栈,它可以处理大规模网络摄像机的计算资源,从而实现高效的边缘视频分析。 -INTRODUCTION 目前智能摄像头大规模部署的增加了对于视频分析的边缘计算的可能性。但是也必须解决一个问题:在一个大型摄像头集合中怎样有效利用相机的“资源”处理大规模视频分析任务? 当前系统的缺陷 当处理多个摄像机流时,当前系统单独分析(并优化)每个视频流,仅适用源摄像机的本地资源(仅用于溢出的云/边缘服务器)。因此,随着更多的相机和更多的应用程序,资源需求呈比例地增长。 本文认为,将一组摄像机作为一个抽象的整体,类似于计算集群。本文设想将一组网络摄像机转换成一个摄像机集群,一个带有分析堆栈的计算集群,以提供有效的资源共享、统一的资源访问和一个统一的抽象,以在多个摄像机上执行分析应用。摄像机集群的抽象在性能和可编程性两个方面都带来了原则和好处。 性能益处