惩罚函数

【论文笔记】DSAC:Learning deep structured active contours end-to-end

匆匆过客 提交于 2020-03-05 01:17:16
论文: Learning deep structured active contours end-to-end ,CVPR 2018 代码:https://github.com/dmarcosg/DSAC 概览 主要工作: 将 ACM 能量函数的计算看作是结构化的预测问题 构造能量的函数里包含了 ACM 的 ballon term 将 CNNs 的表现性和 ACMs 的活动性结合到统一的框架中,叫做 Deep Structured Active Contours(DSAC) 提出 end-to-end 解决方案,可以学习 guiding features 和 local priors 语义分割问题的套路是 dense prediction,即对每一个像素点都预测其标签类别,最后得出分割结果。这种分割方法优点是可以提供全局数据信息,比如分割目标的面积(只要看有多少像素点属于该目标);缺点是缺少实例级的预测。 CNN 做建筑物分割任务时,通常有较高的检测率,但在空间覆盖和几何正确性方面表现不好。 为什么? Q:ACM(snakes)能解决分割的什么问题? ACM 提出具有 高级几何约束 和 先验知识 的 自下而上 的 boundary detector Q高级几何约束是什么? Q先验知识? ACM 原理:将可能的输出曲线约束为一组曲线(比如一个闭合的曲线,曲线上有固定数量的点)

SVM的sklearn.svm.SVC()函数应用

扶醉桌前 提交于 2019-12-04 12:11:33
经常用到sklearn中的SVC函数,这里把文档中的参数: 本身这个函数也是基于libsvm实现的,所以在参数设置上有很多相似的地方。(PS: libsvm中的二次规划问题的解决算法是SMO)。 sklearn.svm.SVC(C=1.0, kernel='rbf', degree=3, gamma='auto', coef0=0.0, shrinking=True, probability=False, Tol=0.001, cache_size200, class_weight=None, verbose=False, max_iter=-1, decision_function_shape=None,random_state=None) 参数: 1、 C :C-SVC的惩罚参数C默认值是1.0,C越大,相当于惩罚松弛变量,希望松弛变量接近0,即对误分类的惩罚增大,趋向于对训练集全分对的情况,这样对训练集测试时准确率很高,但泛化能力弱。C值小,对误分类的惩罚减小,允许容错,将他们当成噪声点,泛化能力较强。 C一般可以选择为:0.0001 到10000 , 选择的越大,表示对错误例惩罚程度越大,可能会导致模型过拟合 2、 kernel :核函数,默认是rbf,可以是'linear', 'poly', 'rbf', 'sigmoid', 'precomputed'   0 – 线性

Python Scikit-learn ---- SVM算法

允我心安 提交于 2019-11-27 21:13:24
支持向量机(SVM)是一组用于分类、回归和异常值检测的有监督学习方法。 SVMs: LinearSVC, Linear SVR, SVC, Nu-SVC, SVR, Nu-SVR, OneClassSVM 支持向量机的优点是: 高维空间中的有效性。 在维数大于样本数的情况下仍然有效。 在决策函数中使用训练点的子集(称为支持向量),因此它也是内存有效的。 多功能:可以为决策函数指定不同的内核函数。提供了常见核函数,但也可以自定义核函数。 支持向量机的缺点包括: 如果特征数远大于样本数,通过选择核函数和正则项避免过拟合是至关重要的。 支持向量机不直接提供概率估计,这些计算使用计算量大的的5折-交叉验证。 最简单分类超平面,1维:x=0,2维:x1+x2=0 当θTXi与 θTX值大于1时,也就是距离分类边界大于1,此时无损,损失为1 - ||θTXi - θTX||,下限为0无上限。 import time import numpy as np import scipy.io as scio import pandas as pd from numpy import newaxis #from pylab import * #包含了NumPy和pyplot常用的函数 from sklearn.cluster import KMeans from sklearn import svm