访问控制

基于数据生命周期的安全防护

倾然丶 夕夏残阳落幕 提交于 2020-01-11 17:27:02
前几篇写到关于数据安全治理相关内容,数据安全治理是一项非常庞大的工程,包含管理、运维、风险管控、技术支撑、标准化等一系列内容,数据治理及安全治理,是当企业发展一定程度(既有业务层的深度,又有产品线的广度),需利用已有数据,推动业务进入一种新的形态,最终谋求利润最大化的过程。 一般企业并没有达到需要治理的程度(没有达到治理的程度来自多方面,如战略层,阶段下以业务为主、安全为辅,从投入产出比来说,预算有限,实行必要型安全),不管从合规角度还是内生需求角度,只需要在现有体系下逐步增加对数据生命周期的安全防护即可(弱水三千,只取一瓢饮,剩下的需要再说)。 数据治理层级 本篇以技术支撑,即数据生命周期的安全防护为主,为一般企业提供数据安全防护建议。 一、数据生命周期管理 数据生命周期管理是指在数据采集、传输、存储、处理、交换(共享、应用)、销毁等阶段下对流动的数据进行综合管理。在数据生命周期管理期间,涉及人、管理、技术三个层面。 人:培训、运维、风险收敛、问题处置、绩效考核等。 管理:数据管理办法、管理制度及流程、标准规范等; 技术:访问控制、脱敏、加密、审计、加固、告警分析等; 数据生命周期管理 二、数据生命周期下存在的安全风险 数据生命周期内,不同环节存在不同安全风险,只有了解环节内的风险,才能针对性的“治根”解决安全问题。 管理与人的因素,暂时不考虑,以数据支撑即技术风险为主。

文件访问控制实验

孤人 提交于 2020-01-10 18:13:59
简介 访问控制是在共享环境下限制用户对资源访问的一种安全机制,一般作为对用户身份鉴别之后的保护系统安全的第二道屏障,一般分为自主访问控制和强制访问控制。 自主访问控制是指资源拥有者拥有对资源访问的控制权;强制访问控制是指根据用户和资源的安全级别来限制访问。 原理 自主访问控制一般采用访问控制矩阵来表示用户和资源访问权限关系,矩阵的行表示用户,列表示访问资源,单元格表示对应的访问权限。 访问权限包括o(owner,拥有者),r(read,读取),w(write,写入),d(delete,删除)和e(execute,执行) 如下表 a.txt b.jpg c.html Alice r,w,d o r Bob o,r w w Carl r,w o,d 这张图表明,Carl对b.jpg有着读取、写入的权限,对c.html是拥有者并且可以执行 实验环境 基于win 7 的NTFS文件系统 实验步骤 1 查看和添加用户 单击“计算机”、“管理”、“本地用户和组”、“用户选项”,可以查看系统中所有用户 用户栏单击右键选择“新用户”,添加新用户“test001”,密码与用户名相同 用同样的方法,添加test002,操作完毕如下所示 2 查看用户权限 创建一个新文件如“test.txt”,输入“123456”后保存,然后查看文件属性。 可以在“安全”页面里看到不同用户对文件的权限

Nginx访问控制

余生颓废 提交于 2020-01-08 10:53:30
Nginx访问控制 基于IP的访问控制 - http_access_module 基于用户的信任登录 - http_auth_basic_module #语法1(允许那些IP可以访问) Syntax:allow address | CIDR | unix: | allk; Default:—— Context:http,server,limit_except #语法2(不允许那些IP访问) Syntax:deny address | CIDR | unix: | all; Default:—— Context:http,server,limit_except 演示 1.配置不允许指定ip访问,其他ip都可以访问 location ~ ^/admin.html { #自动配置到admin.html root /opt/app/code; #不允许访问ip deny 192.168.96.135; #允许访问的ip,all代表所有 allow all; index index.html index.htm; } 测试一下 使用192.168.96.135的主机访问,如限制外网ip,百度ip就能找到对应的ip curl http://192.168.96.188/admin.html ​访问不到报403,Forbidden代表限制 使用其他ip访问,访问成功 ​ 2.配置允许指定ip访问

Web应用服务器,并发访问控制(bash shell)

℡╲_俬逩灬. 提交于 2020-01-07 19:37:58
前端负载一台,作用是客户端发起一条http请求到前端负载均衡服务器,然后负载层根据web server已定义的轮询算法,把各消息原封不动的转发到后段的各web server上,压力这块不是很大,因为都转到后端了。 但是有个问题,客户端在发起一条http请求到前端负载层的时候,一分钟内这个请求数会达到惊人的几十万条不等(项目业务需要,客户端自身需要把金额等数据同步到各项目服务器上),基本是客户端对服务端发起的同步请求,还有其它的对web站点的访问请求。然后可能有些同步请求不是必须也不需要那么频繁或者是在这个时间内根本不需要把数据同步上来。固鉴于此就想着看能不能在前端负载层做个并发控制,对这个传过来的客户端IP做个操作。当这个IP请求次数大于内部设定的某个值的时候就让它拒绝访问服务器,这样的话服务器在处理消息的时候也会更加有效率,也能起到一定的宫级作用。想了想应该可以实现,所以才有了下面的脚本。记录下来供各位小伙伴参考下...... #!/bin/bash #Author:You Names #Contact Mail:455436588@qq.com #Version:3.0 #Company:COMPANY #Create time:2019-07-17 17:31:58 #Description:Nginx server concurrency restrictions Max

Kubernetes多租户集群实践

浪子不回头ぞ 提交于 2020-01-07 15:44:38
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 如何解决多租户集群的安全隔离问题是企业上云的一个关键问题,本文主要介绍kubernetes多租户集群的基本概念和常见应用形态,以及在企业内部共享集群的业务场景下,基于kubernetes原生和ACK集群现有安全管理能力快速实现多租户集群的相关方案。 什么是多租户集群? 这里首先介绍一下"租户",租户的概念不止局限于集群的用户,它可以包含为一组计算,网络,存储等资源组成的工作负载集合。而在多租户集群中,需要在一个集群范围内(未来可能会是多集群)对不同的租户提供尽可能的安全隔离,以最大程度的避免恶意租户对其他租户的攻击,同时需要保证租户之间公平地分配共享集群资源。 在隔离的安全程度上,我们可以将其分为软隔离(Soft Multi-tenancy)和硬隔离(Hard Multi-tenancy)两种。其中软隔离更多的是面向企业内部的多租需求,该形态下默认不存在恶意租户,隔离的目的是为了内部团队间的业务保护和对可能的安全攻击进行防护;而硬隔离面向的更多是对外提供服务的服务供应商,由于该业务形态下无法保证不同租户中业务使用者的安全背景,我们默认认为租户之间以及租户与k8s系统之间是存在互相攻击的可能,因此这里也需要更严格的隔离作为安全保障。关于多租户的不同应用场景,在下节会有更细致的介绍。 多租户应用场景

Kubernetes多租户集群实践

梦想与她 提交于 2020-01-07 15:25:36
如何解决多租户集群的安全隔离问题是企业上云的一个关键问题,本文主要介绍kubernetes多租户集群的基本概念和常见应用形态,以及在企业内部共享集群的业务场景下,基于kubernetes原生和ACK集群现有安全管理能力快速实现多租户集群的相关方案。 什么是多租户集群? 这里首先介绍一下"租户",租户的概念不止局限于集群的用户,它可以包含为一组计算,网络,存储等资源组成的工作负载集合。而在多租户集群中,需要在一个集群范围内(未来可能会是多集群)对不同的租户提供尽可能的安全隔离,以最大程度的避免恶意租户对其他租户的攻击,同时需要保证租户之间公平地分配共享集群资源。 在隔离的安全程度上,我们可以将其分为软隔离(Soft Multi-tenancy)和硬隔离(Hard Multi-tenancy)两种。其中软隔离更多的是面向企业内部的多租需求,该形态下默认不存在恶意租户,隔离的目的是为了内部团队间的业务保护和对可能的安全攻击进行防护;而硬隔离面向的更多是对外提供服务的服务供应商,由于该业务形态下无法保证不同租户中业务使用者的安全背景,我们默认认为租户之间以及租户与k8s系统之间是存在互相攻击的可能,因此这里也需要更严格的隔离作为安全保障。关于多租户的不同应用场景,在下节会有更细致的介绍。 多租户应用场景 下面介绍一下典型的两种企业多租户应用场景和不同的隔离需求: 1

并行编程要素

≡放荡痞女 提交于 2020-01-04 05:03:48
基础要素 任务/数据划分 多个控制流并行,划分带来的负载均衡和通信开销也对程序的性能有决定性的作用 并发访问控制 多个控制流需要访问不同或者相同的资源,如何协调这些资源变得非常重要 并行化和面向对象 并行需要去除数据和控制的依赖关系,而面向对象把大问题解决成小问题,然后通过对象之间的通信来解决小问题,进而解决大问题。 面向对象鼓励隐藏对象拥有的数据,而并行化需要分析作用在数据上的操作的依赖关系。 对并行设计来说,合适的方法是:过程化的设计方法加上以数据为中心。并行化的本质是以数据为中心的,显式的传递数据对于并行更为合适。通过过程化的设计方法设计程序流程,以数据为中心进行并行化已经是流行的设计方式。 实践中,需要寻找数据热点并优化数据热点。 计算规模一定时,如果程序中存在不能并行的部分,那程序是很难实现完全线性加速的。 并发访问控制 并行程序需要协调对某个控制资源的访问。 基于消息传递并发访问控制,数据的交流通过传递消息进行,各个控制流拥有自己的存储器内容。 基于共享存储的并发访问控制,各个控制流访问共享的数据,访问之间有可能冲突,比如读后写、写后写、写后读,通常是采用互斥的方式来保证。 常见的并发访问控制流是文件 通常有两种做法: 只有一个文件,一个控制流读取文件并分发消息给其他控制流。 把一个文件分割成多个子文件,每个控制流读取一个子文件。 前一种做法比较简单,但数据分发是串行的

nginx 访问控制之deny allow

时光总嘲笑我的痴心妄想 提交于 2020-01-02 21:03:10
Nginx的deny和allow指令是由ngx_http_access_module模块提供,Nginx安装默认内置了该模块。 除非在安装时有指定 --without-http_access_module。 语法: 语法:allow/deny address | CIDR | unix: | all 它表示,允许/拒绝某个ip或者一个ip段访问.如果指定unix:,那将允许socket的访问。 注意:unix在1.5.1中新加入的功能。 在nginx中,allow和deny的规则是按顺序执行的。 示例: 示例1: location / { allow 192.168.0.0/24; allow 127.0.0.1; deny all; } 说明:这段配置值允许192.168.0.0/24网段和127.0.0.1的请求,其他来源IP全部拒绝。 示例2: location ~ "admin" { allow 110.21.33.121; deny all } 说明:访问的uri中包含admin的请求,只允许110.21.33.121这个IP的请求。 来源: https://www.cnblogs.com/yyxianren/p/10837189.html

Nginx 的配置和访问控制

蹲街弑〆低调 提交于 2019-12-27 11:12:17
[TOC] 文章目录 一、Nginx简介 一款高性能、轻量级Web服务软件,稳定性高,系统资源消耗低,对HTTP并发连接的处理能力高 二、Nginx配置 2.1、安装依赖包和解压 2.2、配置编译安装 2.3、制作管理脚本 2.4、nginx.conf文件的修改 2.5、配置DNS域名解析 三、访问控制 3.1、基于授权的访问控制 3.2、基于客户端的访问控制 一、Nginx简介 一款高性能、轻量级Web服务软件,稳定性高,系统资源消耗低,对HTTP并发连接的处理能力高 二、Nginx配置 需要准备的安装包: 可以先通过远程挂载的方式将压缩包从Windows系统,挂载到linux系统,之后再进行压缩等操作。 2.1、安装依赖包和解压 在一台IP地址为 192.168.111.141 的 centos7系统中 1、安装依赖包 2、创建名为nginx的用户,且不允许登录系统 3、挂载,并解压安装包到指定/opt/中 2.2、配置编译安装 1、编译配置 2、make编译 3、关闭防火墙,优化路径 4、检查是否有误 5、装 elinks 安装包,用elinks测试 nginx -t //检查 nginx //启动 killall -1 nginx //重载 killall -3 nginx //停止 2.3、制作管理脚本 1、制作管理脚本,来控制 Nginx 的开启关闭。 2、添加执行权限