信息存储

swift - 数据缓存一优雅的使用UserDefaults与plist表格进行数据存储

匿名 (未验证) 提交于 2019-12-03 00:38:01
UserDefaults是iOS中提供的一套最为基础的持久化方式,一般用于存储用户的基本信息 直接上代码: // 最简单的使用于存取 func userDefaultsSave() -> Void { let user: UserDefaults = UserDefaults . standard /*基础的可存储的类型*/ set ( URL (string: "https://www.baidu.com" ), forKey: "url" ) set ( "anyObject" , forKey: "any" ) set ( true , forKey: "bool" ) set ( Double ( 10 ), forKey: "double" ) set ( Float ( 10 ), forKey: "float" ) set ( Int ( 10 ), forKey: "int" ) /*数据读取*/ let url: URL = user. url (forKey: "url" )! let any: Any = user. object (forKey: "any" )! let bool: Bool = user. bool (forKey: "bool" ) let double: Double = user. double (forKey: "double"

HDFS详解

匿名 (未验证) 提交于 2019-12-03 00:27:02
数据量越来越多,在一个操作系统管辖的范围存不下了,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,因此迫切需要一种系统来管理多台机器上的文件,这就是分布式文件管理系统,这样分布式文件系统就应运而生。 分布式文件系统( Distributed File System )是指文件系统管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点相连。 通俗点讲,就是一种允许文件通过网络在多台主机上分享的文件系统,可让多机器上的多用户分享文件和存储空间。 让实际上是通过网络来访问文件的动作,由程序与用户看来,就像是访问本地的磁盘一般。 即使系统中有某些节点脱机,整体来说系统仍然可以持续运作而不会有数据损失。 分布式文件管理系统很多,hdfs只是其中一种。适用于一次写入多次查询的情况,不支持并发写情况,小文件不合适。 当前比较流行的分布式文件系统包括: Lustre 、 Hadoop 、 MogileFS 、 FreeNAS 、 FastDFS 、 NFS 、 OpenAFS 、 MooseFS 、 pNFS 、以及 GoogleFS 。 HDFS 简介 HDFS是基于流数据模式访问和处理超大文件的需求而开发的,他可以运行在廉价的商用服务器上。总的来说,HDFS具有以下几个特点:   1)处理超大文件   这里的超大文件通常是指百MB、设置数百TB大小的文件

云计算,大数据,人工智能相辅相成

匿名 (未验证) 提交于 2019-12-03 00:27:02
转载自: https://www.cnblogs.com/popsuper1982/p/8505203.html 我今天要讲这三个话题,一个是云计算,一个大数据,一个人工智能,我为什么要讲这三个东西呢?因为这三个东西现在非常非常的火,它们之间好像互相有关系,一般谈云计算的时候也会提到大数据,谈人工智能的时候也会提大数据,谈人工智能的时候也会提云计算。所以说感觉他们又相辅相成不可分割,如果是非技术的人员来讲可能比较难理解说这三个之间的相互关系,所以有必要解释一下。 一、云计算最初是实现资源管理的灵活性 我们首先来说云计算, 云计算最初的目标是对资源的管理,管理的主要是计算资源,网络资源,存储资源三个方面。 1.1 管数据中心就像配电脑 什么叫计算,网络,存储资源呢?就说你要买台笔记本电脑吧,你是不是要关心这台电脑什么样的CPU啊?多大的内存啊?这两个我们称为计算资源。 这台电脑要能上网吧,需要有个网口可以插网线,或者有无线网卡可以连接我们家的路由器,您家也需要到运营商比如联通,移动,电信开通一个网络,比如100M的带宽,然后会有师傅弄一根网线到您家来,师傅可能会帮您将您的路由器和他们公司的网络连接配置好,这样您家的所有的电脑,手机,平板就都可以通过您的路由器上网了。这就是网络。 您可能还会问硬盘多大啊?原来硬盘都很小,10G之类的,后来500G,1T,2T的硬盘也不新鲜了。

Hadoop ֮ HDFS

匿名 (未验证) 提交于 2019-12-03 00:22:01
一、概览 首先我们来认识一下HDFS, HDFS(Hadoop Distributed File System )Hadoop分布式文件系统。它其实是将一个大文件分成若干块保存在不同服务器的多个节点中。通过联网让用户感觉像是在本地一样查看文件,为了降低文件丢失造成的错误,它会为每个小文件复制多个副本(默认为三个),以此来实现多机器上的多用户分享文件和存储空间。 1. HDFS特点: ① 保存多个副本,且提供容错机制,副本丢失或宕机自动恢复。默认存3份。 ② 运行在廉价的机器上。 ③ 适合大数据的处理。因为小文件也占用一个块,小文件越多(1000个1k文件)块越 多,NameNode压力越大。 2. 将一个大文件分成三块A、B、C的存储方式 1) 数据复制原则:除了最后一个块之外的文件中的所有块都是相同的大小。 2)HDFS放置策略: 将一个副本放在本地机架中的一个节点上,另一个位于不同机架中的节点上,最后一个位于不同节点上的远程机架。 3)块大小:Hadoop1版本里默认为64M,Hadoop2版本里默认为128M 4)复制因子:每个文件加上其文件副本的份数 二、HDFS的基本结构 如上图所示,HDFS基本结构分NameNode、SecondaryNameNode、DataNode。 1. NameNode :是Master节点,类似Linux里的根目录。管理数据块映射

普林斯顿Stata教程 - Stata编程

匿名 (未验证) 提交于 2019-12-03 00:22:01
译者:谢作翰 | 连玉君 | ( 知乎 | 简书 | 码云 ) 原文链接: Princeton Stata 在线课程 (Princeton University - Stata Tutorial ) Stata 现场培训报名中 普林斯顿Stata教程 - Stata做图 普林斯顿Stata教程 - Stata数据管理 普林斯顿Stata教程 - Stata编程 Ŀ¼ 3.1 暂元 - 3.1.1 在暂元中存储文本 - 3.1.2 在暂元中存储结果 - 3.1.3 全局暂元与键盘映射 - 3.1.4 关于暂元的更多信息 3.2 循环 - 3.2.1 遍历数字序列循环 - 3.2.2遍历列表中的元素 - 3.2.3 循环专用列表 - 3.2.4 while循环 - 3.2.5 条件执行 3.3 编写命令 - 3.3.1 无参数程序 - 3.3.2 有参数的程序 - 3.3.3 复合引号 - 3.3.4 位置参数 - 3.3.5 使用Stata语法 - 3.3.6创建新变量 - 3.3.7 Coale-McNeil 拟合 3.4其他主题 这部分是对Stata编程的简单介绍。主要讨论 暂元 和 循环 ,并展示如何编写简单程序。编程是一个很大的主题,我在这里仅进行一些提示,希望能激发你进一步学习的兴趣。本文所涵盖的材料将帮助你更有效地使用Stata。 Stata

数据结构&算法入门

匿名 (未验证) 提交于 2019-12-03 00:22:01
数据结构是存储,组织 数据 的 方式 算法是完成一个目标的 方法 和 ˼· 公司的核心价值点起始与数据,数据可以预判趋势,指导方向,解决实际问题,掌握了公司的数据,就掌握了公司运营和发展的命脉 是做技术的基础中的基础,是高技术人才的必备能力 装逼利器 什么是数据结构,什么是算法,他们之间的关系,抽象数据类型 数据结构: 数据组织的方式 数据的种类有很多种:整型,浮点型,字符串。。。 数据的组织方式:字典,列表,元组。。。 举例子:数据:‘老王’ 10 ‘男’ 组织方式:列表:[‘老王’,10, ‘男’], 字典{name:’老王’,age:18,gender:’男’} 物理形式 顺序表 链表 逻辑形式 集合,线性,树形,图型 算法 解决问题的方法和思路 公司的核心是 数据 ,数据的组织方式是数据结构,怎么利用这些数据结构完成公司的业务需求,就用到了算法 评判算法的好坏的标准:算法复杂度 时间复杂度:完成一个目标所花费的时间 空间复杂度:完成一个目标所花费的内存空间 数据结构+算法 == 程序,也就是业务需求 程序 + 语言 == 编程 抽象数据类型就是将数据和在这个数据上的运算捆绑在一起。 如魂斗罗中的人物是一种数据类型,打子弹是动作,点击空格键使人物发子弹,那么按一下空格键就生成了一个 抽象数据类型:人物打子弹 为什么引入抽象数据类型的概念

vue路由拦截及页面跳转

匿名 (未验证) 提交于 2019-12-03 00:19:01
路由设置:router/index.js export default new Router({ routes: [ { path: '/selfcenter', name: 'selfcenter', meta: { requireAuth: true // 配置此条,进入页面前判断是否需要登陆 }, component: selfcenter } ] }) main.js: login.vue: 登陆成功后: sessionStorage.setItem('sid', res.data.data.sid); // 设置本地存储信息 this.$router.push(this.$route.query.redirect); // 跳转至前一页,this.$route.query.redirect是获取上面传递过来的值 文章来源: vue路由拦截及页面跳转

ConfigMap介绍

匿名 (未验证) 提交于 2019-12-03 00:09:02
来源 ConfigMap API资源用来保存key-value pair配置数据,这个数据可以在pods里使用,或者被用来为像controller一样的系统组件存储配置数据。虽然ConfigMap跟Secrets类似,但是ConfigMap更方便的处理不含敏感信息的字符串。 注意:ConfigMaps不是属性配置文件的替代品。ConfigMaps只是作为多个properties文件的引用。你可以把它理解为Linux系统中的/etc目录,专门用来存储配置文件的目录 使用ConfigMap来替代环境变量,ConfigMap可以被用来填入环境变量; configmap里面的信息读入环境变量,而容器启动的时候可以利用这些环境变量 ConfigMap也可以被使用来设置容器中的命令或者参数值。它使用的是Kubernetes的$(VAR_NAME)替换语法 ConfigMap也可以在数据卷里面被使用 来源:博客园 作者: 脚本小娃子 链接:https://www.cnblogs.com/shengulong/p/11553640.html

HDFS中的数据块(Block)

匿名 (未验证) 提交于 2019-12-02 23:59:01
我们在分布式存储原理总结中了解了分布式存储的三大特点: 数据分块,分布式的存储在多台机器上 数据块冗余存储在多台机器以提高数据块的高可用性 遵从主/从(master/slave)结构的分布式存储集群 HDFS作为分布式存储的实现,肯定也具有上面3个特点。 我们在微职位视频课时HDFS中的数据块中了解了HDFS中的数据块的基本特性,现在我们来复习下,然后再进行深入的了解下数据块的实现 在HDFS中,数据块默认的大小是 128M ,当我们往HDFS上上传一个300多M的文件的时候,那么这个文件会被分成3个数据块: 所有的数据块是分布式的存储在所有的DataNode上: 为了提高每一个数据块的高可用性,在HDFS中每一个数据块默认备份存储3份,在这里我们看到的只有1份,是因为我们在 hdfs-site.xml 中配置了如下的配置: <property> <name> dfs.replication </name> <value> 1 </value> <description> 表示数据块的备份数量,不能大于DataNode的数量,默认值是3 </description> </property>   我们也可以通过如下的命令,将文件 /user/hadoop-twq/cmd/big_file.txt 的所有的数据块都备份存储3份: hadoop fs - setrep 3 / user