info

django model 操作总结

拥有回忆 提交于 2020-01-12 20:35:52
使用场景 一对一:在某表中创建一行数据时,有一个单选的下拉框(下拉框中的内容被用过一次就消失了)。 //两个表的数据一一对应 例如:原有含 10 列数据的一张表保存相关信息,经过一段时间之后, 10 列无法满足需求,需要为原来的表再添加 5 列数据。 一对多:当一张表中创建一行数据时,有一个单选的下拉框(可以被重复选择)。 //表1的数据可以在表2里面重复出现 例如:创建用户信息时候,需要选择一个用户类型【普通用户】【金牌用户】【铂金用户】等。 多对多:在某表中创建一行数据是,有一个可以多选的下拉框。 //表1和表2都可以在各自的表项里重复出现 例如:创建用户信息,需要为用户指定多个爱好。 Customer模型: class Customer(models.Model): name = models.CharField(max_length=32) qq = models.CharField(max_length=64,unique=True) weixin = models.CharField(max_length=64,blank=True,null=True) age = models.PositiveSmallIntegerField(blank=True,null=True) referral_from = models.ForeignKey("Customer"

day54-mysql

南楼画角 提交于 2020-01-12 10:58:59
1. 什么是数据库 存储数据的仓库 2. 什么数据: 大家所知道的都是数据.比如:你同学的名字,年龄,性别等等 3. 数据库概念 1.数据库服务器 2.数据库管理系统 重点 3.库 4.表 5.记录 6.数据 参考画图 4.环境安装: 1.傻瓜式安装下载地址 https://dev.mysql.com/downloads/installer/ 2. ZIP 包下载地址 https://dev.mysql.com/downloads/mysql/ 3.完全卸载mysql:http://www.cnblogs.com/wangfengming/articles/7879074.html 5.库操作:就是文件夹database,cmd命令行输入mysql -u root -p,再输入密码123进入mysql。 1.创建 CREATE DATABASE DB2 charset utf8; 2.删除 DROP DATABASE db2; 3.使用(进入) use db1; 4.查看库 show databases ; -- 查看当前用户下所有的库名 select DATABASE(); -- 查看当前使用的 show CREATE DATABASE db1; -- 查看创建库的信息 6.表操作table SQL语句 1.创建表 create table info1( id int not

elasticsearch 的各种报错以及解决方案

a 夏天 提交于 2020-01-12 06:41:08
问题一:ElasticsearchException[Failed to create native process factories for Machine(系统找不到指定的文件。) 该错误解决方案 在Elasticsearch/config/elasticsearch.yml加入以下参数: action.auto_create_index: .security,.monitoring*,.watches,.triggered_watches,.watcher-history* xpack.security.enabled: false xpack.monitoring.enabled: true xpack.graph.enabled: false xpack.watcher.enabled: false xpack.ml.enabled: false ========================================================== 问题二:max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536] 问题详情 max file descriptors [4096] for elasticsearch

kafka报错解决:kafka.zookeeper.ZooKeeperClientTimeoutException: Timed out waiting for connection

巧了我就是萌 提交于 2020-01-12 03:24:55
出现上述问题,在其他错误都没有的情况下,zookeeper的版本和kafka的libs目录下的zookeeper版本不一致导致的,如图 版本是3.5.6 启动成功如下所示: D:\kafka\kafka_2.12-2.4.0>.\bin\windows\kafka-server-start.bat .\config\server.properties [2020-01-06 15:44:04,220] INFO Registered kafka:type=kafka.Log4jController MBean (kafka.utils.Log4jControllerRegistration$) [2020-01-06 15:44:04,754] INFO starting (kafka.server.KafkaServer) [2020-01-06 15:44:04,755] INFO Connecting to zookeeper on localhost:2181 (kafka.server.KafkaServer) [2020-01-06 15:44:04,775] INFO [ZooKeeperClient Kafka server] Initializing a new session to localhost:2181. (kafka.zookeeper

log4j2之简化封装,告别静态成员变量

心已入冬 提交于 2020-01-12 00:28:45
注 本文是使用 slf4j + log4j2 示例,由于 slf4j 只是一个统一接口包,log4j / log4j2 / logback 等都是有其实现类,所以本文中是以 slf4j 为例。若有朋友坚持不使用 slf4j ,则将代码中 slf4j 相关的都做对应更改即可,并不麻烦。 序 一般情况下,每当我们使用 slf4j 等log组件时,都是在需要记载日志的类中,创建一个静态的 Logger 成员变量,然后调用 debug,info,error 等方法。这就意味着我们每一个要记载日志的类,都需要先定义一个静态的成员变量,这样才打印出正确的前缀(带有类名称) 一、现状 我们以码云中几个热门的java项目为例(下面的代码片段都是 star 超过 500+ 的项目) public class DepartController { private static final Logger logger = Logger.getLogger(DepartController.class); ... method() { logger.info("some things!"); } } @Controller public class LoginController extends BaseController { private static final Logger LOGGER =

hdu 4325 Flowers

别等时光非礼了梦想. 提交于 2020-01-12 00:17:46
题目大意:一个农园有n个花朵,给出每朵花的开花时间(用区间表示),求在特定时间点的开花的花朵数量。 思路:离散化,线段树。在建树时有些点表示单个时间点,有些要表示时间区间。然后单点查询即可。 View Code 1 #include <cstdio> 2 #include <cstring> 3 #include <algorithm> 4 using namespace std; 5 #define lson l,m,rt<<1 6 #define rson m+1,r,rt<<1|1 7 #define maxn 100010 8 struct node 9 { 10 int cnt; 11 }setree[maxn<<3]; 12 int xx[maxn<<2]; 13 struct 14 { 15 int l,r; 16 }info[maxn<<3]; 17 int left[maxn]; 18 int right[maxn]; 19 void build(int l,int r,int rt) 20 { 21 setree[rt].cnt=0; 22 if(l==r) 23 return; 24 int m=(l+r)>>1; 25 build(lson); 26 build(rson); 27 } 28 void pushdown(int rt) 29 { 30 if

安装OpenShift 4.2.13

♀尐吖头ヾ 提交于 2020-01-11 23:11:06
[root@xxxxxx ocp4]# ls install-config.yaml [root@xxxxxx ocp4]# vi install-config.yaml [root@xxxxxx ocp4]# vi install-config.yaml [root@xxxxxx ocp4]# cat install-config.yaml apiVersion: v1 baseDomain: example.com compute: - hyperthreading: Enabled name: worker replicas: 0 controlPlane: hyperthreading: Enabled name: master replicas: 3 metadata: name: ocp4 networking: clusterNetworks: - cidr: 10.254.0.0/16 hostPrefix: 24 networkType: OpenShiftSDN serviceNetwork: - 172.30.0.0/16 platform: none: {} pullSecret: '*********' sshKey: '***********' [root@xxxxxx ocp4]# cp ~/ocp4/install-config.yaml ~

拉勾网爬虫Python代码实现

你。 提交于 2020-01-11 21:02:20
爬虫目的:爬取拉勾网上数据分析岗的数据,以便分析当前数据分析岗的需求现状。 爬虫实现的功能:根据城市名称、岗位名称关键字,即可爬取拉勾网上所需的数据信息。 爬虫的主要模块:   主函数与信息存储模块main.py   网页下载模块https.py   网页解析模块parse.py   IP代理池setting.py # main.py''' 拉钩网对于同一ip的大量请求行为肯定会进行封禁,所以需要准备代理池。 为了实现高自动化,需要对一系列可能出现的异常情况进行处理,断点处理,确保程序不挂。 为了提高效率,加入多线程。 数据持久化,在持久化之前需要先进行清洗。 ''' import https,parse,setting # import https.Http , parse.Parse , setting.headers ,setting.cookies import time import logging import codecs logging.basicConfig(level=logging.ERROR, format='%(asctime)s Process%(process)d:%(thread)d %(message)s', datefmt='%Y-%m-%d %H:%M:%S', filename='diary.log', filemode='a') def

java——Clone()浅拷贝与深拷贝

与世无争的帅哥 提交于 2020-01-11 18:38:39
浅拷贝小结: Object对象有个clone()方法,实现了对象中各个属性的复制,但它的可见范围是protected的,所以实体类使用克隆的前提是: ① 实现Cloneable接口,这是一个标记接口,自身没有方法。 ② 覆盖clone()方法,可见性提升为public。 如果一个被复制的属性都是基本类型,那么只需要实现当前类的cloneable机制就可以了,此为浅拷贝。 如果被复制对象的属性包含其他实体类对象引用,那么这些实体类对象都需要实现cloneable接口并覆盖clone()方法。 深拷贝小结 ① 如果有一个非原生成员,如自定义对象的成员,那么就需要:该成员实现Cloneable接口并覆盖clone()方法,不要忘记提升为public可见。同时,修改被复制类的clone()方法,增加成员的克隆逻辑。 ② 如果被复制对象不是直接继承Object,中间还有其它继承层次,每一层super类都需要实现Cloneable接口并覆盖clone()方法。 与对象成员不同,继承关系中的clone不需要被复制类的clone()做多余的工作。 一句话来说,如果实现完整的深拷贝,需要被复制对象的继承链、引用链上的每一个对象都实现克隆机制。 浅拷贝: 被复制对象的所有值属性都含有与原来对象的相同,而所有的对象引用属性仍然指向原来的对象。 package com . basis . entity ;

Fabric1.4:手动启动 first-network 网络(三)

人盡茶涼 提交于 2020-01-11 18:22:09
注意:本文所使用的 fabric 版本为 v1.4.3,与其它版本的网络存在差异。 手动启动 first-network 网络系列分为三部分: 手动启动 first-network 网络(一) 手动启动 first-network 网络(二) 手动启动 first-network 网络(三) 第一篇单纯使用命令行的形式执行 byfn.sh 脚本中的内容,第二篇和第三篇是对手动启动网络过程所使用的命令和配置文件的解释。 1 启动分布式网络 手动生成 fabric 网络所需的配置文件后,接下来需要启动区块链中提供网络服务的各个节点。fabric 采用容器技术,使用 docker-compose 这个工具来实现区块链网络所需的节点容器管理,实现方式只需要编写节点相应的配置文件即可。 1.1 docker-compose-cli.yaml 在 first-network 目录下提供了一个 dokcer-compose 工具所需的配置文件 docker-compose-cli.yaml,我们使用该文件启动网络节点,下面是该文件的内容: version: '2' # 表示用的版本 2 的 YAML 版本 volumes: orderer.example.com: peer0.org1.example.com: peer1.org1.example.com: peer0.org2.example