topic

Django web编程2 -- 编辑页面内容

自闭症网瘾萝莉.ら 提交于 2020-01-01 07:46:15
你将创建一些表单,让用户能够添加主题和条目,以及编辑既有的条目。你还将学习Django如何防范对基于表单的网页发起的常见攻击,这让你无需花太多时间考虑确保应用程序安全的问题。 然后,我们将实现一个用户身份验证系统。你将创建一个注册页面,供用户创建账户,并让有些页面只能供已登录的用户访问。接下来,我们将修改一些视图函数, 使得用户只能看到自己的数据。你将学习如何确保用户数据的安全。 1、让用户能够输入数据 建立用于创建用户账户的身份验证系统之前,我们先来添加几个页面,让用户能够输入数据。我们将让用户能够添加新主题、添加新条目以及编辑既有条目。 当前,只有超级用户能够通过管理网站输入数据。我们不想让用户与管理网站交互,因此我们将使用Django的表单创建工具来创建让用户能够输入数据的页面。 1.1 添加新主题 创建基于表单的页面的方法几乎与前面创建网页一样:定义一个URL,编写一个视图函数并编写一个模板。一个主要差别是,需要导入包含表单的模块forms.py。 (1)创建表单 让用户输入并提交信息的页面都是表单,哪怕它看起来不像表单。用户输入信息时,我们需要进行验证,确认提供的信息是正确的数据类型,且不是恶意的信息,如中断服务器的代码。然后,我们再对这些有效信息进行处理,并将其保存到数据库的合适地方。这些工作很多都是由Django自动完成的。 在Django中

Django web编程1 -- 创建项目和应用

大憨熊 提交于 2020-01-01 07:45:56
python:3.7.2 Django:2.1.7 1、创建虚拟环境 虚拟环境是系统的一个位置,可以在其中安装包,并将其与其他python包隔离。 创建目录,命名为learning_log,并切换到这个目录下,并创建一个虚拟环境。 $ mkdir learning_log $ cd learning_log/ learning_log$ python3 -m venv ll_env 2、激活虚拟环境并安装Django learning_log$ source ll_env/bin/activate (ll_env)learning_log$ pip3 install Django 3、新建项目 在处于活动的虚拟环境的情况下(ll_env包含在括号内,以下的步骤都是在虚拟环境下),执行如下命令来新建项目: (ll_env)learning_log$ django-admin.py startproject learning_log . # 创建项目,点号是让新项目使用合适的目录结构,不能缺少。 (ll_env)learning_log$ ls # Django新建了一个名为learning_log的目录。它还创建了一个名为manage.py的文件 learning_log ll_env manage.py (ll_env)learning_log$ ls learning_log #

Django入门(2)

大憨熊 提交于 2020-01-01 07:45:45
18.3 创建网页:学习笔记主页   使用Django创建网页的三个阶段:定义URL、编写视图和编写模版。 3.1 映射URL 打开learning_log中urls.py urlpatterns = [ url(r'^admin/', admin.site.urls), url(r'',include('learning_logs.urls',namespace='learning_logs')), ] 在learning_logs中定义urls.py '''定义learning_logs的URL模式''' from Django.conf.urls import url from . import views urlpatterns = [ #主页 url(r'^$',views.index,name='index'), ] 3.2 编写视图 打开learning_logs中views.py from django.shortcuts import render # Create your views here. def index(request): '学习笔记主页' return render(request,'learning_logs/index.html') 3.3 编写模版 在learning_logs中建立文件templates/learning_logs

C# MQTT 客户端 服务端实现

邮差的信 提交于 2019-12-30 19:14:37
废话懒得说,调用的第三方的库。NUGET下载MQTTnet即可。 这个库作者老是升级,而且版本之间老是不兼容。 UI如下 下面是主要代码。 using MQTTnet; using MQTTnet.Client; using MQTTnet.Protocol; using System; using System.Collections.Generic; using System.ComponentModel; using System.Configuration; using System.Data; using System.Drawing; using System.Linq; using System.Text; using System.Threading.Tasks; using System.Windows.Forms; namespace MQTTClient { public partial class FrmMain: Form { private MqttClient mqttClient = null; public FrmMain() { InitializeComponent(); } /// <summary> /// 客户端配置信息 /// </summary> private IMqttClientOptions Options { get {

Kafka系统架构

你说的曾经没有我的故事 提交于 2019-12-28 16:38:07
文章目录 Kafka 架构 常见术语 Kafka 作为一个消息引擎中间件,越来越多的被国内各个厂商使用。本篇主要介绍一下其系统架构及常用术语。 Kafka 架构 从上图可以看出,和其他消息引擎类似,主要由生产者、Kafka 集群、消费者构成。但是其中有一点需要注意的是,Kafka 集群和消费者依赖了ZooKeeper 集群。上图中的每个Broker 对应的就是一个一个的Kafka 实例,每个Broker 上面可能会有多个 Partition,也就是所谓的分区副本。如上面的Producer A 生产了 Topic A 的消息,然后存放的时候分为了 Partition 0 和 Partition 1 两个数据分区存储。Producer 生产出来的数据只会直接发给每个 Partition 的 Leader 来接收。然后每个 Partition 对应的 Follower 会复制Leader 上面的数据做冗余备份,Follower 本身不对外提供服务。 从上面的消费者可以看出,Consumer A1 和 Consumer A2 是一个消费者组。它们共同消费了 Topic A,此时对于同一个消费者组而言,同一个 Topic 不会重复消费。也就是 Topic A 的消息,在同一个消费者组内只会被一个消费者消费。 常见术语 Topic:消息主题,Kafka 会对消息进行归类,发布到Kafka

使用python创建自定义分区的topic

試著忘記壹切 提交于 2019-12-27 21:21:26
通常需要创建自定义分区的topic 可以使用以下方法创建名称为test,12个分区3份副本的topic from kafka.admin import KafkaAdminClient, NewTopic c = KafkaAdminClient(bootstrap_servers="localhost:9092") topic_list = [] topic_list.append(NewTopic(name="test", num_partitions=12, replication_factor=3)) c.create_topics(new_topics=topic_list, validate_only=False) 来源: 51CTO 作者: c6iz 链接: https://blog.51cto.com/mydbs/2462523

3.kafka 基本配置

旧街凉风 提交于 2019-12-27 14:45:48
1.主题管理 kafka-topics.sh工具脚本用于对主题操作,如创建、删除、修改、分区数、副本数及主题级别的配置。 1.1创建名为kafka-test主题,有2个副本,3个分区 [hadoop@h201 kafka_2.12-0.10.2.1]$ bin/kafka-topics.sh --create --zookeeper h201:2181,h202:2181,h203:2181 --replication-factor 2 --partitions 3 --topic kafka-test 输出: Created topic "kafka-test". #### --zookeeper 参数必传,用于与zookeeper连接 --partitions 参数必传,用于设置分区数 --replication-factor 参数必传,用于设置副本数 #### 1.2进入log目录 [hadoop@h201 kafka_2.12-0.10.2.1]$ cd kafkalogs/ [hadoop@h201 kafkalogs]$ ls kafka-test-1kafka-test-0 ##副本分布到不同的节点上### h202上 [hadoop@h202 kafkalogs]$ ls kafka-test-2kafka-test-1 [hadoop@h201 zookeeper

EMQ X 插件持久化系列 (四)PostgreSQL 数据持久化

十年热恋 提交于 2019-12-27 14:32:14
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 本章节以在 CentOS 7.2 中的实际例子来说明如何通过 PostgreSQL 来存储相关的信息。 作为开源关系数据库重要一员,PostgreSQL 标榜自己是世界上最先进的开源数据库,相比于其他开源关系数据库如 MySQL,PostgreSQL 是完全由社区驱动的开源项目,由全世界超过 1000 名贡献者所维护。PostgreSQL 提供了单个完整功能的版本,而不像 MySQL 那样提供了多个不同的社区版、商业版与企业版。PostgreSQL 基于自由的 BSD/MIT 许可,组织可以使用、复制、修改和重新分发代码,只需要提供一个版权声明即可。 PostgreSQL 具有诸多特性,在 GIS 领域有较多支持,其“无锁定”特性非常突出,支持函数和条件索引,有成熟的集群方案。PostgreSQL 还具备及其强悍的 SQL 编程能力如统计函数和统计语法支持,通过 Timescaledb 插件,PostgreSQL 可以转变为功能完备的时序数据库 Timescaledb 。 功能概览 客户端在线状态存储 客户端代理订阅 持久化发布消息 Retain 消息持久化 消息确认持久化 自定义 SQL 安装与验证 PostgreSQL 服务器 读者可以参考 PostgreSQL 官方文档 或 Docker

Validate验证

落花浮王杯 提交于 2019-12-27 08:33:11
<!DOCTYPE html> <html> <head> <meta charset="utf-8"> <title>菜鸟教程(runoob.com)</title> <script src="http://static.runoob.com/assets/jquery-validation-1.14.0/lib/jquery.js"></script> <script src="http://static.runoob.com/assets/jquery-validation-1.14.0/dist/jquery.validate.min.js"></script> <script src="http://static.runoob.com/assets/jquery-validation-1.14.0/dist/localization/messages_zh.js"></script> <script> $.validator.setDefaults({ submitHandler: function() { alert("提交事件!"); } }); $().ready(function() { // 在键盘按下并释放及提交后验证提交表单 $("#signupForm").validate({ rules: { firstname: "required",

Kafka 入门

依然范特西╮ 提交于 2019-12-27 01:46:44
编译自 官方文档 Apache Kafka 是一个分布式消息发布订阅系统。它最初由LinkedIn公司基于独特的设计实现为一个分布式的提交日志系统( a distributed commit log),,之后成为Apache项目的一部分。Kafka系统快速、可扩展并且可持久化。它的分区特性,可复制和可容错都是其不错的特性。 Apache Kafka与传统消息系统相比,有以下不同: 它被设计为一个分布式系统,易于向外扩展; 它同时为发布和订阅提供高吞吐量; 它支持多订阅者,当失败时能自动平衡消费者; 它将消息持久化到磁盘,因此可用于批量消费,例如ETL,以及实时应用程序。 First let’s review some basic messaging terminology: 首先来了解一下Kafka所使用的基本术语: Topic Kafka将消息种子(Feed)分门别类, 每一类的消息称之为话题(Topic). Producer 发布消息的对象称之为话题生产者(Kafka topic producer) Consumer 订阅消息并处理发布的消息的种子的对象称之为话题消费者(consumers) Broker 已发布的消息保存在一组服务器中,称之为Kafka集群。集群中的每一个服务器都是一个代理(Broker). 消费者可以订阅一个或多个话题,并从Broker拉数据