content

使用python一步一步搭建微信公众平台(五)----使用mysql服务来记录用户的反馈

时光毁灭记忆、已成空白 提交于 2019-11-29 04:43:46
经过前几篇教程的学习,相信你对于微信的操作与SAE和webpy都有了些了解,那么这次我想加一个功能,通过mysql来记录用户的反馈,如用户输入fk+内容,然后通过一个页面来显示,最终的效果如下 http://yangyanxing.sinaapp.com/ck 1.老办法,先判断用户提交过来的信息类型,先得是text类型,然后判断是否以fk 开头的message,如果是则写入mysql,然后在urls里设置一下 先启用SAE的mysql应用 你将不会得到具体的用户名与密码等信息,只会得到一个全局变量 2.创建完以后点击“管理MySQL”,进入phpmyadmin界面,很熟悉吧 创建一个叫fk字段数为4的表,你可以一个字段一个字段的定义,将id设置为primary key,AUTO_INCREMENT(A_I),也可以执行下面的sql语句 CREATE TABLE fk( id INT AUTO_INCREMENT , user TEXT, time TEXT, fk_content TEXT, PRIMARY KEY ( id ) ) 3.执行以后,返回到应用的代码编辑界面,由于以后会多次用到mysql操作,所以我们将数据库操作写到一个模块中,新建一个model.py,写入以下代码 # _*_ coding:utf-8 _*_ import web import web.db

关于<meta NAME="keywords" CONTENT="">

谁说胖子不能爱 提交于 2019-11-29 03:24:58
本文转载于: 猿2048 网站 关于 昨天终于以实习身份入职一家小创业公司,今天让我多看看别人的网页怎么写的,发现了一个以前都没关注过的东西。 < meta name ="keywords" content ="XX_XX_XXX" /> 在百度上搜索了一下,看到了一篇详细介绍如下: META标签是HTML语言HEAD区的一个辅助性标签,它位于HTML文档头部的<HEAD>标记和<TITLE>标记之间,它提供用户不可见的信息。meta标签通常用来为搜索引擎robots定义页面主题,或者是定义用户浏览器上的cookie;它可以用于鉴别作者,设定页面格式,标注内容提要和关键字;还可以设置页面使其可以根据你定义的时间间隔刷新自己,以及设置RASC内容等级,等等。   name是描述网页的,对应于Content(网页内容),以便于搜索引擎机器人查找、分类(目前几乎所有的搜索引擎都使用网上机器人自动查找meta值来给网页分类)。   name的value值(name="")指定所提供信息的类型。有些值是已经定义好的。例如description(说明)、keyword(关键字)、refresh(刷新)等。还可以指定其他任意值,如:creationdate(创建日期) 、 document ID(文档编号)和level(等级)等。   name的content指定实际内容。如:如果指定level

文件操作

醉酒当歌 提交于 2019-11-29 03:21:23
本节主要内容: 1. 初识文件操作 2. 只读(r, rb) 3. 只写(w, wb) 4. 追加(a, ab) 5. r+读写 6. w+写读 7. a+写读(追加写读) 8. 其他操作方法 9. 文件的修改以及另一种打开文件句柄的方式 主要内容: 一. 初识文件操作 使用python来读写文件是非常简单的操作. 我们使用open()函数来打开一个文件, 获取到文 件句柄. 然后通过文件句柄就可以进行各种各样的操作了. 根据打开方式的不同能够执行的操 作也会有相应的差异. 打开文件的方式: r, w, a, r+, w+, a+, rb, wb, ab, r+b, w+b, a+b 默认使用的是r(只读)模式 计算机系统分为:计算机硬件,操作系统,应用程序三部分。 我们用python或其他语言编写的应用程序若想要把数据永久保存下来,必须要保存于硬盘中,这就涉及到应用程序要操作硬件,众所周知,应用程序是无法直接操作硬件的,这就用到了操作系统。操作系统把复杂的硬件操作封装成简单的接口给用户/应用程序使用,其中文件就是操作系统提供给应用程序来操作硬盘虚拟概念,用户或应用程序通过操作文件,可以将自己的数据永久保存下来。 认识操作系统 此时你需要先利用软件创建一个文件,文件里面随便写一些内容,然后保存在任意磁盘(路径尽量要简单一些)中。 二. 只读操作(r, rb) f = open(

Meta http-equiv属性详解

微笑、不失礼 提交于 2019-11-29 03:14:50
本文转载于: 猿2048 网站 Meta http-equiv属性详解 Meta http-equiv属性详解(参考链接: http://www.w3school.com.cn/tags/tag_meta.asp ) http-equiv顾名思义,相当于http的文件头作用,它可以向浏览器传回一些有用的信息,以帮助正确和精确地显示网页内容,与之对应的属性值为content,content中的内容其实就是各个参数的变量值。 引用 meat标签的http-equiv属性语法格式是:<meta http-equiv="参数" content="参数变量值"> ;其中http-equiv属性主要有以下几种参数: 1、Expires(期限) 说明:可以用于设定网页的到期时间。一旦网页过期,必须到服务器上重新传输。 用法: Html代码 <meta http-equiv= "expires" content= "Wed, 20 Jun 2007 22:33:00 GMT"> 注意:必须使用GMT的时间格式。 2、Pragma(cache模式) 说明:是用于设定禁止浏览器从本地机的缓存中调阅页面内容,设定后一旦离开网页就无法从Cache中再调出 用法: Html代码 <meta http-equiv= "Pragma" content= "no-cache"> 注意:这样设定

re模块

有些话、适合烂在心里 提交于 2019-11-29 00:28:34
一:什么是正则?   正则就是用一些具有特殊含义的符号组合到一起(称为正则表达式)来描述字符或者字符串的方法。或者说:正则就是用来描述一类事物的规则。 (在Python中)它内嵌在Python中,并通过 re 模块实现。正则表达式模式被编译成一系列的字节码,然后由用 C 编写的匹配引擎执行。 生活中处处都是正则: 比如我们描述:4条腿   你可能会想到的是四条腿的动物或者桌子,椅子等 继续描述:4条腿,活的 就只剩下四条腿的动物这一类了 二:常用匹配模式(元字符) http://blog.csdn.net/yufenghyc/article/details/51078107 # =================================匹配模式================================= #一对一的匹配 # 'hello'.replace(old,new) # 'hello'.find('pattern') #正则匹配 import re #\w与\W print(re.findall('\w','hello egon 123')) #['h', 'e', 'l', 'l', 'o', 'e', 'g', 'o', 'n', '1', '2', '3'] print(re.findall('\W','hello egon 123')) #[' ', '

MyBatis choose(when, otherwise)标签

旧城冷巷雨未停 提交于 2019-11-29 00:07:58
choose (when, otherwise)标签 有时候我们并不想应用所有的条件,而只是想从多个选项中选择一个。而使用if标签时,只要test中的表达式为 true,就会执行 if 标签中的条件。MyBatis 提供了 choose 元素。if标签是与(and)的关系,而 choose 是或(or)的关系。 choose标签是按顺序判断其内部when标签中的test条件出否成立,如果有一个成立,则 choose 结束。当 choose 中所有 when 的条件都不满则时,则执行 otherwise 中的sql。类似于Java 的 switch 语句,choose 为 switch,when 为 case,otherwise 则为 default。 例如下面例子,同样把所有可以限制的条件都写上,方面使用。choose会从上到下选择一个when标签的test为true的sql执行。安全考虑,我们使用where将choose包起来,放置关键字多于错误。 <!-- choose(判断参数) - 按顺序将实体类 User 第一个不为空的属性作为:where条件 --> <select id="getUserList_choose" resultMap="resultMap_user" parameterType="com.yiibai.pojo.User"> SELECT * FROM

scrapy两种方法爬取网站小说

徘徊边缘 提交于 2019-11-28 22:15:55
第一种,使用spider爬取 首先选择一个初始的小说链接,例如小说第一章的链接https://www.zwdu.com/book/11029/2297440.html 我爬去的是这个网站,链接中的小说 首先,创建一个项目 scrapy startproject novel 创建spider scrapy genspider spider https://www.zwdu.com/book/11029/2297440.html 然后开始分析网站,因为该网站小说的链接没有规律,所以我选择通过下一页链接爬取下一章节的内容,然后到了最后一个章节发现最后的下一页链接不包含.html,可以设置一个if语句,来结束爬取。 这是下一章节链接在的地方。可以通过xpath来提取链接 这里是最后一章,链接不包括.html,可以用来作为停止爬取的条件 这里是我爬取的源码 spider.py # -*- coding: utf-8 -*- from scrapy import Request,Spider import json class SpiderSpider(Spider): name = 'spider' #allowed_domains = ['www.zwdu.com'] start_urls = ['https://www.zwdu.com/book/26215/8210673.html']

python3爬取笔趣阁小说

耗尽温柔 提交于 2019-11-28 22:14:08
爬虫第一步:确定要爬取的信息 确定要爬取的网站的URL地址: http://www.xbiquge.la/6/6818/ 第二步:分析网站信息 爬小说要获取小说章节目录名称和每一章的阅读链接 第三步:编写代码: 本次爬虫练习完整代码,存在缺陷,小说章节过多的话爬虫可能会被封Ip import requests import re from lxml import etree import os import time def get_html(): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36' } # 小说目录URL,改变这个URL就可以下载对应的小说 url = 'http://www.xbiquge.la/6/6818/' html = requests.get(url, headers=headers).content.decode('utf-8') return html def get_novel_url(html): ''' 获取章节名和链接 ''' pat2 = r"<dd><a href='(.*?)' >(.*?)</a></dd>"

Vue2 封装的 Quill 富文本编辑器组件 Vue-Quill-Editor

旧街凉风 提交于 2019-11-28 21:50:16
1、安装 npm install vue-quill-editor --save 2、使用 import { quillEditor } from 'vue-quill-editor'    3、组件中 <quill-editor v-model="content" ref="myQuillEditor" class="editer" :options="editorOption" @ready="onEditorReady($event)"> </quill-editor>    data(){ return { content: '<h3>文本编辑</h3>', editorOption: { } } }, components: { NavHeader, quillEditor, }, computed: { editor() { return this.$refs.myQuillEditor.quill } }, methods: { onEditorReady(editor) { console.log('editor ready!', editor) }, submit(){ console.log(this.content); this.$message.success('提交成功!'); } }   这样就已经完成了,但是有的时候在页面中 这样之后

React学习记录

ε祈祈猫儿з 提交于 2019-11-28 21:23:01
托webpack的福,我终于可以开始写React了。==ORZ 我感觉我接近webpack工程师更进一步了哈哈哈。 以下所有内容均来自小红书,仅是我的个人记录,如想系统学习,请移步:React小书 : http://huziketang.com/books/react/lesson1 超级推荐+收藏文档:React小书 : http://huziketang.com/books/react/lesson1 参考文档: 1.React官网 2. react组件生命周期 特别注意(不定时更新,越往上越新): 今天学到了小书的第三阶段中的context,应该算是前面学的变量不断提升到store的使用的过渡吧,之前入门过vuex,想必这里不会很难?关于这个context也是非常有趣,React团队觉得它危险,所以将它的使用设定的比较麻烦,如果不按照其章程写,它就不给你显示,哈哈,也是很符合人性化啊。以下只放部分代码,Title是在Header组件中的,内容都是小书的,比较简单: http://huziketang.com/books/react/lesson29 下方这个是不显示的。 class Index extends Component { static childContextTypes = { themeColor: PropTypes.string } constructor(