文学

【感想文】找到自己的兴趣所在,坚持下去。写文章,学习,我的坚持。

雨燕双飞 提交于 2019-11-29 02:23:16
有段时间没有写文章了。感觉每次写文章都是一边写一边想很久。非常浪费时间,而且写得内容也不是很好。很多也都还是临时发挥。因此我决定之后经常写一下日常,类似日记。来锻炼自己的写作能力。设在晚上。写下今天的事情或想法。 我现在也觉得我写文章也总是前后不通顺。但我相信做多了一定会有改观了。花时间去改动才能变得更好。 今天周六,早上还是一样,在家里躺到了10点多才起床。因为也是单身嘛,所以没有怎么出门,只是一个人出门吃了个午饭。基本把早饭和午饭一起给吃了。我朋友还是每天早上都会饿的那种。早上还吐槽她是不是特别容易饿的人。早上洗漱之后就去吃午饭了。其实我知道饮食不均会对身体不好,要去改变,一定要有个计划。然后去实施。并且不能中断和放弃,否则任何事情都办不好。 在去吃饭的时候,因为那家饭店基本上都是很多人搭伙去吃的,而我一个人难免会感觉到孤单。但是又想想,我想要和朋友一起吃吗?并不是我喜欢的人也不是喜欢我的人我真的有必要一起吗? 今天下午倒是想了挺多的。可能也是因为是一个人呆着吧。所以想得会很多。但是想过之后有忘了。 我个人其实有很多爱好和兴趣,比如写作、唱歌、做视频...,但是很多也都还是三分钟热度。这样很不好。我呢,很多时候也特别容易被周围的人或物打扰。但是又不怎么敢去与对方交流。就是怕说不到几句话,然后没词了,怕尴尬。但是其实这样不行。想认识对方就大胆地去认识对方

scrapy两种方法爬取网站小说

徘徊边缘 提交于 2019-11-28 22:15:55
第一种,使用spider爬取 首先选择一个初始的小说链接,例如小说第一章的链接https://www.zwdu.com/book/11029/2297440.html 我爬去的是这个网站,链接中的小说 首先,创建一个项目 scrapy startproject novel 创建spider scrapy genspider spider https://www.zwdu.com/book/11029/2297440.html 然后开始分析网站,因为该网站小说的链接没有规律,所以我选择通过下一页链接爬取下一章节的内容,然后到了最后一个章节发现最后的下一页链接不包含.html,可以设置一个if语句,来结束爬取。 这是下一章节链接在的地方。可以通过xpath来提取链接 这里是最后一章,链接不包括.html,可以用来作为停止爬取的条件 这里是我爬取的源码 spider.py # -*- coding: utf-8 -*- from scrapy import Request,Spider import json class SpiderSpider(Spider): name = 'spider' #allowed_domains = ['www.zwdu.com'] start_urls = ['https://www.zwdu.com/book/26215/8210673.html']

python爬虫练习

人走茶凉 提交于 2019-11-28 22:15:29
Python爬虫练习 工作需要学习Python,随手找了个小说网站,写了个下载小说的功能 小说网站: www.tianxiabachang.cn 选择第一个小说: 1、可以发现网站是使用“0_376”来标记这本小说,根据这个标号提供下载功能。 2、查看网页源代码: < div id = "maininfo" > < div id = "info" > < h1 > 斗罗大陆 IV 终极斗罗 < / h1 > < p > 作 & nbsp ; & nbsp ; & nbsp ; & nbsp ; 者:唐家三少 < / p > < p > 动 & nbsp ; & nbsp ; & nbsp ; & nbsp ; 作: < a href = "/newmessage.php?tosys=1&title=小说《斗罗大陆IV终极斗罗》错误举报!&content=举报原因如下:缺少第( )章;第( )章没内容;其他原因:" target = "_blank" rel = "nofollow" > 小说错误举报 < / a > , < a href = "javascript:;" onClick = "showpop('/modules/article/addbookcase.php?bid=376&ajax_request=1');" > 加入书架 < / a > , < a href =

Python爬虫——从笔趣阁爬小说

南楼画角 提交于 2019-11-28 22:14:25
这是一个练习作品。用python脚本爬取笔趣阁上面的免费小说。 环境:python3 类库:BeautifulSoup 数据源: http://www.biqukan.cc 原理就是伪装正常http请求,正常访问网页。然后通过bs4重新解析html结构来提取有效数据。 1. config文件 包含了伪装请求头部,数据源配置(如果不考虑扩展其他数据源,可以写死)。 #!/usr/bin/python #coding:utf-8 import sys reload(sys) sys.setdefaultencoding('utf8') source = { 'biquge': { 'base_url': 'http://www.biqukan.cc', 'category_min': 1, 'category_max': 2, 'category_url': 'http://www.biqukan.cc/fenlei{id}/1.html' } } header = [ {'User-Agent': 'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.76 Mobile Safari/537.36'}, {'User

python3爬取笔趣阁小说

耗尽温柔 提交于 2019-11-28 22:14:08
爬虫第一步:确定要爬取的信息 确定要爬取的网站的URL地址: http://www.xbiquge.la/6/6818/ 第二步:分析网站信息 爬小说要获取小说章节目录名称和每一章的阅读链接 第三步:编写代码: 本次爬虫练习完整代码,存在缺陷,小说章节过多的话爬虫可能会被封Ip import requests import re from lxml import etree import os import time def get_html(): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36' } # 小说目录URL,改变这个URL就可以下载对应的小说 url = 'http://www.xbiquge.la/6/6818/' html = requests.get(url, headers=headers).content.decode('utf-8') return html def get_novel_url(html): ''' 获取章节名和链接 ''' pat2 = r"<dd><a href='(.*?)' >(.*?)</a></dd>"

书都不会读,你还想成功

北战南征 提交于 2019-11-28 18:07:58
今天好像是世界读书日,最近刚好读了一本关于读书的书:《书都不会读,你还想成功》,觉得还不错。 这本书的书名很大,不只是书名,内容也很大。 但是书中提到的一些方法论还是很受用的。 本书主要是借助主人公的故事,给我们带来读书的作用、读书的方法论。 书的主人公洪镇洙,工作生活家庭,都遇到了瓶颈,然后如何通过读书一步步的改变,改变了自己的生活、工作状态,最终走向成功。 这里,我觉得不能直接得出读书就能成功的结论。 不过,读书真的可以改变一个人的状态,改变你的知识储备,进而带来整个人气质的改变,也就是古语说的“腹有诗书气自华”吧。 我们不关心书中人物的故事,说说文中提到的读书方法论吧。 读书的三个阶段 一、100 天 33 本读书计划 刚开始时,我们都有这种情况,看到别人宣扬的读书的好处,然后立马买了一摞书,但是时间久了呢,那堆书最终还是在那,也许偶尔拿来盖泡面了吧。 为什么会这样? 我觉得主要是书选得太“沉重”,导致无法坚持下去。 100 天读 33 本书的 7 个秘诀 1、购买能够抓住你心的 33 本书,不论是书的封面、作家还是内容。 2、每天早晨和晚上睡觉前大声地连说三遍“我今天要读书”这句话! 3、在日记本或笔记本上坚持写读书日记,同时也简单地记录一下书的名字及所读的页数等。 4、严格遵守早晨读书 1 个小时,严格遵守晚上读书 1 个小时。 5、严格遵守上下班路上各读书 30 分钟。

小说大纲

我怕爱的太早我们不能终老 提交于 2019-11-28 15:08:26
小说大纲速成模版 【一、 类型】 都市、青春、言情、军事、历史、其他、悬疑,幻想类包括:玄幻、奇幻、穿越、修真。 【二、 基调】:正剧、喜剧、悲剧、轻松、爆笑、暗黑 文字建立:普通,搞笑,伤感,唯美 【三、全文字数】:(写大概字数)比如 30 万、 100 万,给一个定位。 【四、 内容的梗概】: 1 :起因 2 :发展 3 :转折 4 :高潮 5 :结束主线情节设定: 包括 1 ,主线 -2 ,辅线 -3 ,事件线 -4 ,感情线(高潮、起伏、低谷): 5 ,注意前后逻辑:(一个新文的整体的故事梗概,就是你想要讲一个什么样的故事:写清晰主线。写几百一千字左右。) 【五、 出场人物】: 主角: 角色一 ① .姓名:取名就随作者喜好。这里不建议取一些生僻的字,不然读者把文看完了都不认得那个字念什么就悲剧了。名字要简单容易记! ② .人物外貌(发色发型眼睛携带物品):外貌可以反映出一个人的性格脾气,比如:眉心有 “ 川 “ 字的人,容易生气,性格较为急躁等等 …… ③ .性格介绍:直脾气,自尊心强,爱恨分明等。 ④ .人物背景:现代啊古代啊完全不限,如果是架空也需要一个复杂的背景,衬托出角色社会地位,能力等等。 ⑤. 技能:古代的就写会啥武功:降龙十八掌啊,一阳指啊之类。现代文就写角色特长,比如谁会小提琴啊,钢琴啊 …… 这个特长是不限。 角色二: 同上格式(一般主角是两个:男主、女主

记我的BIBF之旅

旧街凉风 提交于 2019-11-28 06:14:15
我是工科生,所以下面的介绍不会特别专业,只是自己平时喜欢看书,喜欢文创,也比较在意书籍的装帧和设计,因此怀着期待的心情又做了次“假专业”的专业观众。上次是前年的BIBF,去年有事错过,今年与前年相比,真的发展了许多,由其书籍,数字化,还有5G相遇到一起,会迸发出奇妙耀眼的火花。 1、首先列一下自己觉得非常漂亮的书籍。 非常漂亮的书籍 其中最让我信息的是最后一行的书籍——中国古典美学史(全二卷)。回来在当当上搜了一下,特将内容简介摘抄至此。 本书系统梳理中国美学的独特发展历程,将中国古典美学分为奠基期、突破期、鼎盛期、转型期、总结期五个阶段,用五编四十九章内容,对各阶段重要美学思想及其代表人物作翔实介绍,涉及诗歌、绘画、书法、音乐等诸种艺术美学,独创性地概括出一个完整的中国古典美学体系。 从时间上看,自先秦到近代,中国古典美学发展各个阶段重要的美学思想及其代表人物,本书都做了翔实介绍,书中还特别分析了在中国文化史上有着重要影响的先秦儒道阴阳诸家及汉代经学、魏晋玄学、隋唐佛学、宋明理学、清代朴学对美学的影响。从范围来看,诗歌、绘画、书法、音乐、戏曲、小说、建筑、园林等诸种艺术美学,本书都做了清晰的梳理。某一历史阶段代表性艺术,如先秦的《诗经》《楚辞》、汉代的赋、唐代的诗、宋代的词、明清的小说戏曲,本书有重点评论。 对于中国古典美中“美”“妙”“味”“兴”“游”“神”“气”“韵”“逸

【托福写作】写作素材库语料库总结

╄→гoц情女王★ 提交于 2019-11-27 12:40:41
本文无任何广告,所有信息均搜集自第三方英语网站,并付上原文链接 托福写作语料库 教育类托福写作语料(23篇) 点击查看 观点类托福写作语料(17篇) 点击查看 健康类托福写作语料(4篇) 点击查看 选择类托福写作语料(4篇) 点击查看 工作类托福写作语料(8篇) 点击查看 媒体类托福写作语料(8篇) 点击查看 环保类托福写作语料(1篇) 点击查看 政府类托福写作语料(8篇) 点击查看 友谊类托福写作语料(5篇) 点击查看 来源: https://blog.csdn.net/qq_38604355/article/details/99354193

初次尝试python爬虫,爬取小说网站的小说。

二次信任 提交于 2019-11-27 09:44:15
本次是小阿鹏,第一次通过python爬虫去爬一个小说网站的小说。 下面直接上菜。    1.首先我需要导入相应的包,这里我采用了第三方模块的架包, requests 。 requests是python实现的简单易用的HTTP库,使用起来比urllib简洁很多,因为是第三方库,所以使用前需要cmd安装。   cmd安装方式,打开cmd,输入以下命令:                      pip install requests   2.添加相应的包后,我们需要一个小说链接去爬下这本小说也就是一个url。下面是我当时爬的小说url:http://www.shujy.com/5200/244309/   3.我们现在有了小说的链接,这时候就要模拟浏览器发送http的请求:  response=requests.get(url) response.encoding='gbk'    4.我们可以尝试获取目标小说的网页源码  html=response.text    我们把它打印出来看下:       有html基础的朋友应该对这些很熟悉。通过打印我们可以看见小说的名字,作者,以及小说章节的url。这时候我们就先通过HTML网页源码获取小说的名字: title=re.findall(r'<meta property="og:novel:book_name" content="(.*?