小说

三体和银河帝国基地孰优孰劣?

試著忘記壹切 提交于 2020-03-02 18:00:58
三体是更好的科幻小说。 相比于三体,银河帝国的优点有: 1:情节的细节丰富 2:人物的形象饱满 一篇小说如果能在情节,人物上做的漂亮,那这一定是一篇好小说,但是好小说并不等于好的科幻小说。 科幻小说分为软硬两类,这大家都知道,但我个人认为软科幻并不算是真正的科幻,只是在更宽广的时间和空间里说老故事。如果故事的中心不是科技及其对人类造成的影响,那么这很难说是一篇合格的科幻小说。而阿西莫夫最大的缺点就是太软了。 我读过阿西莫夫的很多小说,但是并不觉得他有多么丰富的想象力。阿西莫夫生活的年代虽然远未进入信息时代,但前沿物理学发展和今天的差距并不大。可阿的小说里却极少表现科技的影响,未来的世界和阿西莫夫生活的19世纪似乎并没有太大区别(记得微缩胶片和遍布银河系的火力发电站吗?),而提到科技时也避重就轻,对那些能令人兴奋的科学原理只字不提。相反,他花大量笔墨描绘人物,与其说是一篇科幻,不如说是社会小说。 相比之下,大刘够硬。大刘虽然手法比较单薄,但想象力确实比阿西莫夫更加丰富。记得有一段评价是这样的:四个面壁人计划,每一个都可以作为很好的结尾,但刘慈欣不满足于此,用黑暗森林法则构建了一个全新的宇宙秩序。 阿西莫夫确实有很高的地位,但这是作为文学家的地位而非科幻小说家。实际上,如果把星舰换成大船,把星球变成国家,这银河帝国的故事和罗马帝国(我认为更像英国)的扩张没有什么区别

小说爬虫(第一次写爬虫)

可紊 提交于 2020-02-28 20:24:42
小说爬虫(第一次写爬虫) 标签: python 爬虫 看了B站上的教程跟着写了一个爬虫小程序,感觉理论上并不难。 爬文本这应该是最好写的爬虫了。对python有一定的熟练度即可。 原理就是利用python的requests模板,模拟浏览器对服务器发送请求,然后对接收的html源代码文本进行字符串处理。 import requests import re import os # 第一步,打开有章节目录的网页. url0 = "https://www.xs4.cc/yingluejiutian/" headers = {'User-Agent': '123456abc'} #更改用户名称(可以使一些网站反爬虫手段失效). response = requests.get(url0, headers = headers) #发出请求. response.encoding = 'gbk' #汉字解码. #第二步,对网页的源代码进行文本处理,获得章节目录和网址. html = response.text #用正则表达式对文本进行筛选处理. bl = re.findall(r'<dl id="booklistBox">.*?</a></dd></dl>', html, re.S)[0] #re.S能匹配到包括换行,空格在内的 chapters = re.findall(r'<dd data=".

科幻小说生成器

大憨熊 提交于 2020-02-02 14:21:57
半夜被情发猫吵醒,脑子里闲不住冒出很多想法,有想到把一些想法写成科幻小说去投稿,但是感觉小说构思太啰嗦,毕竟在做web开发,代码能少尽量少嘛。 如果把自己的主要想法输入,就能生成出一篇结构合理、情节丰富的小说来,我觉得是相当给力的人工智能了,哪怕需要多生成几次再作选择,或者需要稍作更正也可以接受的。 来源: CSDN 作者: wenhu8000 链接: https://blog.csdn.net/qq_41962562/article/details/104141648

简单小说爬取

折月煮酒 提交于 2020-01-23 03:27:32
关于简单的小说爬取 import requests #requests是一个HTTP请求库 from pyquery import PyQuery #网页解析 原生CSS解析器 css层叠样式表 # 章节url name书名 def get_one_chapter ( chapter_url = None , name = None , shunxu = None ) : ''' :param chapter_url: 章节url :param name: 书名 :return: None ''' response = requests . get ( url = chapter_url ) # doc = PyQuery ( response . text ) title = doc ( "h1" ) . text ( ) content1 = doc ( "#nr1" ) . text ( ) print ( shunxu , title , content1 ) num = str ( shunxu ) with open ( file = num + title + ".txt" , mode = 'a+' , encoding = 'utf_8' ) as f : # 里面能写入文字,不能写入对象列表 f . write ( title + " \n\n " +

热点书库小说多线程下载器 V1.0

落爺英雄遲暮 提交于 2020-01-21 10:19:01
专为好友楠楠编写 Ctrl+V 粘帖网址 //========================================= 使用说明: 1、如果您的机器没有安装 Java 运行时,请从这里下载并安装,并在安装完毕后刷新页面 下载 Java 2、下载后的小说保存在桌面上 3、如果弹出一下窗体,请选择信任,并点击运行 4、热点书库网址: http://www.hotsk.com/ 5、进入一部小说的目录,如下图: 6、将网址复制到文本框中,点击开始,等待下载信息显示“完成”后,可以下载另外一部小说或者关闭页面 7、下载过程中可以点击“停止”中断下载,但是请等待下载信息显示“完成”后,再关闭页面 来源: https://www.cnblogs.com/myqiao/archive/2009/04/29/1445804.html

免app下载笔趣阁小说

牧云@^-^@ 提交于 2020-01-21 09:37:17
第一次更新:发现一个问题,就是有时候网页排版有问题的话容易下载到多余章节,如下图所示:   网站抽风多了一个正文一栏,这样的话就会重复下载1603--1703章节。   解决办法:     于是在写入内容前加了一个章节判断,让内容获取从第一章开始,这样就能避免此类问题。如下图:   这个是对最近学习的一次总结吧。前两天写的,今天才有时间写博客。   偶然点开笔趣阁的网址(https://www.biquge.cc/),突然觉得我应该可以用爬虫实现小说下载。有这个想法我就开始尝试了。      爬虫呀,说白了就是程序自动模拟浏览器操作来获取网页的内容。   先用F12查看元素,查看章节网址链接,和章节正文内容。   结构很简单。   想法很快就有了,通过网站的搜索打开小说详情页,然后获取每一章的网址url,依次访问每一章网址,再通过正则表达式匹配章节内容, 最后将匹配的内容保存到本地。   中间忘了一个小的知识点,就是我使用re.findall()来匹配的,它最后返回的时一个列表!!!   运行结果如下图:         代码如下:    #!/usr/bin/env python # -*- coding: utf-8 -*- # @Time : 2018/10/20 15:46 # @Author : yuantup # @Site : # @File : biquge.py

用爬虫爬取笔趣阁小说

五迷三道 提交于 2020-01-21 09:36:05
#时间 2019年3月4日19:16:06#:https://www.bequge.com #功能:爬取笔趣阁任何小说。 from urllib import request from bs4 import BeautifulSoup #此函数用来获取每章对应的小说,并保存小说 def secondOpenURL(url,ch_name): # 请求每章详细内容 date = request.urlopen(url).read().decode('gbk') soup = BeautifulSoup(date, 'html.parser').find('div', attrs={'id': 'content'}) # 对正文进行处理,去除多余的字 novel = str(soup).replace('<br/>', '').replace('<div id="content">', '').replace('</div>', '') #换成相对应的保存地址。最好是绝对路径 filepath = '../Day02/novel_剑来/剑来/%s'%(ch_name) with open(filepath, 'w', encoding='utf-8') as f: f.write(novel) f.close() print('%s-》缓存完成'%(ch_name)) #

爬虫大作业之爬取笔趣阁小说

ぐ巨炮叔叔 提交于 2020-01-21 09:34:58
# _*_ coding:utf-8 _*_ import requests import threading from bs4 import BeautifulSoup import re import os import time req_header={ 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8', 'Accept-Encoding': 'gzip, deflate', 'Accept-Language': 'zh-CN,zh;q=0.9', 'Cache-Control': 'max-age=0', 'Connection': 'keep-alive', 'Cookie': 'UM_distinctid=162f5f44f0113-0313b684ffd29e-5e4c2719-100200-162f5f44f05116; __jsluid=d26199ff490223142ead3dca3b417f0d; PHPSESSID=rcqhhvqkvd9ggs9mqarotu54n7; CNZZDATA1272873895=1502087634-1524539933-null%7C1524545333', 'Host': 'm

BS4爬取小说内容

人盡茶涼 提交于 2020-01-20 00:26:28
利用Beautiful Soup4和requests库来爬取小说内容: 使用bs4的CSS选择器时要根据对应网页的标签内容而定。 # *-* coding:utf-8 *-* # 爬取 落霞小说网-<余庆年> from bs4 import BeautifulSoup import requests html = requests . get ( 'https://www.luoxia.com/qing/' ) soup = BeautifulSoup ( html . text , 'html.parser' ) chapters = soup . select ( "div ul li a" ) count = 0 for chapter in chapters : print ( chapter . string ) count += 1 if 5 == count : # 爬取5章 break novel = requests . get ( chapter [ 'href' ] ) # 获得对应章节的html代码 newSoup = BeautifulSoup ( novel . text , 'html.parser' ) with open ( 'novel.txt' , 'a+' , encoding = 'utf-8' ) as f : print (

scrapy+baiduapi搭建一个私人小说阅读器(智能爬取加智能朗读)(二)

最后都变了- 提交于 2020-01-14 11:51:08
写在前面的话 上章说了智能爬取,拿到了网上小说的信息,这章开始利用这些数据进行智能朗读。搜索网上朗读的方法,主要包括微软自带的speeker,三方智能语音api。经过筛选,我选择了语音包还算丰富(主要妹子声音甜美)的百度api进行智能朗读(文本转语音,这里主要是MP3格式,wav貌似测试有问题),阅读功能用微软com自带的控件。 小说数据UI展示 小说的信息主要包括小说的基本信息,小说的章节信息,小说的文本详细信息。这里围绕这个,根据window form设计一个界面。 (本人非专业UI,界面丑陋请谅解) 小说列表UI展示   左侧展示数据库服务器里面的小说列表(数据绑定),代码如下: DataSet dataSet= dbProvider.ExecuteDataSet($"select BookName,Id from BookBasic"); if (dataSet != null) { List<BookInfo> bookInfos = new List<BookInfo>(); foreach (DataRow item in dataSet.Tables[0].Rows) { bookInfos.Add(new BookInfo() { Id = item[1].ToString(), BookName = item[0].ToString() }); }