url

药物不良反应数据库信息的下载

。_饼干妹妹 提交于 2020-02-22 11:08:31
需求:如图,我想把不良反应数据库中的每个药品的不良反应相关信息给获取到 点击详细信息之后 分析页面请求,发现是ajax请求,   第一步,我们需要获取详细页面的url,也就是药品ID   第二步,拿到详细页面的url,下载页面   第三步,提取页面中的适应症和不良反应,并将数据写入文件 代码 # -*- coding: utf-8 -*- """ @Datetime: 2019/1/11 @Author: Zhang Yafei """ import json import numpy import os from gevent import monkey monkey.patch_all() import gevent from urllib.parse import urljoin import pandas as pd import requests from concurrent.futures import ThreadPoolExecutor from lxml.etree import HTML url_list = [] drug_list = [] def task(page): origin_url = 'http://pharm.ncmi.cn/dataContent/dataSearch.do?did=6' headers = {'User-Agent':

信息化领域热词分类分析及解释实战

与世无争的帅哥 提交于 2020-02-21 18:39:35
一、 (1) 项目名称:信息化领域热词分类分析及解释 (2) 功能设计: 数据采集:要求从定期自动从网络中爬取信息领域的相关热 词; 数据清洗:对热词信息进行数据清洗,并采用自动分类技术 生成信息领域热词目录,; 热词解释:针对每个热词名词自动添加中文解释(参照百度 百科或维基百科) 热词引用:并对近期引用热词的文章或新闻进行标记,生成 超链接目录,用户可以点击访问; 数据可视化展示: ① 用字符云或热词图进行可视化展示; ② 用关系图标识热词之间的紧密程度。 首先我爬取热词的地址是博客园:https://news.cnblogs.com/n/recommend python代码: import requests import re import xlwt url = 'https://news.cnblogs.com/n/recommend' headers = { "user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36" } def get_page(url): try: response = requests.get(url, headers=headers) if response

python爬虫步骤 (新手备学 )爬虫编程。

蹲街弑〆低调 提交于 2020-02-21 18:30:25
Python爬虫是用Python编程语言实现的网络爬虫,主要用于网络数据的抓取和处理,相比于其他语言,Python是一门非常适合开发网络爬虫的编程语言,大量内置包,可以C Python爬虫可以做的事情很多,如搜索引擎、采集数据、广告过滤等,Python爬虫还可以用于数据分析,在数据的抓取方面可以作用巨大! Python爬虫架构组成 1. URL管理器:管理待爬取的url集合和已爬取的url集合,传送待爬取的url给网页下载器; 2. 网页下载器:爬取url对应的网页,存储成字符串,传送给网页解析器; 3. 网页解析器:解析出有价值的数据,存储下来,同时补充url到URL管理器。 Python爬虫工作原理 Python爬虫通过URL管理器,判断是否有待爬URL,如果有待爬URL,通过调度器进行传递给下载器,下载URL内容,并通过调度器传送给解析器,解析URL内容,并将价值数据和新URL列表通过调度器传递给应用程序,并输出价值信息的过程。 Python爬虫常用框架有: grab:网络爬虫框架(基于pycurl/multicur); scrapy:网络爬虫框架(基于twisted),不支持Python3; pyspider:一个强大的爬虫系统; cola:一个分布式爬虫框架; portia:基于Scrapy的可视化爬虫; restkit:Python的HTTP资源工具包

jquery ajax

陌路散爱 提交于 2020-02-21 17:03:42
function testajax(){ $.ajax({ //提交数据的类型 POST GET type:"POST", //提交的网址 url:"testLogin.aspx", //提交的数据 data:{Name:"sanmao",Password:"sanmaoword"}, //使用同步的方式,true为异步方式 默认true async:false, //返回数据的格式 datatype: "html",//"xml", "html", "script", "json", "jsonp", "text". //在请求之前调用的函数 beforeSend:function(){$("#msg").html("logining");}, //成功返回之后调用的函数 success:function(data){ $("#msg").html(decodeURI(data)); } , //调用执行后调用的函数 complete: function(XMLHttpRequest, textStatus){ alert(XMLHttpRequest.responseText); alert(textStatus); //HideLoading(); }, //调用出错执行的函数 error: function(){ //请求出错处理 } }); } 1. load ( url

美团小程序框架mpvue入门

筅森魡賤 提交于 2020-02-21 10:00:08
mpvue 主要特性 使用 mpvue 开发小程序,你将在小程序技术体系的基础上获取到这样一些能力: 1. 彻底的组件化开发能力:提高代码复用性 2. 完整的 Vue.js 开发体验 3. 方便的 Vuex 数据管理方案:方便构建复杂应用 4. 快捷的 webpack 构建机制:自定义构建策略、开发阶段 hotReload 5. 支持使用 npm 外部依赖 6. 使用 Vue.js 命令行工具 vue-cli 快速初始化项目 7. H5 代码转换编译成小程序目标代码的能力 如果你有过vue的开发经历,相信你会对这个过程非常熟悉,甚至你都不需要安装其他工具, 直接用vue-cli创建项目,如果你一起没安装过vue-cli,那么你要先运行一下命令 npm install --g vue-cli 安装完vue-cli以后,我们就可以运行一下命令,来自动构建一个项目(期间会询问你是否使用一些工具/插件, 请根据自己的实际情况选择y或n,对于不懂得该选y还是n的,统统选n) vue init mpvue/mpvue-quickstart test-wxapp 然后 进入我们创建的项目,并安装依赖 cd test-wxapp npm i 最后,在运行一下我们的开发服务 npm run dev 项目就跑起来了,这个时候,我们打开微信开发者工具,选择小程序,然后新建一个,项目目录填

编写 Django 应用单元测试

被刻印的时光 ゝ 提交于 2020-02-21 09:35:32
作者: HelloGitHub-追梦人物 文中所涉及的示例代码,已同步更新到 HelloGitHub-Team 仓库 我们博客功能越来越来完善了,但这也带来了一个问题,我们不敢轻易地修改已有功能的代码了! 我们怎么知道代码修改后带来了预期的效果?万一改错了,不仅新功能没有用,原来已有的功能都可能被破坏。此前我们开发一个新的功能,都是手工运行开发服务器去验证,不仅费时,而且极有可能验证不充分。 如何不用每次开发了新的功能或者修改了已有代码都得去人工验证呢?解决方案就是编写自动化测试,将人工验证的逻辑编写成脚本,每次新增或修改代码后运行一遍测试脚本,脚本自动帮我们完成全部测试工作。 接下来我们将进行两种类型的测试,一种是单元测试,一种是集成测试。 单元测试是一种比较底层的测试,它将一个功能逻辑的代码块视为一个单元(例如一个函数、方法、或者一个 if 语句块等,单元应该尽可能小,这样测试就会更加充分),程序员编写测试代码去测试这个单元,确保这个单元的逻辑代码按照预期的方式执行了。通常来说我们一般将一个函数或者方法视为一个单元,对其进行测试。 集成测试则是一种更加高层的测试,它站在系统角度,测试由各个已经经过充分的单元测试的模块组成的系统,其功能是否符合预期。 我们首先来进行单元测试,确保各个单元的逻辑都没问题后,然后进行集成测试,测试整个博客系统的可用性。 Python 一般使用标准库

如何半个小时做出一个《新型冠状病毒同程查询》

╄→尐↘猪︶ㄣ 提交于 2020-02-21 07:10:24
很开心在昨天做出了 《新型冠状病毒同程查询》 这个工具,一方面给过年不能出门闲的发慌的自己找了些事情干,另一方面也帮助到了许多人,今天来扒一扒我到底做了些啥。(其实写教程比写网站还要花时间=_=,不过很庆幸过年回来还背了一个笔记本,不然早就疯了) 1原站 感谢原网站,在微信传播的很广泛,我做的就是仿写的这个网站,扒了一些数据,参考了一些代码。我就假设各位对啥都不懂哈,从最基本的讲一讲。 原站点 基于纯静态的网站,只有html+js就可以搞定。想要查看源代码,只需要在浏览器中点击鼠标右键->查看网页源代码 即可。通过源码就可以看出使用的前端样式框架是 layui ,表格直接就是layui的数据表格。不得不夸赞一下layui,数据表格的功能挺全的,分页也都是封装好的。 通过按F12,我们可以查看更多信息,切换到Network的选项卡,然后刷新页面,我们可以看到发送的请求。如图所示的是最终请求数据的那个http get请求,可见一开始数据是以静态的方式放在阿里云的对象存储了,后面重写的v1.2版本是更换了后端。 2仿写第一步,爬数据 其实说来惭愧,根本不是爬数据,因为总共就200多条数据,接口也是放开的。爬数据只要用Python就可以了,在自己的电脑上装一个python3(更多时候可能需要用到多环境,我个人在用anaconda,一个管理Python环境和包依赖的工具)

java 自带 http get/post 请求

≡放荡痞女 提交于 2020-02-21 06:03:06
请求参数,请求参数应该是 name1=value1&name2=value2 的形式。 1 import java.io.BufferedReader; 2 import java.io.IOException; 3 import java.io.InputStreamReader; 4 import java.io.PrintWriter; 5 import java.net.URL; 6 import java.net.URLConnection; 7 import java.util.List; 8 import java.util.Map; 9 import java.util.Set; 10 11 public class HttpRequest { 12 /** 13 * 向指定URL发送GET方法的请求 14 * 15 * @param url 发送请求的URL 16 * @param param 请求参数,请求参数应该是 name1=value1&name2=value2 的形式。 17 * @return URL 所代表远程资源的响应结果 18 */ 19 public static String sendGet(String url, String param) { 20 String result = ""; 21 BufferedReader in =

java中发送http请求

∥☆過路亽.° 提交于 2020-02-21 05:59:33
使用HttpClient发送http请求: 1 public String cawl(String url){ 2 try { 3 CloseableHttpClient httpClient = HttpClientBuilder.create().build();//初始化 4 CloseableHttpResponse httpResponse = httpClient.execute(new HttpGet(url));//获取页面信息 5 String result = EntityUtils.toString(httpResponse.getEntity());//将对象转换成字符串输出 6 return result; 7 } catch (IOException e) { 8 throw new RuntimeException(e); 9 } 10 } 使用Url发送http请求: 抽象类URLConnection:所有类的超类,它代表应用程序和 URL 之间的通信链接。此类的实例可用于读取和写入此 URL 引用的资源 1 try { 2 URL url = new URL("http://www.baidu.com"); 3 URLConnection connection = url.openConnection(); 4 for (int i = 1;;i+

java 发送 http 请求

一个人想着一个人 提交于 2020-02-21 05:57:51
概述 在java中,我们发送http请求(get、post) 主要有两种方法 使用Java原生HttpURLConnection 使用第三方库,例如 Apache的HttpClient库 HttpURLConnection 下面的代码分别是使用 get 进行 http 访问和 使用 post 进行 https 访问的例子 package com.mkyong; import java.io.BufferedReader; import java.io.DataOutputStream; import java.io.InputStreamReader; import java.net.HttpURLConnection; import java.net.URL; import javax.net.ssl.HttpsURLConnection; public class HttpURLConnectionExample { private final String USER_AGENT = "Mozilla/5.0"; public static void main(String[] args) throws Exception { HttpURLConnectionExample http = new HttpURLConnectionExample(); System.out