response

利用POI生成Excel并通过Servlet下载示例

匆匆过客 提交于 2020-01-28 03:40:51
Java代码 package com.ljz; import java.io.BufferedInputStream; import java.io.BufferedOutputStream; import java.io.ByteArrayInputStream; import java.io.ByteArrayOutputStream; import java.io.IOException; import java.io.InputStream; import javax.servlet.ServletException; import javax.servlet.ServletOutputStream; import javax.servlet.http.HttpServlet; import javax.servlet.http.HttpServletRequest; import javax.servlet.http.HttpServletResponse; import org.apache.poi.hssf.usermodel.HSSFCell; import org.apache.poi.hssf.usermodel.HSSFRow; import org.apache.poi.hssf.usermodel.HSSFSheet; import org.apache

HttpClient详细解释

泪湿孤枕 提交于 2020-01-28 00:58:03
Http协议的重要性相信不用我多说了,HttpClient相比传统JDK自带的URLConnection,增加了易用性和灵活性(具体区别,日后我们再讨论),它不仅是客户端发送Http请求变得容易,而且也方便了开发人员测试接口(基于Http协议的),即提高了开发的效率,也方便提高代码的健壮性。因此熟练掌握HttpClient是很重要的必修内容,掌握HttpClient后,相信对于Http协议的了解会更加深入。 org.apache.commons.httpclient.HttpClient与org.apache.http.client.HttpClient的区别 Commons的HttpClient项目现在是生命的尽头,不再被开发, 已被Apache HttpComponents项目HttpClient和的HttpCore 模组取代,提供更好的性能和更大的灵活性。 一、简介 HttpClient是Apache Jakarta Common下的子项目,用来提供高效的、最新的、功能丰富的支持HTTP协议的客户端编程工具包,并且它支持HTTP协议最新的版本和建议。HttpClient已经应用在很多的项目中,比如Apache Jakarta上很著名的另外两个开源项目Cactus和HTMLUnit都使用了HttpClient。 下载地址: http://hc.apache.org

APS.NET MVC + EF (11)---过滤器

穿精又带淫゛_ 提交于 2020-01-27 23:20:28
过滤器本质就是对动作方法的执行过程进行干预,这种干预可以影响动作方法执行的各个过程。ASP.NET MVC 提供了4种类型的接口,并在接口中定义了各种成员,代表代码执行的各个阶段,这些接口和成员如表11-1所示。 表11-1 常见过滤器接口 过滤器类型 接口 默认实现 描述 Action IActionFilter ActionFilterAttribute 在动作方法之前及之后运行 Result IResultFilter ActionFilterAttribute 在动作结果被执行之前和之后运行 AuthorizationFilter IAuthorizationFilter AuthorizeAttribute 首先运行,在任何其它过滤器或动作方法之前 Execption IExceptionFilter HandleErrorAttribute 只在另一个过滤器、动作方法、动作结果弹出异常时运行 当动作方法同时应用了继承自这些特性的过滤器后,实际的执行过程如图11-1所示。 图11-1 过滤器执行过程 图11-1中流程并没有列出 OnException() 方法的执行时机,事实上,在执行流程中只要任何环节出现异常,就会执行 OnException()方法。 11.1 过滤器的使用 ASP.NET MVC 的这种过滤器机制,实际是体现了一种 AOP(面向切面) 设计思想

Response January 27,2020

允我心安 提交于 2020-01-27 15:55:53
## Response对象   * 功能:设置响应消息 1. 设置响应行   1. 格式:HTTP/1.1 200 ok   2. 设置状态码:setStatus(int sc) 2. 设置响应头:   setHeader(String name, String value) 3. 设置响应体:   * 使用步骤:     1. 获取输出流       * 字符输出流:PrintWriter getWriter()       * 字节输出流:ServletOutputStream getOutputStream()     2. 使用输出流,将数据输出到客户端浏览器 重定向 :资源跳转的方式   * 重定向的特点: redirect   1. 地址栏发生变化   2. 重定向可以访问其他站点(服务器)的资源   3. 重定向是两次请求。不能使用request对象来共享数据 * 转发的特点:forward   1. 转发地址栏路径不变   2. 转发只能访问当前服务器下的资源   3. 转发是一次请求,可以使用request对象来共享数据 package web.response; import javax.servlet.ServletException; import javax.servlet.annotation.WebServlet; import javax

Response验证码案例 January 27,2020

∥☆過路亽.° 提交于 2020-01-27 15:55:43
<!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <title>验证码点击切换</title> <script> /* 分析: 点击超链接或者图片,需要换一张 1.给超链接和图片绑定单击事件 2.重新设置图片的src属性值 */ window.onload=function () {//加载完毕后 var img = document.getElementById("checkCode"); img.onclick = function () {//绑定单击事件 //加时间戳 欺骗服务器 var date = new Date().getTime(); img.src="/order7_Request_Response_war_exploded/checkCodeServlet?"+date; } var a = document.getElementById("change"); a.onclick = function () { //加时间戳 欺骗服务器 var date = new Date().getTime(); img.src="/order7_Request_Response_war_exploded/checkCodeServlet?"+date; } } </script> </head>

爬虫之scrapy框架

本小妞迷上赌 提交于 2020-01-27 13:07:56
一 scrapy框架简介 1 介绍 Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速、简单、可扩展的方式从网站中提取所需的数据。但目前Scrapy的用途十分广泛,可用于如数据挖掘、监测和自动化测试等领域,也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。Scrapy 是基于twisted框架开发而来,twisted是一个流行的事件驱动的python网络框架。因此Scrapy使用了一种非阻塞(又名异步)的代码来实现并发。 整体架构大致如下: """ Components: 1、引擎(EGINE) 引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。有关详细信息,请参见上面的数据流部分。 2、调度器(SCHEDULER) 用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址 3、下载器(DOWLOADER) 用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的 4、爬虫(SPIDERS) SPIDERS是开发人员自定义的类,用来解析responses,并且提取items

IM直播聊天--西瓜视频

巧了我就是萌 提交于 2020-01-27 08:46:52
使用插件: xgplayer IM SDK 下载: npm install xgplayer import "xgplayer"; import HlsJsPlayer from "xgplayer-hls.js"; // IM Web SDK npm install tim-js-sdk --save // 发送图片、文件等消息需要的 COS SDK npm install cos-js-sdk-v5 --save import TIM from 'tim-js-sdk'; import COS from "cos-js-sdk-v5"; 重点: 一、首先 //创建 SDK 实例 let tim = TIM.create({ SDKAppID: 1400261558 }); //注册 COS SDK 插件 tim.registerPlugin({ "cos-js-sdk": COSSDK }); data() { return { // 播放器实例 player: null, // 播放器地址 videoUrl: "", // tim 用户id timId: "", // tim 用户sig timSig: "", // 聊天室ID groupId: 0, // 聊天数据 messageList: [], // 主播名称 playerName: "", // 观看量 watch:

Scrapy多线程爬虫原理

喜你入骨 提交于 2020-01-27 06:49:19
一:多线程爬虫原理 二:Scrapy框架 定义: Scrapy是基于Python实现,方便爬取网站数据、提取结构性数据的应用框架。 底层: 使用Twisted异步网络框架来处理网络通讯,加快下载速度。 不用手动实现异步框架,包含了多种中间件接口,非常灵活。 Scrapy 运行架构流程图: 组件说明: Scrapy Engine(引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。 Scheduler(调度器): 负责接收引擎发送过来的Request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。 Downloader(下载器):负责下载引擎发送的所有Requests请求,并将其获取到的Responses交还给引擎,由引擎交给Spider来处理。 Spider(爬虫):负责处理所有Responses,分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入调度器 Item Pipeline(管道):负责处理Spider中获取到的Item,并进行后期处理(如详细分析、过滤、存储等). Downloader Middlewares(下载中间件):类似一个可以自定义扩展下载功能的组件。 Spider Middlewares(Spider中间件)

asp.net 异常处理

徘徊边缘 提交于 2020-01-27 04:58:38
protected void Application_EndRequest(object sender, EventArgs e) { // 在应用程序关闭时运行的代码 HandlerError(); } private void HandlerError() { if (HttpContext.Current != null) { if (string.IsNullOrEmpty(Request.QueryString["error"])) { var server = HttpContext.Current.Server; var statusCode = HttpContext.Current.Response.StatusCode; Exception ex = server.GetLastError(); if (ex != null || statusCode == 404 || statusCode == 500) { server.ClearError(); Response.StatusCode = 404; Response.Redirect("//www.baidu.cn/nopage.html"); Response.End(); if (ex != null) DependencyResolver.Current.GetService<ILog>()

Android网络连接之HttpURLConnection和HttpClient

只谈情不闲聊 提交于 2020-01-27 04:50:41
1.概念 HTTP 协议可能是现在 Internet 上使用得最多、最重要的协议了,越来越多的 Java 应用程序需要直接通过 HTTP 协议来访问网络资源。在 JDK 的 java.net 包中已经提供了访问 HTTP 协议的基本功能:HttpURLConnection。但是对于大部分应用程序来说,JDK 库本身提供的功能还不够丰富和灵活。 除此之外,在 Android中, androidSDK中集成了 Apache的 HttpClient模块,用来提供高效的、最新的、功能丰富的支持 HTTP 协议工具包,并且它支持 HTTP 协议最新的版本和建议。使用 HttpClient可以快速开发出功能强大的 Http程序。 2.区别 HttpClient是个很不错的开源框架,封装了访问http的请求头,参数,内容体,响应等等, HttpURLConnection是java的标准类,什么都没封装,用起来太原始,不方便,比如 重访问的自定义 ,以及一些高级功能等。 URLConnection HTTPClient Proxies and SOCKS Full support in Netscape browser, appletviewer, and applications (SOCKS: Version 4 only); no additional limitations from