url

3种数据库的连接driver和url

人盡茶涼 提交于 2020-03-02 13:33:30
经常要连接数据库时都要去查查他们的driver以及url,现在将其汇总一下,方便以后查找。 mysql String driver = "com.mysql.jdbc.Driver"; String url = "jdbc:mysql://127.0.0.1:3306/test"; SQL Server String driver = "com.microsoft.sqlserver.jdbc.SQLServerDriver"; url="jdbc:microsoft:sqlserver://127.0.0.1:1433;DatabaseName=test"; Oracle String driver = "oracle.jdbc.driver.OracleDriver"; String url = "jdbc:oracle:thin: @127.0.0.1 :1521:test"; 注意:以上url只适合非集群环境中,如果在集群环境中,请查阅集群环境下的url相关资料。 连接步骤 Class.forName(driver); //加载驱动 Connection conn = DriverManager.getConnection(url, user, password); //获得连接 来源: oschina 链接: https://my.oschina.net/u

跨域(一)

*爱你&永不变心* 提交于 2020-03-02 13:20:34
什么是跨域 要了解跨域,先要说说同源策略。同源策略是由 Netscape 公司提出的一个著名的安全策略,所有支持 JavaScript 的浏览器都会使用这个策略。所谓同源是指,域名,协议,端口相同。当页面在执行一个脚本时会检查访问的资源是否同源,如果非同源,那么在请求数据时,浏览器会在控制台中报一个异常,提示拒绝访问。 同源策略一般又分为以下两种: DOM同源策略:禁止对不同源页面DOM进行操作。这里主要场景是iframe跨域的情况,不同域名的iframe是限制互相访问的。 XmlHttpRequest同源策略:禁止使用XHR对象向不同源的服务器地址发起HTTP请求。 跨域,指的是从一个域名去请求另外一个域名的资源。即跨域名请求!跨域时,浏览器不能执行其他域名网站的脚本,是由浏览器的同源策略造成的,是浏览器施加的安全限制。 跨域解决方案 通过jsonp跨域 document.domain + iframe跨域 location.hash + iframe window.name + iframe跨域 postMessage跨域 跨域资源共享(CORS) nginx代理跨域 nodejs中间件代理跨域 WebSocket协议跨域 方法一:jsonp 1、使用jquery的getJSON()方法,需要注意的是,url中要添加一个参数:callback=? var id_number =

1

时光毁灭记忆、已成空白 提交于 2020-03-02 13:00:08
Python面试重点(web篇) 注意:只有必答题部分计算分值,补充题不计算分值。 第一部分 必答题 注意:除第四题4分以外,其他题均每题3分。 写出常用的bootstrap的样式。 container,row,col-md-1,table table-striped,active,success,form-inline,form-group 什么是响应式布局? 利用媒体查询,让同一个网站兼容不同的终端(PC端、移动端)呈现不同的页面布局。 请通过jQuery发送ajax请求。 <script> $("#sub").click(function(){ var uname = $("#username").val(); var pwd = $("#password").val(); var csrf = $("[name=csrfmiddlewaretoken]").val(); #第二步 $.ajax({ url:"{% url 'login' %}", type:"post", 第三步添加键值对 data:{username:uname,password:pwd,csrfmiddlewaretoken:csrf}, {#headers:{"X-CSRFToken":$.cookie('csrftoken')},#} success:function (res) { console

web

人盡茶涼 提交于 2020-03-02 11:57:18
Python面试重点(web篇) 注意:只有必答题部分计算分值,补充题不计算分值。 第一部分 必答题 注意:除第四题4分以外,其他题均每题3分。 写出常用的bootstrap的样式。 什么是响应式布局? 响应式布局:简而言之,就是一个网站能够兼容多个终端——而不是为每个终端做一个特定的版本。这个概念是为解决移动互联网浏览而诞生的。 请通过jQuery发送ajax请求。 $.ajax({ type: 'POST', url: "http://xxx/yyy/zzz/sendVerifyCode", data:{ phoneNo:$(".tel").val() }, success: function(data){ $.toast("发送成功", "text") }, error: function(){ $.toast("发送失败", "text") } }) JavaScript与this相关的面试题(4分) name = '老男孩'; info = { name:'alex', age:123, func:function(){ console.log(this.name); } } info.func() // alex name = '老男孩'; info = { name:'alex', age:123, func:function(){ console.log(this

Python面试Web篇(附答案)

*爱你&永不变心* 提交于 2020-03-02 11:56:58
必答题 注意:除第四题4分以外,其他题均每题3分。 1,写出常用的bootstrap的样式。 引入jquery.js文件 栅格系统:<div class="col-md-1>1</div> 表格样式:table 表单样式:.form-control来修饰 支持多行文本的文本域:<textarea class="form-control" rows="3"></textarea> 单选框和多选框 按钮:button 图片:img 2,什么是响应式布局? 跟随设备界面大小自动更改内容大小 3,请通过jQuery发送ajax请求。 $.ajax({ type:请求方式, url: 请求地址, data:请求参数, dataType: 服务器返回值类型, success:回调函数 }); 4,JavaScript与this相关的面试题(4分) name = '老男孩'; ​ info = { name:'alex', age:123, func:function(){ console.log(this.name); } } ​ info.func() name = '老男孩'; info = { name:'alex', age:123, func:function(){ console.log(this.name); function f1(){ console.log(this

常用jquery(1)

天大地大妈咪最大 提交于 2020-03-02 11:02:52
$("#zb_xygl_table tr").each(function(i,val){ var stu = {}; stu.zb_stage_s= $(this).children().eq(0).find("select").val() stu.zb_grade_s = $(this).children().eq(1).find("select").val() stu.zb_school_s = $(this).children().eq(2).find("select").val() stu.zb_class_s = $(this).children().eq(3).find("select").val() if (stu.zb_grade_s == undefined || stu.zb_school_s == undefined || stu.zb_class_s == undefined) { return; } stus.push(stu); }) JSON.stringify(know) children与find的区别 通过children获取的是该元素的下级元素,而通过find获取的是该元素的下级所有元素 parent('')与parents('') 采用data方法来缓存数据 在项目中,为了避免多次重复的向服务器请求数据,通常会将获取的数据缓存起来以便后续使用

Angular 6 error: CSSSyntaxError - Failed to compile

倾然丶 夕夏残阳落幕 提交于 2020-03-02 10:08:33
问题 Description I am receiving an error for the relative path in the url() that I mention for the 'background' property. When I use an absolute path for it, seems to be working fine. Error Message ERROR in ./src/styles.scss (./node_modules/raw-loader!./node_modules/postcss-loader/lib??embedded!./node_modules/sass-loader/lib/loader.js??ref--15-3!./src/styles.scss) Module Error (from ./node_modules/postcss-loader/lib/index.js): (Emitted value instead of an instance of Error) CssSyntaxError: /home

向服务器请求数据的五种技术

喜夏-厌秋 提交于 2020-03-02 09:03:37
Ajax,在它最基本的层面,是一种与服务器通讯而不重载当前页面的方法,数据可从服务器获得或发送给服务器。有多种不同的方法构造这种通讯通道,每种方法都有自己的优势和限制。 有五种常用技术用于向服务器请求数据: (1)XMLHttpRequest (XHR) (2)动态脚本标签插入 (3)框架 (4)Comet (5)多部分的XHR 在现代高性能JavaScript中使用的三种技术是XHR,动态脚本标签插入和多部分的XHR。使用Comet和iframe(作为数据传输技术)往往是极限情况,不在这里讨论。 一、XMLHttpRequest 目前最常用的方法中,XMLHttpRequest(XHR)用来异步收发数据。所有现代浏览器都能够很好地支持它,而且能够精细地控制发送请求和数据接收。你可以向请求报文中添加任意的头信息和参数(包括GET和POST),并读取从服务器返回的头信息,以及响应文本自身。以下是使用示例: var url = '/data.php'; var params = [ 'id=934875', 'limit=20' ]; var req = new XMLHttpRequest(); req.onreadystatechange = function() { if (req.readyState=== 4) { var responseHeaders = req

初学python爬虫,记录一下学习过程,requests xpath 提取图片并保存02

喜你入骨 提交于 2020-03-02 07:32:41
紧接上一次的首页图片保存,这篇是提取详情页的图片并保存,且第一页的地址又与以后的地址不一样,需要单独处理。 ''' requests库请求目标网址 xpath提取网页的图片地址 面向函数编程 提取首页与以面网页不一样的图片 ''' #导入第三方库 import requests from lxml import etree import time #useragent库 from fake_useragent import UserAgent #定义随机的UserAgent ua = UserAgent ( ) headers = { 'User-Agent' : ua . random } #定义得到html文本的函数 def get_html ( url ) : time . sleep ( 1 ) #如果用.text()则出现乱码的情况,所以采用utf-8方式解码 html = requests . get ( url , headers = headers ) . content . decode ( 'utf-8' ) return html #定义解析html的函数 def paser_html ( html ) : #新建空列表 images_url = [ ] e = etree . HTML ( html ) #提取图片地址 image_urls = e .

9行代码实现python爬虫入门

北城以北 提交于 2020-03-02 07:21:52
""" 通用爬虫:静态 聚焦爬虫:静态 增量式爬虫:实时爬取网站的最新数据。 Http协议:应用层协议 user-Agent 请求载体的信息 connection 请求完毕后,是断开还是保持连接 Content-type 服务器响应给客户端的数据类型 Https协议 安全的http协议。数据加密。 对称密钥 非对称密钥 证书密钥 :https采用的 URLlib模块,request模块是前者的高级版 作用:模拟浏览器发请求 1 指定URL 2 发起请求 3 获取响应数据 4 持久化存储 """ import requests if __name__=="__main__": #1 指定URL url = 'https://blog.csdn.net/LVGAOYANH' #发起请求 response = requests.get(url=url) #获取响应数据 page_text = response.text print(page_text) #持久化存储 with open("h:\\test.txt",'w',encoding='utf-8')as fp: fp.write(page_text) print("爬取数据完毕") 来源: CSDN 作者: 鹰立如睡 链接: https://blog.csdn.net/LVGAOYANH/article/details