def

[LeetCode] 227. Basic Calculator II 基本计算器 II

為{幸葍}努か 提交于 2020-10-29 05:15:24
Implement a basic calculator to evaluate a simple expression string. The expression string contains only non-negative integers, + , - , * , / operators and empty spaces . The integer division should truncate toward zero. You may assume that the given expression is always valid. Some examples: "3+2*2" = 7 " 3/2 " = 1 " 3+5 / 2 " = 5 Note: Do not use the eval built-in library function. Credits: Special thanks to @ts for adding this problem and creating all test cases. Java: public int calculate(String s) { int md=-1; // 0 is m, 1 is d int sign=1; // 1 is +, -1 is - int prev=0; int result=0; for

Python实现斐波那契数列

柔情痞子 提交于 2020-10-29 04:58:44
程序分析: 斐波那契数列(Fibonacci sequence),又称黄金分割数列,指的是这样一个数列:0、1、1、2、3、5、8、13、21、34、……。 在数学上,费波那契数列是以递归的方法来定义: F0 = 0 (n=0) F1 = 1 (n=1) Fn = F[n-1]+ F[n-2](n=>2) 程序源代码: 方法一: #!/usr/bin/python # -*- coding: UTF-8 -*- # 斐波那契数列 def fib(n): a, b = 1, 1 for i in range(n-1): a, b = b, a+b return a # 输出了第10个斐波那契数列 print fib(10) 方法二: #!/usr/bin/python # -*- coding: UTF-8 -*- # 斐波那契数列 # 使用递归 def fib(n): if n == 1 or n == 2: return 1 return fib(n - 1) + fib(n - 2) # 输出了第10个斐波那契数列 print fib(10) 以上实例输出了第10个斐波那契数列,结果为: 55 方法三:   如果你需要输出指定个数的斐波那契数列,可以使用以下代码: #!/usr/bin/python # -*- coding: UTF-8 -*- # 斐波那契数列 def

Python爬虫之ip代理池

主宰稳场 提交于 2020-10-29 04:41:10
可能在学习爬虫的时候,遇到很多的反爬的手段,封ip 就是其中之一。 对于封IP的网站。需要很多的代理IP,去买代理IP,对于初学者觉得没有必要,每个卖代理IP的网站有的提供了免费IP,可是又很少,写了个IP代理池 。学习应该就够了 ip代理池: 1,在各大网站爬去免费代理ip 2,检查ip可用 可用存入数据库1和2 3,在数据库1中拿出少量代理ip存入数据库2(方便维护) 4,定时检查数据库1和数据库2的代理数量,以及是否可用 5,调用端口 1,在各大网站爬去免费代理ip 1 def IPList_61(): 2 for q in [1,2 ]: 3 url= ' http://www.66ip.cn/ ' +str(q)+ ' .html ' 4 html= Requestdef.get_page(url) 5 if html!= None: 6 # print(html) 7 iplist=BeautifulSoup(html, ' lxml ' ) 8 iplist=iplist.find_all( ' tr ' ) 9 i=2 10 for ip in iplist: 11 if i<= 0: 12 loader= '' 13 # print(ip) 14 j= 0 15 for ipport in ip.find_all( ' td ' ,limit=2 ): 16 if

[深度应用]·Keras实现Self-Attention文本分类(机器如何读懂人心)

老子叫甜甜 提交于 2020-10-29 02:21:04
[深度应用]·Keras实现Self-Attention文本分类(机器如何读懂人心) 配合阅读: [深度概念]·Attention机制概念学习笔记 [TensorFlow深度学习深入]实战三·分别使用DNN,CNN与RNN(LSTM)做文本情感分析 笔者在 [深度概念]·Attention机制概念学习笔记 博文中,讲解了Attention机制的概念与技术细节,本篇内容配合讲解,使用Keras实现Self-Attention文本分类,来让大家更加深入理解Attention机制。 作为对比,可以访问 [TensorFlow深度学习深入]实战三·分别使用DNN,CNN与RNN(LSTM)做文本情感分析 ,查看不同网络区别与联系。 一、Self-Attention概念详解 了解了模型大致原理,我们可以详细的看一下究竟Self-Attention结构是怎样的。其基本结构如下 ​ 对于self-attention来讲,Q(Query), K(Key), V(Value)三个矩阵均来自同一输入,首先我们要计算Q与K之间的点乘,然后为了防止其结果过大,会除以一个尺度标度 ​ ,其中 ​ 为一个query和key向量的维度。再利用Softmax操作将其结果归一化为概率分布,然后再乘以矩阵V就得到权重求和的表示。该操作可以表示为 ​ 这里可能比较抽象,我们来看一个具体的例子(图片来源于 https:/

A--多元线性回归的python实现

|▌冷眼眸甩不掉的悲伤 提交于 2020-10-29 01:41:48
In [1]: import numpy as np import pandas as pd import matplotlib as mpl import matplotlib.pyplot as plt In [2]: # 创建一个矩阵 a = np.array([[1, 2], [3, 4 ]]) m = np.mat(a) m [2]: matrix([[1, 2], [3, 4]]) In [4]: # 矩阵运算回顾 # 矩阵转秩 m.T # 矩阵乘法 m * m a * a # 矩阵⾏列式 np.linalg.det(m) # 求逆矩阵 m.I # 转换成array m.A # 降维成一维 m.fattlen Out[4]: matrix([[-2. , 1. ], [ 1.5, -0.5]]) 假设输入数据为DataFrame格式,最后一列为标签值,在此基础上编写线性回归自定义函数(最小二乘) In [ ]: # 矩阵公式 w=(x.T * x).I * X.T * y In [53]: # 根据最小二乘法推导得 w=(x.T * x).I * X.T * y 注:如果(x.T * X)不满足可逆性,那么最小二乘无解,另不满足凸函数,也无解 # 又因为特征矩阵在存在多重共线性的情况下,特征矩阵不满足可逆性,所以在做回归之前,需要消除多重共线性 def

Python函数合集:68个内置函数请收好,直接食用

China☆狼群 提交于 2020-10-29 01:02:30
内置函数就是python给你提供的, 拿来直接用的函数,比如print.,input等。截止到python版本3.6.2 python一共提供了68个内置函数。 #68个内置函数 # abs() dict() help() min() setattr() # all() dir() hex() next() slice() # any() divmod() id() object() sorted() # ascii() enumerate() input() oct() staticmethod() # bin() eval() int() open() str() # bool() exec() isinstance() ord() sum() # bytearray() filter() issubclass() pow() super() # bytes() float() iter() print() tuple() # callable() format() len() property() type() # chr() frozenset() list() range() vars() # classmethod() getattr() locals() repr() zip() # compile() globals() map() reversed() _

爬虫技术初窥

给你一囗甜甜゛ 提交于 2020-10-28 17:59:27
什么是爬虫 网络爬虫是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。 举个例子,用户浏览豆瓣时,作为活生生的人看到的是带有样式的HTML。 爬虫看到的仅仅是HTML的文本内容。 爬虫就是将这些标签里的内容提取出来而已。它要做的事情非常的简单。但是实现起来需要挺多的步骤。 URL代表着什么 URL全称统一资源定位符,在它的背后基本上有两种可能:1.一个固定的页面 2. 一个处理请求的程序(如servlet)。故当访问一个URL时,爬虫需要解析的可能是页面或者是json数据。(当然也有可能是类似json的其他格式化数据) 用代码发送HTTP请求 日常生活中,浏览器是访问互联网的工具。它替我们完成了一次次的HTTP请求,服务器在接收到请求后,就是返回响应的内容给浏览器。像一张HTML页面,返回过来之后,在浏览器中进行解析,最后得到平时看到的页面。 那么想想一下一个没有界面的浏览器,并且接收的response也不会解析成好看的网页,只是输出单纯的HTML代码。这就是用代码发送请求,进而获得response的过程。 对返回的HTML代码进行处理 public void parseDemo(){ HttpResponse response = HttpRequest.request("http://www.baidu.com"); } 模拟一个获取response的代码

堆重启_uaf_hacknote

让人想犯罪 __ 提交于 2020-10-28 15:42:53
参考链接 http://blog.eonew.cn/archives/490 https://blog.csdn.net/weixin_44864859/article/details/107181869 这里记录下经典的含有后门的UAF漏洞程序。 //hacknote 最简单的堆题目 libc 2.23 以及 含后门的UAF漏洞程序 //hacknote先看第一个含有后门的UAF漏洞程序: 查看文件相关属性及开启保护 32位elf程序,没有去符号。// 给源代码会更香。 只开启了NX保护。 $ file hacknote_backdoor hacknote_backdoor: ELF 32-bit LSB executable, Intel 80386, version 1 (SYSV), dynamically linked, interpreter /lib/ld-linux.so.2, for GNU/Linux 2.6.32, BuildID[sha1]=44ee75c492628b3691cdcdb07759e9bbe551644a, not stripped $ checksec hacknote_backdoor [*] Arch: i386-32-little RELRO: Partial RELRO Stack: No canary found NX: NX

Java调用Tensorflow模型

允我心安 提交于 2020-10-28 15:16:33
说明 关于Tensorflow的使用与模型生成,谷歌推荐的保存模型为PB文件,因为它具有语言独立性,可独立运行,封闭的序列化格式,任何语言都可以解析它,因此也就允许其他语言进行开发对接。本文就以一个简单案例的方式来说明模型的生成和调用。 Tensorflow生成逻辑回归模型,模型保存为二进制PB文件 本文所有的案例是一个逻辑回归模型,y=wx+b。训练与生成模型的代码如下所示: import tensorflow as tf import numpy as np import matplotlib.pyplot as plt from tensorflow.python.framework import graph_util ## -1到1之间随机数 100个 train_X = np.linspace(-1, 1, 100) train_Y = 2*train_X + np.random.randn(*train_X.shape)*0.1 # 显示模拟数据点 plt.plot(train_X, train_Y, 'ro', label='test') plt.legend() plt.show() # 创建模型 # 占位符 X = tf.placeholder("float",name='X') Y = tf.placeholder("float",name='Y') #

【django-celery】异步任务管理器---celery

不羁的心 提交于 2020-10-28 14:57:14
因为superviser不支持python3,而网上关于celery后台运行的说明大都使用superviser,所以对于python3用户celery后台运行便成为了一个问题。再没废话,直接上代码。 环境说明: python3.6 django2.0.5 我们使用redis的作为celery任务队列,有一个合成包可以直接安装两者一起使用需要的安装包 直接在终端键入 pip install celery-with-redis 就可以安装需要的依赖包了 构建项目过程略过,直接开始进行celery配置 一、celery配置。 我们的项目名称为myproject,首先setting配置,添加 # celery settings # celery中间人 redis://redis服务所在的ip地址:端口/数据库号 BROKER_URL = ' redis://localhost:6379/3 ' # celery结果返回,可用于跟踪结果 CELERY_RESULT_BACKEND = ' redis://localhost:6379/3 ' # celery内容等消息的格式设置 CELERY_ACCEPT_CONTENT = [ ' application/json ' , ] CELERY_TASK_SERIALIZER = ' json ' CELERY_RESULT