dns

SPF record for amazon ec2

て烟熏妆下的殇ゞ 提交于 2020-01-21 08:16:46
问题 From where do I get the correct syntax to create a proper SPF record for EC2 amazon server? I understand how to create a dns entry but I have no idea what to put in place for the SPF record. 回答1: This is very easy to do: Provision an Elastic IP for your server Setup an "A" record for the server which will be sending mail with your favorite registrar- a good practice to follow is to include "svr" somewhere in the hostname, as in, app-svr-01.youdomain.com Click here to contact amazon and ask

SPF record for amazon ec2

ⅰ亾dé卋堺 提交于 2020-01-21 08:15:25
问题 From where do I get the correct syntax to create a proper SPF record for EC2 amazon server? I understand how to create a dns entry but I have no idea what to put in place for the SPF record. 回答1: This is very easy to do: Provision an Elastic IP for your server Setup an "A" record for the server which will be sending mail with your favorite registrar- a good practice to follow is to include "svr" somewhere in the hostname, as in, app-svr-01.youdomain.com Click here to contact amazon and ask

图解TP-Link路由器设置

浪尽此生 提交于 2020-01-21 03:46:32
路由器设置图解旨在为搭建网络的初学者准备,技术要点其实没有什么,但是步骤的繁琐让很多人望而怯步,那么这里就向你展示具体操作的整过过程,让你轻松掌握路由器设置.    TP-Link路由器设置之设备准备   首先具备的条件是:路由器一个(可以为4口,8口,16口,甚至更多的),如果你有很多台电脑,可以买个多口的交换机.网线直通线数条,电信mode一个(或者你是专线那就不需要mode了),pc电脑至少2台以上(如果只有一台,使用路由器是可以的,但是就失去了使用路由器的意义了.   其实tp-link公司出的路由器,比如TP-LINK TL-402M或者是401M或者是其他型号的tp-link路由器,路由开启方法大多差不多.下面本文以TP-LINK TL-402M为例,请看图片1      图1TP-LINK TL-402M   tp-link路由器介绍到这里,大家只要按图片里的介绍,将PC,电信宽带MODE,路由器,相互正确连接,那么一个网络就已经组好了.下面介绍怎么样开启路由功能.    TP-Link路由器设置之前期设置:   如果线都已经接好.我们这个时候随便打开一台连好的PC电脑.打开网上邻居属性(图片2),本地连接属性(图片3),tcp/ip协议属性(图片4),设置ip为192.168.1.2 子网:255.255.255.0 网关:192.168.1.1(图片5)确定

DNS域传送漏洞——vulhub漏洞复现 007

女生的网名这么多〃 提交于 2020-01-21 00:50:47
前言: Vulhub是一个基于docker和docker-compose的漏洞环境集合,进入对应目录并执行一条语句即可启动一个全新的漏洞环境,让漏洞复现变得更加简单,让安全研究者更加专注于漏洞原理本身。 Voulhub靶机平台环境搭建和使用: https://blog.csdn.net/qq_41832837/article/details/103948358 目录: 漏洞原理 漏洞详情 漏洞复现 漏洞原理 DNS服务器分为主服务器,从(备份)服务器,缓存服务器。DNS协议支持使用axfr类型的记录进行区域传送,用来解决主从同步的问题。如果管理员在配置DNS服务器的时候没有限制允许获取记录的来源,将会导致DNS域传送漏洞,漏洞利用者能够获得某个域的所有记录。 漏洞详情 影响版本:支持axfr记录的版本,例如bind9 DNS服务器使用域传送功能,来达到主从数据同步的目的。域传送关键配置项为:allow-transfer,通过配置allow-transfer项的参数来达到限制允许获取记录的来源的作用。bind9默认安装完毕后,配置项是没有allow-transfer 的,所以如果不手动添加allow-transfer项,就会存在dns 域传送漏洞。 漏洞复现 启动环境后,将会监听TCP和UDP的53端口,DNS协议同时支持从这两个端口进行数据传输。因为涉及到1024以下的端口号

DNS分别在什么情况下使用UDP和TCP

限于喜欢 提交于 2020-01-20 11:48:46
DNS同时占用UDP和TCP端口53是公认的,这种单个应用协议同时使用两种传输协议的情况在TCP/IP栈也算是个另类。但很少有人知道DNS分别在什么情况下使用这两种协议。 如果用wireshark、sniffer或古老些的tcpdump抓包分析,会发现几乎所有的情况都是在使用UDP,使用TCP的情况非常罕见,神秘兮兮。其实当解析器发出一个request后,返回的response中的tc删节标志比特位被置1时,说明反馈报文因为超长而有删节。这是因为UDP的报文最大长度为512字节。解析器发现后,将使用TCP重发request,TCP允许报文长度超过512字节。既然TCP能将data stream分成多个segment,它就能用更多的segment来传送任意长度的数据。 另外一种情况是,当一个域的辅助域名服务器启动时,将从该域的主域名服务器primary DNS server执行区域传送。除此之外,辅域名服务器也会定时(一般时3小时)向PDS进行查询以便了解SOA的数据是否有变动。如有变动,也会执行一次区域传送。区域传送将使用TCP而不是UDP,因为传送的数据量比一个request或response多得多。 DNS主要还是使用UDP,解析器还是服务端都必须自己处理重传和超时。DNS往往需要跨越广域网或互联网,分组丢失率和往返时间的不确定性要更大些,这对于DNS客户端来说是个考验

dnsmasq 做 DHCP 服务器

末鹿安然 提交于 2020-01-20 05:34:39
/etc/dnsmasq.conf #DNS服务器的地址,就是我的热点的地址 listen-address=192.168.1.1 #设置DHCP分配的地址范围和时间 dhcp-range=192.168.1.10,192.168.1.20,1h #设定网关的地址,当然还是我热点的地址 dhcp-option=3,192.168.1.1 #重头戏来了,设定DNS服务器,可悲之前怎么也找不到设定的办法。。。还说是要使用DNS中继。。然后就呵呵了 dhcp-option=option:dns-server,114.114.114.114,8.8.4.4 然后 /etc/init.d/dnsmasq start 启动DHCP服务器 参考:http://blog.csdn.net/one_six_mix/article/details/53245288 实例配置文件: # DNS strict-order cache-size=1500 conf-dir=/etc/dnsmasq.d # DHCP dhcp-option=3,172.16.1.1 dhcp-lease-max=200 dhcp-leasefile=/var/lib/dnsmasq/dnsmasq.leases interface=enp3s0 dhcp-range=172.16.1.10,172.16.1.100,12h

【网络爬虫学习 --- 设计爬虫架构】

血红的双手。 提交于 2020-01-19 22:20:16
设计爬虫架构 一个设计良好的爬虫架构必须满足如下需求。 (1) 分布式:爬虫应该能够在多台机器上分布执行。 (2) 可伸缩性:爬虫结构应该能够通过增加额外的机器和带宽来提高抓取速度。 (3) 性能和有效性:爬虫系统必须有效地使用各种系统资源,例如,处理器、存储空间和网络带宽。 (4) 质量:鉴于互联网的发展速度,大部分网页都不可能及时出现在用户查询中,所以爬虫应该首先抓取有用的网页。 (5) 新鲜性:在许多应用中,爬虫应该持续运行而不是只遍历一次。 (6) 更新:因为网页会经常更新,例如论坛网站会经常有回帖。爬虫应该取得已经获取的页面的新的拷贝。例如一个搜索引擎爬虫要能够保证全文索引中包含每个索引页面的较新的状态。对于搜索引擎爬虫这样连续的抓取,爬虫访问一个页面的频率应该和这个网页的更新频率一致。 (7) 可扩展性:为了能够支持新的数据格式和新的抓取协议,爬虫架构应该设计成模块化的形式。 爬虫架构 1. 爬虫的简化版本架构如下图所示 这里最主要的关注对象是爬虫和存储库。其中的爬虫部分阶段性地抓取互联网上的内容。存储库存储爬虫下载下来的网页,是分布式的和可扩展的存储系统。在往存储库中加载新的内容时仍然可以读取存储库。 2. 实际的爬虫逻辑架构如下图所示 [ 单线程爬虫结构 ] 。 其中: (1) URLFrontier 包含爬虫当前待抓取的 URL( 对于持续更新抓取的爬虫

20170809-从URL输入到页面展现

痴心易碎 提交于 2020-01-19 21:19:36
从URL输入到页面展现 1.输入URL URL:统一资源定位符,是对可以从互联网上得到的资源的位置和访问方法的一种简洁的表示。 URL包含以下几部分:协议、服务器名称(或IP地址)、路径、参数和查询。 举例说明: 常用协议: 协议 中文名称 默认端口号 http 超文本传输协议 80 https 用安全套接字层传送的超文本传输协议 443 ftp 文件传输协议 21 TELNET 远程终端协议 23 如果地址不包含端口号,根据协议的默认端口号确定一个。 2.根据URL,在本地DNS缓存中查找域名对应的IP地址 浏览器和操作系统在获取网站域名的实际IP地址后会对其IP进行缓存,在短时间内重复访问同一域名时,会直接在DNS缓存中读取域名对应的IP地址,以减少网络请求的损耗(先在浏览器DNS缓存中查找,如果没有找到,则会在操作系统DNS缓存中查找)。浏览器和操作系统都有一个固定的DNS缓存时间,其中Chrome的过期时间是1分钟,在这个期限内不会重新请求DNS。Chrome浏览器看本身的DNS缓存时间比较方便,在地址栏输入: chrome://net-internals/#dns 就可以查看本地DNS缓存: 3.查询hosts文件 如果在本地DNS缓存中没有找到域名对应的IP地址,则会查询hosts文件,看其中是否已经有与当前域名对应的 IP 地址,如果有就会直接采用,如果没有

XMLHttpRequest() & net::ERR_NAME_NOT_RESOLVED

落花浮王杯 提交于 2020-01-19 14:12:26
问题 I am writing a javascript app that makes an HTTP request of a remote server. The user will enter the host name. I want to offer a diagnostic message if they enter a DNS name that cannot resolve. Here's the current code: var req, t, url; url = 'http://definitelydoesntexist0x314159.com'; req = new XMLHttpRequest(); req.open('GET', url, true); req.onreadystatechange = function() { if (req.readyState == 4) { t = req.statusText; } }; req.send(); In the onreadystatechange function, the req has

XMLHttpRequest() & net::ERR_NAME_NOT_RESOLVED

拥有回忆 提交于 2020-01-19 14:11:59
问题 I am writing a javascript app that makes an HTTP request of a remote server. The user will enter the host name. I want to offer a diagnostic message if they enter a DNS name that cannot resolve. Here's the current code: var req, t, url; url = 'http://definitelydoesntexist0x314159.com'; req = new XMLHttpRequest(); req.open('GET', url, true); req.onreadystatechange = function() { if (req.readyState == 4) { t = req.statusText; } }; req.send(); In the onreadystatechange function, the req has