技巧1 仿真Request(使用随机UserAgent、随机Proxy与随机时间间隔对墙进行冲击)
准备UserAgent array与Proxy array,随机拼对,进行访问。一般情况下,会有 ScrapManager 下面包含 UserAgentManager 与 ProxyManager的一些封装。注意在轮询遍历时候,需要Sleep一定的时间。
Thread.Sleep(Consts.RandInt() * 1000);
public class ScrapManager
{
public static void Load()
{
ProxyManager.Load();
UserAgentManager.Load();
}
public static void Next( )
{
ProxyManager.Next();
UserAgentManager.Next();
}
}
public class ProxyManager
{
public static string Proxy = " your proxy ";
public static void Load()
{
}
public static Next()
{
}
}
public class UserAgentManager
{
public static string UserAgent = "Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.2; Trident/6.0)";
public static void Load()
{
}
public static Next()
{
}
}
string HtmlContent = string.Empty;
// RequestHttpWebRequest m_HttpWebRequest = (HttpWebRequest)WebRequest.Create(“ your link”);
// Proxy
m_HttpWebRequest.Proxy = new WebProxy(ProxyManager.Proxy, true);
// UserAgent
m_HttpWebRequest.UserAgent = UserAgentManager.UserAgent;
m_HttpWebRequest.Method = "GET";
m_HttpWebRequest.Timeout = -1;
// ResponseHttpWebResponse m_HttpWebResponse = (HttpWebResponse)m_HttpWebRequest.GetResponse();
using (StreamReader reader = new StreamReader(m_HttpWebResponse.GetResponseStream()))
{
HtmlContent = reader.ReadToEnd();
reader.Close();
}
总结:保持随机性,一般能不会被完全屏蔽。受限于手上的代理数,需要很多的代理,博主本人手上有14个代理,还是感到有点吃力。
技巧2 Iframe嵌套原页面使用前段抓取(针对load script html page)
参考:http://www.cnblogs.com/VincentDao/archive/2013/02/05/2892466.html
总结:实现较为简单,适合扒取脚本load data的网站。
技巧3 仿造Cookie(针对某些门户的屏蔽措施)
// Cookie
CookieContainer m_CookieContainer = new CookieContainer();
m_HttpWebRequest.CookieContainer = m_CookieContainer;
m_HttpWebRequest.CookieContainer.Add(new Cookie() { Name = "key", Value = "value", Domain = www.example.com });
总结:可以使用IE开发人员工具,Firefox,Chrome对request与response的Cookie进行监测。一般解决商城、社交网络的网页扒取。
技巧4 使用Selenium调用浏览器扒取页面

总结:被屏蔽概率最低,能很好的解决以上暴露的不足与问题。对Dev的水平要求较高。
来源:https://www.cnblogs.com/VincentDao/p/3240459.html