reddit

恶意评论识别率提升14%!俄罗斯Sputnik App集成华为系统完整性检测

让人想犯罪 __ 提交于 2021-02-18 17:50:07
俄罗斯(Sputnik)是享有国际声誉的卫星通讯社,旗下新闻应用程序提供高质量的国际新闻,包括突发新闻、全球重大事件、深度报道、在线广告视频和独家采访。App集成了系统完整性检测功能后,应用市场内恶意评论识别率提升了14%。 业务挑战 Sputnik手机业务负责人Dmitry Priemov表示,“我们发现App运行的部分设备恶意攻击App,企图破解广告,”因此,他意识到,“我们需要知道哪些设备系统已被恶意篡改,因为那可能导致我们的App广告被破解。”此外,“对于商店中的差评,我们也需要快速评估是否是来自系统被篡改、利用的设备。” 解决方案 “我们将系统完整性检测作为评估设备风险性的重要一环,”Dmitry Priemov说。安全检测服务是华为推出的多维度安全检测开放服务,提供系统完整性检测等功能,帮助应用快速构建安全能力,保护用户隐私及App运行安全。其中,系统完整性检测是基于TEE可信执行环境和数字证书签名,帮助App检测其运行设备系统是否被恶意篡改。在App中加入系统完整性检测功能后,“我们可以清楚知道App运行设备是否已被root。” 如果发现设备存在安全风险,“我们可以选择限制部分恶意攻击的风险设备使用App的一些功能,从而保护我们的广告不被恶意破解。”另外,针对恶意差评问题,Sputnik后台团队就可以“跳过这类被检测出风险的设备的恶意差评,或回复他们如需正常使用

APUS浏览器应用集成恶意URL检测功能,风险网站检测能力提升20%

早过忘川 提交于 2021-02-17 17:06:26
APUS 成立于2014年6月,其系统及产品集群全球总用户数突破14亿,是全球高速发展的互联网公司之一。其中APUS浏览器以功能丰富、设计简洁、简单易用为亮点,轻松帮助用户实现极速浏览、搜索与下载的优质体验。 业务挑战 为了让用户拥有一款更安全放心的浏览器,APUS浏览器应用团队表示,需要始终关注每一位用户的个人隐私信息、财产安全保护等问题,避免钓鱼链接、假冒仿冒链接等一些恶意的URL的出现。因此,在APUS浏览器中增加恶意URL检测功能显得格外重要。不仅如此,APUS浏览器应用团队表示“为了能够长期、持续地为用户提供安全浏览服务,APUS浏览器需要一种运营简单、成本可控的检测方法。“ 解决方案 快速评估风险 识别URL 当用户在APUS浏览器应用内访问未知风险的URL前,恶意URL检测功能可快速识别URL是安全的、还是钓鱼或恶意软件链接,即可有效评估URL是否存在风险。 有效提示风险 拦截访问 在通过恶意URL检测功能的评估后,如果发现URL存在风险,在应用界面上就会发出提醒,帮用户阻断对恶意网站的访问,有利于拦截被钓鱼、被盗号甚至被种***的风险。 集成简单 降低开发成本 恶意URL检测功能集成简单,仅需三个步骤即可调用API。并且无需运营,有效的控制了安全浏览服务的实现成本。 结果 APUS浏览器应用负责人表示,“通过接入华为安全检测的恶意URL检测功能后

Python praw reddit api: Reliably get posts as they are posted

别来无恙 提交于 2021-02-08 04:11:26
问题 At the moment I have a script that queries some subreddits every 30 seconds and returns the newest submission: while True: for post in reddit.subreddit(query_list).new(limit=1): if previous != post: # Do something previous = post time.sleep(30) The problem with this is that if there are more than two posts in that time frame it'll skip one of them. I know I can set a smaller wait time, or I can get more than one post at a time and sort through the results, but that doesn't really fix the

Python praw reddit api: Reliably get posts as they are posted

最后都变了- 提交于 2021-02-08 04:07:37
问题 At the moment I have a script that queries some subreddits every 30 seconds and returns the newest submission: while True: for post in reddit.subreddit(query_list).new(limit=1): if previous != post: # Do something previous = post time.sleep(30) The problem with this is that if there are more than two posts in that time frame it'll skip one of them. I know I can set a smaller wait time, or I can get more than one post at a time and sort through the results, but that doesn't really fix the

Python praw reddit api: Reliably get posts as they are posted

谁都会走 提交于 2021-02-08 04:03:38
问题 At the moment I have a script that queries some subreddits every 30 seconds and returns the newest submission: while True: for post in reddit.subreddit(query_list).new(limit=1): if previous != post: # Do something previous = post time.sleep(30) The problem with this is that if there are more than two posts in that time frame it'll skip one of them. I know I can set a smaller wait time, or I can get more than one post at a time and sort through the results, but that doesn't really fix the

创业失败后,我决定开源所有产品代码

那年仲夏 提交于 2021-02-04 01:05:39
整理 | 李冬梅 近年来,程序员创业的话题屡屡被提及,那么,程序员究竟适不适合创业?又该如何创业?本文的一些观点或许能给你带来一些启发。 创业失败后,程序员开源产品代码 近日,一位程序员在 Reddit 上发帖称自己创业失败了,因此将其产品代码开源,希望能帮助到有需要的人。 这款产品叫做“Dryvo”,是一款为驾校行业提供的解决方案。目标是节省老师在课程安排、处理学生来电、付款等杂事上耗费的时间,同时也能让学生掌握驾驶考试的学习进度以及帮助他们了解整个学习流程,此外,高效的路线规划功能可以帮助老师节省宝贵的时间,并减少油费。Dryvo 期望改变驾驶课程的管理方式。 目前,该产品代码已经托管在 GitHub 上,项目地址:https://github.com/AdamGold/Dryvo。 Dryvo 使用 Python 编写了日程安排 API,从它的项目结构来看,真正的核心代码位于 server 文件夹,其余的主要是测试和日志目录。 对于发帖者创业失败的经历,有网友评论到: 当读到发帖者对项目的描述时(老师总是花费很多时间来处理学生来电、规划课程、学车路线以及和每位学生谈话。而学生也很难掌握他们的课程进度、付款流程等信息。他们基本上不了解什么时候该进行驾驶考试或者下一课该学什么),我脑海中第一想法就是——项目失败的原因显而易见。 规划驾驶课程和安排牙医、律师

都说程序员加班很严重,来听听国外的程序员怎么说

|▌冷眼眸甩不掉的悲伤 提交于 2021-02-01 09:24:45
据说,某互联网公司招了个日本人做研发,上班第一天就对部门同事说:“我在日本工作时是个加班狂,每天都很晚回家,希望大家跟上我的步伐。”一个月之后他辞职回日本了,扔下一句话:“你们这样加班,经常睡在公司是很不人道的。” 程序猿问科比:“科比,你为何如此成功?”科比反问:“你知道洛杉矶每天凌晨4点的样子吗?”程序猿:“知道,那个时候我一般还没下班。你问这个干嘛?”科比:“不干嘛,谈话结束了! 1、IT已成为最疯狂的加班行业,没有之一 夜幕降临,当IT大楼里依然灯火通明时,那一刻,我仿佛王进喜、石传翔等劳模灵魂附体,我知道我不是一个在加班,我不是一个人!连续9个通宵加班都不是事,一点不夸张,这是本人的亲身经历。 2、过度加班,为啥我们就停不下来了呢? 无效加班:连夜忙真能出活吗?“ 有时候主管布置任务,事先缺少沟通,大家加班好几天,成果出来了,最后用不上,工作忙却没有效率,做了无用功。”——深圳程序员韩轩 韩轩是一名在深圳打拼的程序员,“夜夜做项目,敲码到凌晨;感觉左右不是人,都是‘程序猿’。”程序员自称“程序猿”,有几分自嘲和无奈。 每个月要加多少班? 韩轩没仔细算过:“ 加班补贴每小时15 元,周六是翻倍,我每月的加班费通常有3000 元左右,这样算下来每天加班至少在4 个小时以上。” 一个“真正的程序员”是那种热爱编程的人!如此之爱,以至于他的所有时间都是在编程。“真正的程序员

路径偏移定位不准确?华为定位SuperGNSS技术帮您解决这一难题!

帅比萌擦擦* 提交于 2021-01-29 07:46:29
在这个移动互联网时代,不管是位置分享、搜索周边还是路线规划都需要对用户进行定位,获取用户所在的位置,而这些操作都离不开定位服务。然而当大家在分享位置时,往往会出现因为建筑遮挡导致路径偏移、位置定位不准确的情况。华为定位服务的SuperGNSS技术正为大家解决这一难题,致力为大家提供更便捷精准的定位服务。 在介绍SuperGNSS技术原理之前,先给大家解释一个名词——城市峡谷。从这张图可以看出,随着城市里的高楼越来越高、越来越密集,当我们抬头看的时候,只能看到一片天或者是一线天,这种以街道切割周围稠密建筑街区而形成的人造峡谷就称为城市峡谷。著名的例子如中国香港九龙与中环地区、美国纽约曼哈顿等全球一百多个城市都有这样的现象。 那么,在城市峡谷的场景下,卫星定位为什么不准确呢?原因是卫星信号从天上传播到手机里的时候,会因为建筑遮挡发生信号路径的反射,在这个图上蓝色的路径是经过一次反射到了手机里,黄色的比较严重是经过二次反射到了手机里的。 其实,在实际城市的密集街道信号场景中,大多数信号都是通过非直线路径并且多次反射才到了手机里,这就使我们的卫星定位会产生五十米至两百米的偏移。 比如使用打车类应用的时候,当大家站在十字路口发起打车,定位往往不能精确的获取到大家的位置,本来你在十字路口的东北角,定位却定在了西南角,这时司机就无法找到你的真实位置;还有在使用生活类应用的时候

Trying To Fetch The Latest Reddit Post With The Reddit API

谁说我不能喝 提交于 2021-01-28 01:25:10
问题 I am attempting to scrape an url from reddit and post it on my blog every 30 minutes. This is my current solution: I created a php file named 'newpost.php' that fetches content from the reddit's api and posts it to my blog. (Every time the page is loaded it fetches/posts the newest reddit post). Here is the code: $json = file_get_contents("https://www.reddit.com/r/all/new.json?limit=1"); $obj = json_decode($json); $url = $obj->data->children[0]->data->url; // the rest posts this url to my

Reddit API returning useless JSON

早过忘川 提交于 2021-01-27 05:38:32
问题 I'm trying to scrape new stories from Reddit using their API and Python's urllib2, but I keep getting JSON documents like this one: { u'kind': u'Listing', u'data': { u'modhash': u'', u'children': [], u'after': None, u'before': None }} Here is my code: import json import time import urllib2 def get_submissions(after=None): url = 'http://reddit.com/r/all/new.json?limit=100' if after: url += '&after=%s' % after _user_agent = 'Reddit Link Analysis Bot by PirateLogic @ github.com/jamesbrewer'