论风险控制的框架
当然,时代与时俱进,有些新的想法可能已经超出了我的认知。也欢迎批评指正。
1,数据预警
当经营数据出现明显波动时,无论是好的方向还是坏的方向,都要立即给出预警。波动范围是多少?对于庞大的互联网平台来说,同比变化超过5%很可能是预警阈值,但对于很多小的创业团队来说,可能变化比较频繁,阈值可以设得更高。
我来做个假设。如果你是微信产品经理,你发现在没有产品升级和热点新闻的今天,朋友圈的浏览和转发增加了5%。你认为这是自然增长吗?你们大多数人都会暗暗骂,妈,什么裂变套路失控。
来,思考一下问题,微信为什么不遗余力的扼杀各种裂变运营?裂变不是好数据吗?这是典型的风险控制认知问题。曾经人人网会觉得是好数据,所以就死了。
数据预警不代表一定有问题,但需要快速识别判断。正确理解数据变化的原因并快速确认,是风控需要处理的问题。
数据预警不仅仅是总信息的预警,比如某个特征的数据突然激增,也是需要关注和确认的。比如某个区域的流量突然激增,或者某个设备的流量突然激增,很可能来自于某个机器池。
至于如何分析数据异常,前面说过,对比、细分、溯源可以解决大部分数据异常定位问题。
2.风险控制处理引擎
处理引擎用于清理、过滤和阻止数据。
处理引擎的处理策略包括实时处理和回溯处理。
实时处理是对当前的操作和行为进行判断,并对其进行实时标记、过滤或屏蔽。
回溯处理是对历史数据进行分析,做出合理的判断和处理,比如清理数据或者常见的切割指令。
标注是指如果系统怀疑这个数据有问题,会先进行标注,再进行人工核对。
过滤意味着这个数据系统被认为是无效的,不会被记录,但用户仍然可以有效地操作和交互。
阻止意味着此行为被视为无效,用户交互被阻止。
3.规则配置
处置引擎通常基于规则,因此规则的配置是典型的系统。
典型的例子就是黑名单,比如屏蔽什么条件,清理什么条件,标注什么条件。
这里有两个常见的规则,一个是基于明确的规则来阻止单个消息,比如黑名单中的ip不允许访问。另一种是基于一些统计规则的清洗,比如来自同一个ip版块的重复点击超过阈值后不会被记录。
4.机器学习
古代的互联网,规则来自历史经验教训的总结。基于日志分析和过去攻击记录的高级风险控制逐一设置规则,以防止欺诈性点击或其他不当得利。
但现在不同了。机器学习已经逐渐取代了人工,根据一些不良记录自动整理出规则,甚至超出了人类的常识。
而这些规则,很多时候是能做不能说的。比如一个现金贷平台,基于历史坏账记录,机器学习总结出一个规则,身份证号的前几位是什么,坏账率明显高,那么这个规则就被写入风控规则库。
那你认为有过失杀人吗?机器关心的整体效率,比如整体坏账率是2%,而符合这个规则的坏账率是10%,10%已经给平台造成了严重的损失。所以平台愿意加入这个规则,虽然会误杀90%的合格好人。
为什么不能说出来?告诉我是什么,地域歧视。你凭什么说这一带的人是坏人?毕竟你误杀了90%的好人不是吗?但是是机器学习做出来的,所以你可以做,但是不能说。
5.情报系统
风险控制的负责人员和核心人员要加入安全行业的一些内部社区,参加一些安全行业的交流活动,甚至需要深入到各种羊毛党团体和各种黑灰产社区,了解一些流传的攻击手段和攻击资源。我之前说过,一个公司的信息安全,三分靠技术,七分靠人脉。我今天还是想重复这个观点,真的。
有人觉得我能力强,水平高,不混圈子。信息安全和风险控制这个行业是很深的。可能你的平台被一些对手搞了很久,圈子里的人都知道,你却不知道。这种事情其实挺常见的。早些年,空狐创业者自称被投资人欺负。数据是羊毛党因为一个愚蠢的补贴策略套现信用卡发现的。各种社群都在交流,创业者自己也不知道,还觉得自己的业务数据挺好的。
6.业务影响评估
风控不是越严格越好,因为过分严格的风控会把业务搞死。今天我们说商旅行业的羊毛党还是有很多玩法和玩法的。那些商业巨头不知道吗?航空公司和酒店集团为什么不为了里程积分而杀各种羊毛玩法?水干净就不会有鱼,让会员总觉得可以便宜赚钱,也是保持用户增长的一种方式。
所以在各种风控策略推出后,还是要不断的对数据进行评估和反思。是不是有些策略处理的问题没那么严重,误杀率有点太高,干扰了正常用户的行为?特殊阶段可能会有更严格的策略,那么过了这个阶段,相关策略是否可以弱化甚至取消?
其实风控有两个指标。首先是不良行为的清洗和阻断率是否真的有效的让那些干扰和噪音不再影响业务和决策者的判断。二是对正常业务的干扰率。风控不可能完全准确,任何策略都可能干扰正常的用户行为和正常的业务数据。那么这种影响能否控制在足够小的范围内。这需要不断反思和分析。不要被业务负责人追着骂,才想到这里可能有问题。
总的来说,实际细节还是很多的,不敢展开。他们一展开,我的无知就暴露了。