freeBuf
主站

分类

漏洞 工具 极客 Web安全 系统安全 网络安全 无线安全 设备/客户端安全 数据安全 安全管理 企业安全 工控安全

特色

头条 人物志 活动 视频 观点 招聘 报告 资讯 区块链安全 标准与合规 容器安全 公开课

官方公众号企业安全新浪微博

FreeBuf.COM网络安全行业门户,每日发布专业的安全资讯、技术剖析。

FreeBuf+小程序

FreeBuf+小程序

机器学习与内部威胁
2022-06-15 19:12:49
所属地 北京

最近,关于企业内部威胁的讨论成为网络安全的一个热门话题。在此,小编结合参考国外的一些相关思路,抛砖引玉,试图为国内同行提供有价值的参考信息。

在企业内部有各种访问权限的员工、合同供应/承包商以及设备供应商等,构成了企业的内部人员(insider),由他们引起的任何威胁都称之为内部威胁(insider threats)。

内部威胁之所以很快引起重视的原因很简单:其一,在完全被信任的内部一旦产生威胁,成功的可能性和造成损失的程度远远大于来自外部的攻击;其二,内部威胁很难被发现,传统的安全措施,例如白名单/黑名单阻止访问、IP过滤、添加防火墙和入侵检测等,这些技术的核心都是基于信任域的建立,旨在将威胁拒之门外。而对于来自内部的威胁,它们就很难发挥作用,处理内部威胁需要有完全不同的策略

众所周知,目前应对内部威胁的有效方法是监控内部人员的上网行为活动并发现其中的异常,这些异常行为中可能具有真正的安全威胁。信息安全和风险管理领域的从业者越来越关注行为分析技术,并在其基础上开发内部威胁防护解决方案,员工/用户活动监控(UAM)、用户和实体行为分析(UEBA)、数据防泄漏(DLP)等细分安全垂直领域的产品都已或多或少包含了各种形式的行为分析功能,机器学习和人工智能也开始以行为分析的创新者和突破者出现在很多产品的技术白皮书上,试图成为新一代信息安全领域的智能解决方案专家。

为什么机器学习在检测内部威胁方面能发挥很大作用呢?企业内部威胁的表现形式各不相同,产生根源既可能是主观人为的恶意操弄,诸如心怀不满或压力大、无作为、内外勾结、寻求曝光度、任性鲁莽、准备离职等,也可能来自无意或偶然无意触犯但却无知的行动——这些内部员工行为都是潜在的威胁风险。即使我们知道要监控寻找的目标内容,但期望从企业海量的活动日志中发现内部异常行为的关键点,并且将这些点关联获取关于人工操作的完整上下文,基本上是不可能的。

当企业用户数量很大,需要监控的点位变成数十万个,甚至过百万个,这时候发现内部威胁的难度就可想而知了。机器学习恰好就是这样一种可以很好匹配处理该业务场景,在如此之大的数据集上建立基线并据此找到异常的有效手段。

机器学习的一个优势是该技术可以基于多个数据源寻找关联线索,例如机器学习可以标记为有风险的某内部人员作为起始索引并查看分析其在企业内部相关联的所有行为:网络登录/注销时间、位置数据、文件传输行为、社交媒体互动、工作绩效、旅行历史记录等,基于以上查看分析工作向企业安全运维人员发出合理的警报通知,相关人员可以使用其他更多的分析工具(比如SIEM)进行进一步深入调查,以确认该行为是真正的安全事件或风险,还是正常业务的“误报”(譬如员工分配了新项目,触发了该用户之前未执行的一系列行为活动而产生的警报)。分析师的最终审查和决定应该反馈给分析系统,以提高机器学习检测算法的准确性。

在检测企业内部威胁中,机器学习算法的以下优点得到充分发挥:

1、监督需求的减少

机器学习的自动化属性,大大减少了数据分析工作中对人工监督的需求。设置完成后,系统可以自动处理那些包括“发现”和“分类”等大多数分析任务,在某些情况下,甚至可以对特定异常行为采取自动响应措施。

2、优异的可扩展性

机器学习可以处理来自多个数据源的海量数据,这个属性使其适合于大规模部署,实际上,数据集越大,系统“学习”的效果就越好。

3、高效的关联和回归

机器学习能以人工操作无法达到的速度和效率来完成对数据的查找和分类的工作,相关算法也长于从大量背景噪音中精确寻找到有效信号,这些属性都非常适合将用户的个别异常行为从其大量的正常活动中识别出来。

4、“误报”数量的减少

将无害行为误认为恶意行为而导致“误报”产生,这是目前安全分析系统的最大问题,如此大量的因业务“误报”而非技术“误报”浪费了企业安全运维人员太多的时间和精力。更为糟糕的是,当安全团队不断收到相同的错误警报时,“狼来了”的故事就会重演,即当实际真实的安全威胁事件发生时就往往会被忽略无视。而机器学习领域中诸如决策树,基于规则的分类、自组织图、聚类等多种算法技术都可以加以应用,并在安全可靠前提下做到减少“误报”。

5、更快的检测和响应速度

当今网络安全世界,不断优化的模型算法和硬件技术,为机器学习提供了应对海量数据的高效分析和异常检测的夯实基础,进而使得企业可以利用机器学习更快更好地预见企业内部威胁的发生。

6、持续不断的优化提高

这可能是在网络安全领域中使用机器学习技术的最有价值的地方。天生具有自我发展进化属性的机器学习可以通过处理更多的案例,同时从人工干预中获得更多合理反馈,因此系统本身可以得到持续完善及优化。更重要的是,作为一种新兴技术,目前机器学习领域中还处在日新月异的更迭优化和提高中,该属性与企业网络安全的发展也非常匹配,因为企业内部威胁也在无时无刻不断发展中,我们恰恰需要能够与之并驾齐驱、持续更新的安全解决方案。

行为分析,威胁检测,分类和风险评分这些工作的实际过程可能很复杂,其具体复杂度取决于所使用的机器学习算法,但是大多数系统使用的通用法则是“异常检测”,它的思路是:正常的用户行为应与他所在群体或他本人过去行为(称为基线)相匹配,偏离此基线发生的事件就是异常行为。

一般情况下,这种异常可能是欺诈、破坏、内外串通、数据盗窃或其他恶意企图的行为。算法一旦检测到行为有偏差,便可以标记该事件以进行进一步调查,或者也可以设计为将该事件与过去记录的类似事件进行比较。这些历史记录是基于培训数据或共享知识库(多个企业共享威胁情报等数据库)上执行相关的监督算法的结果,在这个监督算法中,安全运维人员需要人工标记以区分“正常”或“异常”。在最终的输出结果中,展现的威胁记录具有风险评分属性,包括行为频率、涉及的资源、潜在影响、影响的节点数以及其它变量等。

将机器学习技术很好地应用于企业内部威胁的系统检测,需要仔细考虑和认真实现以下基本步骤:

1、数据特征输入

作为数据分析的一种技术,机器学习(数据分析)的第一步同样是用户和实体的行为数据集的输入,这个数据集即为被系统监控分析的对象,例如应用程序/网站、电子邮件、文件系统、网络、元数据(例如监视时间)、用户角色/访问级别、内容、工作时间表等,输入的数据粒度越精细,系统的准确性就越高。

2、数据特征分类标签

这可以通过预定义的静态分类标准列表(例如PII,PHI,PFI,代码片段code snippets等),半动态列表(例如文件属性和来源)或使用OCR类型技术动态地在数据传输时发现并标记来完成。监督和非监督的分类算法可以被用来基于这些列表参数过滤分析原始数据,例如,在过滤敏感文件的监督分类算法中,可以将“文件上载”参数作为输入标准,而使用文件属性/标记“机密”参数作为输出标准。

3、用户肖像构建

诸如用户角色、部门/组、访问级别等信息将从员工记录/ HR系统、Active Directory、系统审核日志、数据仓库中的切块数据以及其他相关数据源,这些可以用于行为分析模型中的个性化配置,或之后与企业的访问控制和特权管理系统集成。

4、行为分析模型生成

不同的机器学习算法(例如特征提取,特征值分解,密度估计,聚类等)生成不同的行为分析模型,相关的统计/数学框架也需要进行优化调整。例如,基于回归模型可用于预测未来的用户行为或发现信用卡欺诈,群集算法可用于比较业务对象的合规性(偏离合规)。

5、基线的持续优化

行为分析模型生成基线后,用好机器学习还需要完成一个重要的工作,即根据特定业务目的进行优化调整:譬如添加时间或频率分量以在不同的偏差水平上触发相关规则,定义合适的风险评分等,也可以通过额外过滤来提高算法的效率并减少“误报”数量,例如在网站异常检测中添加域过滤条件以减少需要更深一步检查的安全事件数量。几乎在所有的情况下,为个人、小组/部门或企业等不同级别生成的分析基线都可以做类似的优化。

6、与安全产品策略和规则整合

根据模型产生的行为基线用于识别威胁并在发生异常情况时触发警报,某些员工监控、 UEBA、DLP产品将这些行为基线与产品的策略和规则引擎集成,试图能够主动防御威胁的发生。这些策略和规则引擎支持以下操作:警告用户、阻断流量、通知管理员、执行特定命令或重新记录以做审计溯源调查之用。

7、人工反馈优化

到目前为止,无论一个机器学习系统有多么出色,仍然不可避免错误的发生——产生误报或漏报威胁。当前的技术还无法实现对人类行为的完全精准建模,所以,安全运维人员还不得不时时评估和进一步人工分析机器学习系统的输出。幸运的是,机器学习系统能够响应人工输入,通过足够多的人工反馈,系统准确性会不断优化,随着时间的推移,系统所需的人工干预会越来越少。

总之,虽然有很多优势,但行为分析和机器学习也有一定的局限性,并不是对付内部威胁的灵丹妙药,利用机器学习的最佳方法是将其视为企业安全工具箱中的一个(功能很强大的)。

随着所面临威胁形势的趋势发展变化,企业需要能够应对来自内部威胁的动态(非静态)技术,像恶意用户、间谍、破坏、欺诈、数据和IP盗窃、特权滥用以及其他难以识别的风险等,而机器学习正是朝着这个正确方向飞跃发展的前瞻科技,具有无限潜质与活力!

# 网络安全技术 # 机器学习
本文为 独立观点,未经允许不得转载,授权请联系FreeBuf客服小蜜蜂,微信:freebee2022
被以下专辑收录,发现更多精彩内容
+ 收入我的专辑
+ 加入我的收藏
相关推荐
  • 0 文章数
  • 0 关注者