【AI 达人特训营】基于飞桨实现系统认证风险预测-异常检测
根据官方给的特征进行特征衍生,然后利用paddle实现系统认证风险预测-异常检测的任务
【AI 达人特训营】系统认证风险预测-异常检测
本项目基于百度飞桨PaddlePaddle实现系统认证风险预测-异常检测
根据原始特征衍生出了更多维度的特征供给给模型使用学习
一、赛题背景
随着国家、企业对安全和效率越来越重视,作为安全基础设施之一的统一身份管理(IAM,Identity and Access Management)也得到越来越多的关注。 在IAM领域中,其主要安全防护手段是身份鉴别,既我们常见的口令验证、扫码验证、指纹验证等。它们一般分为三类,既用户所知(如口令)、所有(如身份证)、特征(如人脸)。但这些身份鉴别方式都有其各自的优缺点,比如口令,强度高了记不住,强度低了容易丢,又比如人脸,摇头晃脑做活体检测体验不好,静默检测如果算法不够,又很容易被照片、视频、人脸模型绕过。也因此,在等保2.0中对于三级以上系统要求必须使用两种以上的身份鉴别方式进行身份验证,来提高身份鉴别的可信度,这也被成为双因素认证。
但这对用户来说虽然在一定程度提高了安全性,但极大的降低了用户体验。也因此,IAM厂商开始参考UEBA、用户画像等行为分析技术,来探索一种既能确保用户体验,又能提高身份鉴别强度的方法。而在当前IAM的探索进程当中,目前最为可具落地的方法,是基于规则的行为分析技术,因为它的可理解性很高,且很容易与身份鉴别技术进行联动。
但基于规则但局限性也很明显,它是基于经验的,有宁错杀一千,不放过一个的特点,缺少从数据层面来证明是否有人正在尝试窃取或验证非法获取的身份信息,又或者正在使用窃取的身份信息,以此来提前进行风险预警和处置。
更多内容请前往比赛官网查看:系统认证风险预测-异常检测
比赛任务
本赛题中,参赛团队需要基于用户认证行为数据及风险异常标记结构,构建用户认证行为特征模型和风险异常评估模型,利用风险评估模型去判断当前用户认证行为是否存在风险。
- 利用用户认证数据构建行为基线
- 采用监督学习模型,基于用户认证行为特征,构建风险异常评估模型,判断当前用户认证行为是否存在风险
二、数据分析及处理
比赛数据是从竹云的风险分析产品日志库中摘录而来,主要涉及认证日志与风险日志数据。比赛数据经过数据脱敏和数据筛选等安全处理操作,供大家使用。其中认证日志是用户在访问应用系统产生的行为数据,包括登录、单点登录、退出等行为。
该比赛使用的数据已上传至AI Studio:https://aistudio.baidu.com/aistudio/datasetdetail/112151
数据概况
!pip uninstall paddlepaddle -y
!pip install paddlepaddle
import pandas as pd
import numpy as np
import json
train = pd.read_csv('data/data112151/train_dataset.csv', sep='\t')
test = pd.read_csv('data/data112151/test_dataset.csv', sep='\t')
df_features = pd.concat([train, test])
数据预处理
比赛提供的部分数据结构如下所示:
序号 | 字段名_中文 | 字段名_英文 | 含义 | 示例 |
---|---|---|---|---|
3 | 操作类型 | action | login还是sso | 1 : login 2 : sso |
4 | 首次认证方式 | auth_type | 账密、短信、otp、二维码 | 1 : pwd 2 : sms 3 : otp 4 : qr |
6 | IP类型 | ip_location_type_keyword | 内网、家庭宽带、公共宽带、代理ip | 1 : 家庭宽带 2 : 代理ip 3 : 内网 4 : 公共宽带 |
7 | IP威胁级别 | ip_risk_level | 1级、2级、3级 | 1 : 1级 2 : 2级 3 : 3级 |
9 | 客户端类型 | client_type | app、web | 1 : app 2 : web |
10 | 浏览器来源 | browser_source | 桌面端、移动端 | 1 : desktop 2 : mobile |
17 | 应用系统类目 | op_target | 系统所属的系统类别 | 1 : sales 2 : finance 3 : management 4 : hr |
18 | 风险标识 | risk_label | 有、无 | 1 : 有;0 : 无 |
这些字段不需要编码,因此把这些字段的数据单独取出来,组合成新的数据,如下所示:
df_features['location_first_lvl'] = df_features['location'].astype(str).apply(lambda x: json.loads(x)['first_lvl'])
df_features['location_sec_lvl'] = df_features['location'].astype(str).apply(lambda x: json.loads(x)['sec_lvl'])
df_features['location_third_lvl'] = df_features['location'].astype(str).apply(lambda x: json.loads(x)['third_lvl'])
df_features['op_date'] = pd.to_datetime(df_features['op_date'])
df_features['hour'] = df_features['op_date'].dt.hour
df_features['weekday'] = df_features['op_date'].dt.weekday
df_features['year'] = df_features['op_date'].dt.year
df_features['month'] = df_features['op_date'].dt.month
df_features['day'] = df_features['op_date'].dt.day
df_features['op_date'] = df_features["op_date"].values.astype(np.int64) // 10 ** 9
df_features = df_features.sort_values(by=['user_name', 'op_date']).reset_index(drop=True)
df_features['last_ts'] = df_features.groupby(['user_name'])['op_date'].shift(1)
df_features['last_ts2'] = df_features.groupby(['user_name'])['op_date'].shift(2)
df_features['ts_diff'] = df_features['op_date'] - df_features['last_ts']
df_features['ts_diff2'] = df_features['op_date'] - df_features['last_ts2']
from sklearn.preprocessing import LabelEncoder
for feat in ['user_name', 'action', 'auth_type', 'ip', 'ip_location_type_keyword', 'ip_risk_level', 'location', 'client_type', 'browser_source',
'device_model', 'os_type', 'os_version', 'browser_type', 'browser_version', 'bus_system_code', 'op_target','location_first_lvl',
'location_sec_lvl', 'location_third_lvl',]:
lab = LabelEncoder()
df_features[feat] = lab.fit_transform(df_features[feat])
df_features.drop(columns = 'session_id', inplace=True)
for feat in [item for item in df_features.columns if item != 'risk_label']:
df_features[feat].fillna(df_features[feat].median(), inplace=True)
features = [item for item in df_features.columns if item != 'risk_label']
traindata = df_features[~df_features['risk_label'].isnull()].reset_index(drop=True)
testdata = df_features[df_features['risk_label'].isnull()].reset_index(drop=True)
data_X = traindata[features].values[:12000]
data_Y = traindata['risk_label'].values[:12000].astype(int).reshape(-1, 1)
data_X_test = traindata[features].values[12000:]
data_Y_test = traindata['risk_label'].values[12000:].astype(int).reshape(-1, 1)
testdata = testdata[features].values
# 归一化
from sklearn.preprocessing import MinMaxScaler
mm = MinMaxScaler()
data_X = mm.fit_transform(data_X)
data_X_test = mm.fit_transform(data_X_test)
testdata = mm.fit_transform(testdata)
import random
import paddle
seed = 1234
# 设置随机种子 固定结果
def set_seed(seed):
np.random.seed(seed)
random.seed(seed)
paddle.seed(seed)
set_seed(seed)
三、模型组网
使用飞桨PaddlePaddle进行组网,在本基线系统中,只使用两层全连接层完成分类任务。
import paddle
import paddle.nn as nn
# 定义动态图
class Classification(paddle.nn.Layer):
def __init__(self):
super(Classification, self).__init__()
nn.Tanh
self.drop = paddle.nn.Dropout(p=0.1)
self.fc1 = paddle.nn.Linear(29, 64)
self.fc2 = paddle.nn.Linear(64, 32)
self.fc3 = paddle.nn.Linear(32, 16)
self.fc4 = paddle.nn.Linear(16, 8)
self.fc5 = paddle.nn.Linear(8, 2)
self.Tanh = nn.Tanh()
# 网络的前向计算函数
def forward(self, inputs):
x = self.Tanh(self.fc1(inputs))
x = self.drop(x)
x = self.Tanh(self.fc2(x))
x = self.drop(x)
x = self.Tanh(self.fc3(x))
x = self.drop(x)
x = self.Tanh(self.fc4(x))
x = self.drop(x)
pred = self.fc5(x)
return pred
四、配置参数及训练
记录日志
# 定义绘制训练过程的损失值变化趋势的方法draw_train_process
train_nums = []
train_costs = []
def draw_train_process(iters,train_costs):
title="training cost"
plt.title(title, fontsize=24)
plt.xlabel("iter", fontsize=14)
plt.ylabel("cost", fontsize=14)
plt.plot(iters, train_costs,color='red',label='training cost')
plt.grid()
plt.show()
定义损失函数
损失函数使用【R-Drop:摘下SOTA的Dropout正则化策略】里的kl_loss:
import paddle
import paddle.nn.functional as F
class kl_loss(paddle.nn.Layer):
def __init__(self):
super(kl_loss, self).__init__()
def forward(self, p, q, label):
ce_loss = 0.5 * (F.mse_loss(p, label=label)) + F.mse_loss(q, label=label)
kl_loss = self.compute_kl_loss(p, q)
# carefully choose hyper-parameters
loss = ce_loss + 0.3 * kl_loss
return loss
def compute_kl_loss(self, p, q):
p_loss = F.kl_div(F.log_softmax(p, axis=-1), F.softmax(q, axis=-1), reduction='none')
q_loss = F.kl_div(F.log_softmax(q, axis=-1), F.softmax(p, axis=-1), reduction='none')
# You can choose whether to use function "sum" and "mean" depending on your task
p_loss = p_loss.sum()
q_loss = q_loss.sum()
loss = (p_loss + q_loss) / 2
return loss
模型训练
import paddle.nn.functional as F
y_preds = []
labels_list = []
BATCH_SIZE = 8
train_data = data_X
train_data_y = data_Y
test_data = data_X_test
test_data_y = data_Y_test
compute_kl_loss = kl_loss()
CET_loss = paddle.nn.CrossEntropyLoss()
def train(model):
print('start training ... ')
# 开启模型训练模式
model.train()
EPOCH_NUM = 5
train_num = 0
scheduler = paddle.optimizer.lr.CosineAnnealingDecay(learning_rate=0.001, T_max=int(traindata.shape[0]/BATCH_SIZE*EPOCH_NUM), verbose=False)
optimizer = paddle.optimizer.Adam(learning_rate=scheduler, parameters=model.parameters())
for epoch_id in range(EPOCH_NUM):
# 在每轮迭代开始之前,将训练数据的顺序随机的打乱
np.random.shuffle(train_data)
# 将训练数据进行拆分,每个batch包含8条数据
mini_batches = [np.append(train_data[k: k+BATCH_SIZE], train_data_y[k: k+BATCH_SIZE], axis = 1) for k in range(0, len(train_data), BATCH_SIZE)]
for batch_id, data in enumerate(mini_batches):
features_np = np.array(data[:, :29], np.float32)
labels_np = np.array(data[:, -1:], np.float32)
features = paddle.to_tensor(features_np)
labels = paddle.to_tensor(labels_np)
#前向计算
# y_pred = model(features)
y_pred1 = model(features)
y_pred2 = model(features)
cost = compute_kl_loss(y_pred1, y_pred2, label=labels)
# cost = CET_loss(y_pred, labels)
# cost = F.mse_loss(y_pred, label=labels)
train_cost = cost.numpy()[0]
#反向传播
cost.backward()
#最小化loss,更新参数
optimizer.step()
# 清除梯度
optimizer.clear_grad()
if batch_id % 500 == 0 and epoch_id % 1 == 0:
print("Pass:%d,Cost:%0.5f"%(epoch_id, train_cost))
train_num = train_num + BATCH_SIZE
train_nums.append(train_num)
train_costs.append(train_cost)
def predict(model):
print('start evaluating ... ')
model.eval()
outputs = []
mini_batches = [np.append(test_data[k: k+BATCH_SIZE], test_data_y[k: k+BATCH_SIZE], axis = 1) for k in range(0, len(test_data), BATCH_SIZE)]
for data in mini_batches:
features_np = np.array(data[:, :29], np.float32)
features = paddle.to_tensor(features_np)
pred = model(features)
out = paddle.argmax(pred, axis=1)
outputs.extend(out.numpy())
return outputs
model = Classification()
train(model)
outputs = predict(model)
test_data_y = test_data_y.reshape(-1, )
outputs = np.array(outputs)
from sklearn.metrics import f1_score
np.sum(test_data_y == outputs) / test_data_y.shape[0]
五、保存预测结果
模型预测:
predict_result = []
for infer_feature in testdata:
infer_feature = infer_feature.reshape(1, 29)
infer_feature = paddle.to_tensor(np.array(infer_feature, dtype='float32'))
result = model(infer_feature)
predict_result.append(result)
将结果写入.CSV文件中:
import os
import pandas as pd
id_list = [item for item in range(1, 10001)]
label_list = []
csv_file = 'submission.csv'
for item in range(len(id_list)):
label = np.argmax(predict_result[item])
label_list.append(label)
data = {'id':id_list, 'ret':label_list}
df = pd.DataFrame(data)
ile = 'submission.csv'
for item in range(len(id_list)):
label = np.argmax(predict_result[item])
label_list.append(label)
data = {'id':id_list, 'ret':label_list}
df = pd.DataFrame(data)
df.to_csv(csv_file, index=False, encoding='utf8')
六、现在的不足
特征的衍生是参考的别人的思路,但是因为现在还是对神经网络还是不是特别了解,所以导致现在的精度不高,如果网络加深可能效果会好很多,但是我现在还是不是很会这一方面,这些是我将来要改进的地方
开源链接:https://aistudio.baidu.com/aistudio/projectdetail/4247566
更多推荐
所有评论(0)