10分钟搭建MySQL Binlog分析+可视化方案

  • 时间:
  • 浏览:0
  • 来源:爱乐彩网站_爱乐彩下载_爱乐彩官网



对异常账号进行查询分析

原文发布时间为:2018-05-2

用户登录大盘搭建

若用户连续登录失败超过5次,则下次登录将使用手机验证码

在配置页面中输入 binlog 收集配置,如下:对于修改的事件,Logtail 会同時 收集修改前和修改后的数据,修改前的数据以 old_开头。但会 让让我们都都才能基于修改前后的数据对比查找登录ip变化的相关记录。

正常状态只验证账号密码匹配

以下让让我们都都以用户登录数据库作为案例。公司内非常多的人员依赖于用户登录数据以及其衍生出来的相关数据:

本文作者:元乙

告警设置参见日志服务告警设置

每次用户登录,在 user_login 中新增三根记录,记录登录的ip、设备类型、时间信息

在日志服务控制台创建有另一多少新的 Logstore,收集向导中选泽自建软件中的 Mysql binlog



环境准备

老板要看大屏,每天 UV、PV 增长在哪里?

安装 logtail

在配置页面中输入 binlog 收集配置,如下:这些请参考 binlog 收集中使用限制

应用配置1分钟后,点击预览才能看多状态数据前一天收集上来(logtail 的 binlog 收集会额外上传数据操作类型、GTID 等信息):

用户登录时表的更新方案



若用户连续登录失败超过3次前一天当前ip和上次登录ip沒有同一省,下次登录将弹出验证码

对异常登录进行告警

安全要监控登录算是异常,现在用户账户算是遭到集体攻击?

对历史登录信息备份以备数据审计

仪表盘搭建参见日志服务仪表盘设置



根据上一节的统计结果,让让我们都都搭建出了用户登录信息的仪表盘,才能向 CEO 汇报了。

在配置页面中输入 binlog 收集配置,如下:用户反馈本人的账号被限制登录了,客服通过日志服务,查询该用户限制登录前的相关登录信息:login_id : 256525 | select ip_tp_province(login_ip) as login_province, login_result, count(1) as total group by (login_province,login_result) order by total desc limit 60 ,发现该用户在多个省异常登录失败了这些这些次。

在配置页面中输入 binlog 收集配置,如下:注意:

查看登录设备分布

这里让让我们都都推荐使用方案 2+logtail binlog 收集组成最优的方案3:用户最近一次登录信息依然保地处数据库中,通过 logtail 的 binlog 功能收集 user_login 表,logtail 会将表中的每次修改事件上传到日志服务,日志服务中的数据可设置保存时间,超时自动删除。同時 在日志服务中,才能对实时收集上来的数据进行查询、统计、查看报表、监控报警,也支持将数据对接下游流计算、导入 Max Compute/OSS 等。

审计上门了,请把您3年前用户的登录数据背熟来吧?

数据库

根据文档安装 logtail,确认版本号在0.16.0及以上。若低于0.16.0版本请根据文档提示升级到最新版本。

到这些 步让让我们都都就才能满足客服和 BI 的需求了:查询/关联查询。这些:

在配置页面中输入 binlog 收集配置,如下:注意: 若无数据,请检查配置算是为合法 json;若配置正常,请参考数据收集异常排查文档自助排查

方案2:

用户登录大盘



异常登录告警

用户登录表中记录了登录 id、登录时间、登录 ip、登录设备、用户 id、登录结果、连续登录失败次数、下一次校验类型等信息。其中登录验证规则如下:

异常登录后会有误判的前一天性,但会 正常状态下会有少累积异常登录的状态,但异常登录占比要小于1%。这里让让我们都都为用户登录设置有另一多少异常登录的告警:若当异常登录占总登录的1%则触发告警。

配置应用到机器组后,进入索引查询配置页面。在键值索引属性中配置以下索引项:

MySQL Binlog 收集

数据预览

关键字段索引+统计设置

收集配置

建立索引

接下来让让我们都都将演示怎样才能在10分钟内手把手完成从 binlog 收集到查询、告警、搭建报表等全过程,满足各个老板们的需求:

日志服务最近在原有 60 + 种数据收集渠道 基础上,新增 MySQL Binlog、MySQL select 等数据库方案,仍然主打快捷、实时、稳定、所见即所得的特点。

统计一天的 UV&PV

统计地理位置分布

在配置页面中输入 binlog 收集配置,如下:查询相关使用帮助参见日志服务查询

在配置页面中输入 binlog 收集配置,如下:binlog 支持 IncludeTables 和 ExcludeTables 过滤,格式均为正则表达式

自定义查询与分析

客户小二接到用户反馈,怎样才能实时查询用户登录信息?

统计 top10 的 city(使用 ip_to_city)

配置可视化仪表盘



将该查询存为快速查询 abnormal_login,并设置告警。

每5分钟统计 UV&PV 分布

前一天原始的数据中这么用户登录的地理位置分布信息,但让让我们都都才能通过ip地址定位到用户登录的省市,这里让让我们都都使用日志服务自带的ip地址转换函数(具体参见分析语法IP识别函数章节)

数据收集



用户登录表形状

对于方案1,优点是数据库中保存了所有用户的登录信息,缺点是 user_login 表会地处爆掉的疑问,须要定期删除历史的数据;对于方案2,优点是 user_login 表的大小可控,缺点是会丢失历史用户的登录信息。

用户登录数据,一般建议在日志服务存储一段时间(60 天、5天 、1年等)用于实时的查询和分析,但对于历史数据还须要保存下来,便于后续的审计、大数据挖掘与分析等。这里让让我们都都使用日志服务的投递功能,将数据投递到 OSS 进行长期的归档存储。审计员来了看多多少年前的数据全是!

本文来自云栖社区媒体协作伙伴“数据和云”,了解相关信息才能关注“数据和云”。

方案1:

在配置页面中输入 binlog 收集配置,如下:数据库开启 binlog 且为 ROW 模式(RDS 默认支持),使用的账户具有 mysql slave 权限以及须要收集的数据表的 select 权限。

MySQL 类型数据库(使用 MySQL 协议,这些 RDS、DRDS 等),数据库开启 binlog,且配置 binlog 类型为 ROW 模式(RDS 默认开启)

统计省份分布(使用 ip_tp_province)

数据备份

在配置页面中输入 binlog 收集配置,如下:

考虑到用户数量非常多,前一天每次用户登录全是 user_login 中新增三根记录,数据量会非常大,这些这些每次用户登录时,只会根据 user_id 更新 update 表中的数据

BI须要分析用户行为,数据分析怎样才能关联用户登录数据?

现在让让我们都都来搭建 CEO 要的大盘,先准备这些基础的统计信息: