异常检测作为数据分析的一个重要分支在风险管理、安全管理、业务管理、运营管理等领域已经被广泛应用,但是仍然存在很多丞待解决的问题。
数据时效性问题,异常在独立时序中往往很难被检测出来,但用户往往很难将高时效性数据(用户行为数据)与低时效性数据(各项业务指标)融合到一起进行分析,往往导致异常情况需要待最低时效的数据获得后才能被检测到,DataPipeline 基于自身在数据融合领域的深厚积累,支持实时接入各类异构数据为异常检测所用,很好的解决了数据时效性问题;
异常定义问题,当前的异常检测系统往往基于专家经验与异常标注后将问题转化为分类问题等方式,虽有一定效果但需要耗费大量人工又无法及时发现新的异常类型,DataPipeline 实时异常检测产品采用无监督自主学习的方式,自动进行模型匹配,自动进行季节性分析,解决了异常标注中需要大量业务背景的专业人员大量体力劳动问题,同时很好的解决了异常样本量少,监督学习效率较低,准确率不高的问题。
告警洪流问题,传统的方法还经常会在业务出现问题时生成过多告警,造成告警洪流,让业务人员无所是从,无法快速处理问题。DataPipeline 实时异常检测产品采用相关性分析算法,合并预警关联检测出的多个异常指标,让企业能快速找到问题根因,提升问题解决效率,将损失降到最低。
DataPipeline 致力于成为以企业客户为中心,以技术驱动的产品公司。
DataPipeline 相信自己有能力也有意愿代表数据领域的技术发展方向与领先技术实践。
DataPipeline 知道关注我们的客户、合作伙伴与所有员工都十分关注我们未来十二个月会发布的新特性和增强优化。
DataPipeline 认为客户的反馈与内部各部门的意见对产品的发展同样至关重要。
请让我们知道您对 DataPipeline 的想法。
打通资源通道,让客户全域信息随需可得。
以下是我们希望在未来十二个月添加的主要特性,这些特性已经经过了充分研究、探讨与技术探索,一般来说我们不会轻易更改,但也对提出不同意见的相关方心存感激。
构建由数据服务引擎、数据服务配置管理、数据服务网关与数据服务门户组成的数据服务平台。
通过对系统性能、稳定性与可管理性的进一步优化来满足企业级产品的要求。
通过对全生命周期、数据资产管理、自动化运维及其他管理能力的增强与优化夯实竞争壁垒。
用户可以通过对分页、数据组织等策略的配置实现更加灵活、支持范围更加广泛的数据服务。
用户可以通过数据服务网关实现数据服务的注册发现、 运行监控、权限鉴定与流量控制等基本功能。
用户可以通过数据服务网关实现数据服务的注册发现、 运行监控、权限鉴定与流量控制等基本功能。
通过数据服务检索申请与数据服务上线发布两个流程的打通,用户可以在数据服务门户注册、检索、申请数据 服务的使用,数据服务发布用户可以将应答申请、发布、管理数据服务。
通过对数据服务引擎分布式、 集群化的设计,实现对限流、 服务降级、熔断等高可用策略的实现,进一步优化数据服务平台的系统稳定性。
通过对数据缓存机制、异步服务机制等核心功能的优化, 进一步提升系统性能。
用户可以配置服务引擎、配置管理、网关与门户的租户管理、用户管理、权限策略、 安全策略、日志策略,监控策略及预警策略,进一步提升系统的可管理性。
用户可以对数据服务的设计、 配置、测试、部署、发布、 升级、多版本、下线的管理生命周期与数据服务的进行、 限流、熔断、降级、修复的运行生命周期进行管理与策略配置。
除检索、申请已有数据服务之外,用户可以在数据服务门户对全域数据资产进行检索并申请相关数据服务。
通过系统资源监测、数据节 点监测、服务引擎监测及流量监测进一步增强系统的管理能力。
用户可以通过子服务编排、 动态部署、自动化测试、多版本发布、多认证方式等策略配置支撑数据服务配置管理的更多要求。
用户可以通过差异化的配置模板针对不同的数据资源特 性进行配置,支持不同数据服务的差异化要求。
用户可以通过异常检测、健康检查、动态资源调配及服务修复等功能实现自动化运维管理。
进一步优化数据服务引擎的性能和稳定性。