中文 / English
野生菌の部落格

代码的世界需要野生菌来发酵


  • 首页

  • 目录

  • 分类

  • 关于我

  • 搜索

情报库AI引擎 (四)分词处理

时间: 2022-08-01 分类: python   字数: 271 字 阅读: 1分钟

通过pre-trained基于HanLP的中文分词模型,对我们原始数据集进一步分词处理,由于情报库中网站大部分为中文和英文,选用合适的联合模型处理,进一步优化数据集。

使用分词模型,提取了其中的中文词语,进一步根据词性,去除了其中的介词、连词、助词、虚词等.

阅读全文 »

情报库AI引擎 (三)数据清洗

时间: 2022-07-29 分类: python   字数: 751 字 阅读: 2分钟

本地情报库中共有300多万条黑产告警域名,目前爬取了11万条,提取出4.7万条有效域名(无法访问、公安提醒诈骗、返回错误、无标题及超链接等的域名判定为无效),以及对应的标题、超链接名等信息存入了csv文件,共110M大小,作为搭建测试模型的初步语料库。

在爬取了数据后,由于原始数据中含有大量的非法字符及无效符号等信息(有些网站title与超链接均为图片,则提取出的是乱码)如’抱歉,站点已暂停‘ ’���‘’404 Not Found‘等,需要对其中的这些数据进行清洗。

有些网站超链接中含有大量\t,\n等符号,需要进一步去除噪声。

最终得到42629条数据。

阅读全文 »

情报库AI引擎 (二)建立多线程爬虫提升爬取速度

时间: 2022-07-27 分类: python   字数: 1014 字 阅读: 3分钟

需求:现有的情报库来源均为第三方接口,需要通过这些原始数据,基于深度学习网络,构建能够实现自动检测的恶意网址识别模型。首先需要通过爬虫,挖掘三百多万条恶意网址的信息,并进行标签化,从而构建原始的数据集。

由于单线程爬取速度慢,因此进行了改进,实现多线程爬取数据。

阅读全文 »

情报库AI引擎 (一)通过爬虫建立原始数据集

时间: 2022-07-25 分类: python   字数: 480 字 阅读: 1分钟

需求:现有的情报库来源均为第三方接口,需要通过这些原始数据,基于深度学习网络,构建能够实现自动检测的恶意网址识别模型。首先需要通过爬虫,挖掘三百多万条恶意网址的信息,并进行标签化,从而构建原始的数据集。

阅读全文 »

实习产出Internship outputs

时间: 2022-07-25 分类: internship   字数: 2180 字 阅读: 5分钟

Internships

更新记录一下实习产出~

阅读全文 »
1 2 3 4 5 6 7
野生菌

野生菌

Stay Wild & Stay Curious

32 日志
9 分类
21 标签
RSS 订阅
GitHub 知乎 Instagram Email
友情链接
  • Foxcii
  • Sulv's Blog
  • Dvel's Blog
  • TomtomYoung
  • Net Pipe's Blog
  • Ethan.Tzy
标签云
  • Basic 5
  • Golang 5
  • Python 5
  • Linux 3
  • Redis 3
  • Grpc 2
  • K8s 2
  • Blog 1
  • Cybersecurity 1
  • Gc 1
© 2010 - 2022 野生菌の部落格
Powered by - Hugo v0.100.1 / Theme by - NexT
/
0%