当前位置: 首页 > wzjs >正文

公司做两个网站有影响吗福州seo顾问

公司做两个网站有影响吗,福州seo顾问,杭州市建设信用网,网页链接提取工具文章目录 前言一、TF-IDF特征词重要度特征提取二、无量纲化处理1.最大最小值归一化2.normalize归一化3.StanderScaler标准化 前言 通过今天的学习,我掌握了TF-IDF特征词重要度特征提取以及无量纲化处理的相关知识和用法 一、TF-IDF特征词重要度特征提取 机器学习算…

文章目录

  • 前言
  • 一、TF-IDF特征词重要度特征提取
  • 二、无量纲化处理
    • 1.最大最小值归一化
    • 2.normalize归一化
    • 3.StanderScaler标准化


前言

  • 通过今天的学习,我掌握了TF-IDF特征词重要度特征提取以及无量纲化处理的相关知识和用法

一、TF-IDF特征词重要度特征提取

  • 机器学习算法在处理文本时有广泛应用,在分析文本时,我们常常使用词频(TF),逆文档频率(IDF)反映文本中的关键词
  • 词频(Term Frequency, TF), 表示一个词在当前篇文章中的重要性
  • 逆文档频率(Inverse Document Frequency, IDF), 反映了词在整个文档集合中的稀有程度
  • TF-IDF可以反映词语在某文本中的重要程度

以下给出相应的计算公式:
在这里插入图片描述

  • 需要注意的是,在sklearn库中对TF和IDF的公式进行了优化,sklearn中直接使用一个词在某文档中出现的次数作为TF,而IDF的计算公式如下:
    I D F ( t ) = log ⁡ ⁡ ( 总文档数 + 1 包含词 t 的文档数 + 1 ) + 1 IDF(t)=\log⁡(\dfrac{总文档数+1}{包含词t的文档数+1})+1 IDF(t)=log(包含词t的文档数+1总文档数+1)+1

API:sklearn.feature_extraction.text.TfidfVectorizer()
该API的用法和结果与CountVectorizer相似,只是此API返回的是TF-IDF组成的系数矩阵

def my_cut(text):return " ".join(jieba.cut(text))
data=["教育学会会长期间,坚定支持民办教育事业!",  "扶持民办,学校发展事业","事业做出重大贡献!"]
data=[my_cut(i) for i in data]
# print(data)
# print("词频",CountVectorizer().fit_transform(data).toarray())
transfer=TfidfVectorizer()
res=transfer.fit_transform(data)
print(pd.DataFrame(res.toarray(),columns=transfer.get_feature_names_out()))

二、无量纲化处理

无量纲化顾名思义就是消除单位对数据的影响

1.最大最小值归一化

  • 归一化公式如下:
    在这里插入图片描述
    API:sklearn.preprocessing.MinMaxScaler(feature_range)
    该API可以将所有的数据归一化到指定的范围内
from sklearn.preprocessing import MinMaxScaler
data = [[12,22,4],[22,23,1],[11,23,9]]
transfer = MinMaxScaler((0,1)) #默认是0-1
data = transfer.fit_transform(data)

2.normalize归一化

  • normalize归一化可以对数据的行或列分别进行归一化,主要有以下三种方法:
    1.L1归一化,使用数据的绝对值相加作为分母,特征值作为分子
    2.L2归一化,使用平方作为分母,特征值作为分子
    3.max归一化,只用最大值作为分母,特征值作为分子
from sklearn.preprocessing import normalize
# Normalizer归一化
data = [[12,22,4],[22,23,1],[11,23,9]]
data_scaler = normalize(data,"l2",axis=0)
print(data_scaler) 

3.StanderScaler标准化

前两种归一化方法会受到数据中的异常点的影响,导致鲁棒性较差,使用标准化可以解决这个问题

  • 标准化公式:
    在这里插入图片描述
    API:sklearn.preprocessing.StanderScaler()
from sklearn.preprocessing import StandardScaler
# 标准化归一化
data = [[12,22,4],[22,23,1],[11,23,9]]
scaler = StandardScaler()
# scaler.fit(data) # 统计数据的均值和方差并保存下来
# scaler.transform(data) #进行标准化转换
data_scaler = scaler.fit_transform(data)
print(data_scaler)
  • 注意到创建转换器类对象后fit和transform可以分开进行,fit用于统计并保存当前数据的均值和方差,transform使用保存的均值和方差进行对应转换,如果有两组数据,只对第一组数据fit,那么第二组数据使用transform时会使用第一组数据的均值和方差
from sklearn.preprocessing import StandardScaler
# 标准化归一化
data = [[12,22,4],[22,23,1],[11,23,9]]
scaler = StandardScaler()
scaler.fit(data) # 统计数据的均值和方差并保存下来
scaler.transform(data) #进行标准化转换data2 = [[13,21,5]]
data2 = scaler.transform(data2) #此时使用的是data的均值与方差
print(data2)

THE END

http://www.dtcms.com/wzjs/354978.html

相关文章:

  • 做石膏选图形的网站网络代理app
  • 企业网站静态模板注册域名费用一般多少钱
  • wordpress评论回复插件seo网站优化详解
  • 龙岩网站建设方案优化海淀区seo引擎优化多少钱
  • 域名申请的步骤包括seo的工作内容主要包括
  • 时时彩网站代理怎么做seo从零开始到精通200讲解
  • 芜湖龙湖建设工程有限公司网站武汉外包seo公司
  • 如何开办自己的公司东莞seo网络优化
  • 深圳做官网的公司成都seo招聘信息
  • 网站建设中 敬请期待怎么解决河源网站seo
  • 怎么破解别人做的付费网站营销方案的几个要素
  • 广告设计公司绩效考核宁波网站推广优化外包
  • 商丘交友网站开发公司宁波seo推广推荐公司
  • 广州网站建设招标网站优化招聘
  • 新闻写作网站厦门百度广告
  • wordpress文章发布不了南京seo圈子
  • 网站建议反馈应该怎么做加入网络营销公司
  • 苏州个人网站建设如何做好网站的推广工作
  • 做网站开发的东莞关键词seo优化
  • 什么主题的网站容易做网络建站公司
  • 南通网站建设服务友情链接什么意思
  • wordpress 顶部白条什么是搜索引擎优化的核心
  • 佛山网站哪家最专业网络推广网上营销
  • 网站建设价目网站排名推广推荐
  • 宁波建设网站公司网站推广seo优化
  • 深圳网站设计推荐刻关键词热度分析
  • 创建自己的网站有什么用提高网站排名的软件
  • 免费商城网站建设新闻软文怎么写
  • 重庆模板网站建设费用免费seo关键词优化服务
  • 保健品 东莞网站建设百度一下照片识别