当前位置: 首页 > wzjs >正文

长沙做旅游网站公司百度seo培训课程

长沙做旅游网站公司,百度seo培训课程,做网站推广有什么升职空间,建设政府门户网站的意义有哪些DAY 23 pipeline管道 知识回顾: 转化器和估计器的概念管道工程ColumnTransformer和Pipeline类 作业: 整理下全部逻辑的先后顺序,看看能不能制作出适合所有机器学习的通用pipeline import pandas as pd import numpy as np import matplotlib.pyplot as p…

DAY 23 pipeline管道

知识回顾:

  1. 转化器和估计器的概念
  2. 管道工程
  3. ColumnTransformer和Pipeline类

作业:

整理下全部逻辑的先后顺序,看看能不能制作出适合所有机器学习的通用pipeline

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
import time # 导入 time 库
import warnings
warnings.filterwarnings("ignore")
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False # 防止负号显示问题# 导入 Pipeline 和相关预处理工具
from sklearn.pipeline import Pipeline #  用于创建机器学习工作流
from sklearn.compose import ColumnTransformer # 用于将不同的预处理应用于不同的列,之前是对datafame的某一列手动处理,如果在pipeline中直接用standardScaler等函数就会对所有列处理,所以要用到这个工具
from sklearn.preprocessing import OrdinalEncoder, OneHotEncoder, StandardScaler # 用于数据预处理
from sklearn.impute import SimpleImputer # 用于处理缺失值# 机器学习相关库
from sklearn.ensemble import RandomForestClassifier
from sklearn.metrics import classification_report, confusion_matrix, accuracy_score, precision_score, recall_score, f1_score
from sklearn.model_selection import train_test_split # 只导入 train_test_split# --- 加载原始数据 ---
data = pd.read_csv('train.csv')
# Pipeline 将直接处理分割后的原始数据 X_train, X_test
# 原手动预处理步骤 (将被Pipeline替代):
# Home Ownership 标签编码
# Years in current job 标签编码
# Purpose 独热编码
# Term 0 - 1 映射并重命名
# 连续特征用众数补全
data = data.drop(columns=["PassengerId","Name","Ticket"])#看具体数据进行选择
# --- 分离特征和标签 (使用原始数据) --
y = data['Survived']
X = data.drop(['Survived'], axis=1)# --- 划分训练集和测试集 (在任何预处理之前划分) ---
# X_train 和 X_test 现在是原始数据中划分出来的部分,不包含你之前的任何手动预处理结果
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# --- 定义不同列的类型和它们对应的预处理步骤 (这些将被放入 Pipeline 的 ColumnTransformer 中) ---
# 这些定义是基于原始数据 X 的列类型来确定的# 识别原始的 object 列 (对应你原代码中的 discrete_features 在预处理前)
object_cols = X.select_dtypes(include=['object']).columns.tolist()# 有序分类特征 (对应你之前的标签编码)
# 注意:OrdinalEncoder默认编码为0, 1, 2... 对应你之前的1, 2, 3...需要在模型解释时注意
# 这里的类别顺序需要和你之前映射的顺序一致
ordinal_features = ['Sex', 'Embarked']
# 定义每个有序特征的类别顺序,这个顺序决定了编码后的数值大小
ordinal_categories = [['male', 'female'], ['S', 'C', 'Q']]
# 先用众数填充分类特征的缺失值,然后进行有序编码
ordinal_transformer = Pipeline(steps=[('imputer', SimpleImputer(strategy='most_frequent')), # 用众数填充分类特征的缺失值('encoder', OrdinalEncoder(categories=ordinal_categories, handle_unknown='use_encoded_value', unknown_value=-1))
])# 分类特征 
nominal_features = ['Cabin'] # 使用原始列名
# 先用众数填充分类特征的缺失值,然后进行独热编码
nominal_transformer = Pipeline(steps=[('imputer', SimpleImputer(strategy='most_frequent')), # 用众数填充分类特征的缺失值('onehot', OneHotEncoder(handle_unknown='ignore', sparse_output=False)) # sparse_output=False 使输出为密集数组
])# 连续特征
# 从X的列中排除掉分类特征,得到连续特征列表
continuous_features = X.columns.difference(object_cols).tolist() # 原始X中非object类型的列# 先用众数填充缺失值,然后进行标准化
continuous_transformer = Pipeline(steps=[('imputer', SimpleImputer(strategy='most_frequent')), # 用众数填充缺失值 (复现你的原始逻辑)('scaler', StandardScaler()) # 标准化,一个好的实践
])# --- 构建 ColumnTransformer ---
# 将不同的预处理应用于不同的列子集,构造一个完备的转化器
preprocessor = ColumnTransformer(transformers=[('ordinal', ordinal_transformer, ordinal_features),('nominal', nominal_transformer, nominal_features),('continuous', continuous_transformer, continuous_features)],remainder='passthrough' # 保留没有在transformers中指定的列(如果存在的话),或者 'drop' 丢弃
)# --- 构建完整的 Pipeline ---
# 将预处理器和模型串联起来
# 使用你原代码中 RandomForestClassifier 的默认参数和 random_state,这里的参数用到了元组这个数据结构
pipeline = Pipeline(steps=[('preprocessor', preprocessor), # 第一步:应用所有的预处理 (ColumnTransformer)('classifier', RandomForestClassifier(random_state=42)) # 第二步:随机森林分类器
])# --- 1. 使用 Pipeline 在划分好的训练集和测试集上评估 ---print("--- 1. 默认参数随机森林 (训练集 -> 测试集) ---") 
start_time = time.time() # 记录开始时间# 在原始的 X_train 上拟合整个Pipeline
# Pipeline会自动按顺序执行preprocessor的fit_transform(X_train),然后用处理后的数据拟合classifier
pipeline.fit(X_train, y_train)# 在原始的 X_test 上进行预测
# Pipeline会自动按顺序执行preprocessor的transform(X_test),然后用处理后的数据进行预测
pipeline_pred = pipeline.predict(X_test)end_time = time.time() # 记录结束时间print(f"训练与预测耗时: {end_time - start_time:.4f} 秒") # 使用你原代码的输出格式print("\n默认随机森林 在测试集上的分类报告:") # 使用你原代码的输出文本
print(classification_report(y_test, pipeline_pred))
print("默认随机森林 在测试集上的混淆矩阵:") # 使用你原代码的输出文本
print(confusion_matrix(y_test, pipeline_pred))

数据集选择的是泰坦尼克号数据集

@浙大疏锦行

http://www.dtcms.com/wzjs/198756.html

相关文章:

  • 微信做淘宝客网站seo关键词推广案例
  • 绵阳住房和城乡建设局网站最近的热点新闻
  • 创建博客网站百度官网进入
  • 源码下载网站有哪些域名查询网站
  • 火影忍者网页制作网站无锡seo网站管理
  • 重庆市建筑工程厦门谷歌seo公司有哪些
  • wordpress外贸建站 视频开发新客户的十大渠道
  • 网站数据分析工具有哪些营销顾问
  • asp网站咋做完美动力培训价格表
  • 微信网站 影楼最新国际消息
  • 做食品企业网站的费用seo中文含义
  • 做网上竞彩网站合法吗seo关键词优化外包公司
  • 教育学校网站源码 php邯郸seo推广
  • 网站首页优化免费进入b站2022年更新
  • php java开发网站建设海外新闻发布
  • 网页版微信官方独立站seo优化
  • 贵阳小程序定制开发抖音seo排名优化软件
  • 视频网站做app开发的丹东seo推广优化报价
  • 安徽飞亚建设网站52种新颖的促销方式
  • 无锡网络建站北京网络网站推广
  • jsp网站开发技术今日小说搜索风云榜
  • 网站服务器选择北京seo排名技术
  • 株洲市天元区建设局网站成都黑帽seo
  • 品牌网站建设定制佛山网站建设工作
  • 深圳购物网站建设公司郑州网络推广团队
  • 网页设计素材与效果图深圳优化排名公司
  • 关于科技园区建设文章的网站今日油价最新
  • h5 php mysql网站开发怎么让网站快速收录
  • 呼市品牌网站建设那家好郑州优化网站公司
  • 怎么让别人访问自己做的的网站网站的营销推广方案