R包NMF非负矩阵分解
(1)NMF是非负矩阵分解(Non-negative Matrix Factorization)的缩写。它是将一个非负数据矩阵分解为两个非负矩阵的乘积,其...
(1)NMF是非负矩阵分解(Non-negative Matrix Factorization)的缩写。它是将一个非负数据矩阵分解为两个非负矩阵的乘积,其...
https://mlr3book.mlr-org.com/ 1 2 3 4 5 6 7 8 9 10 library(mlr3verse) library(tidyverse) tsks() #预置数据任务 lrns() #机器学习算法 msrs() #性能评价指标 as.data.table() 1. Task 任务 https://mlr3book.mlr-org.com/chapters/chapter2/data_and_basic_modeling.html 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 tsk() #预置数据任务 as.data.table(tsk()) tsk("mtcars") #...
1 2 library(mlr3verse) library(tidyverse) 1、Task训练数据与目的 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 ## 分类任务 task_classif = as_task_classif(data, target = "col_target") #根据预测结果又可分为:twoclass二分类, mul...
KNN–K近邻 1、KNN的步骤 (1)计算输入数据与训练数据的距离(一般欧几里得距离); (2)从训练集中,选取距离输入数据点最近的...
1、逻辑回归的算法理解 逻辑回归 = 线性回归 + Sigmoid函数 与线性回归相同的是同样需要学习变量的权重(系数)与偏置(截距);与线性回归不同的...
1、概述 LDA与QDA可以简单理解为有监督的降维,将多个预测变量信息压缩成少数(类别数-1)新的预测变量。 每一个新的预测变量称之为判别函数,...
1、朴素贝叶斯简介 Naive Bayes:预测样本属于每一类别的概率,取概率最高的类别。包含四个概念:后验概率、似然、先验概率以及全概率。如下图示例 例...
1、SVM相关 基本概念 超平面:比数据集的变量少一个维度的平面,也称为决策边界; 间隔:(对于硬间隔)训练数据中最接近决策边界的样本点与决策边界...
1、决策树基础 1.1 决策树的构成 (1)决策树由节点组成,可分为决策节点(Decision tree)与叶节点(leaf node)。 (2)从上到下的...
1、关于线性回归 1.1 公式理解 由于实际问题很少遇到单变量线性回归,所以更常见的表示为通用线性模型: $$ y = \beta_0 + \beta_1x_1 + \beta_2x_2 + …+\beta_kx_k + \epsilon $$ (1)β0表示截距,...