如果你也在 怎样代写多元统计分析Multivariate Statistical Analysis这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。多元统计分析Multivariate Statistical Analysis在此重定向。在数学上的用法,见多变量微积分。多变量统计是统计学的一个分支,包括同时观察和分析一个以上的结果变量。多变量统计涉及到理解每一种不同形式的多变量分析的不同目的和背景,以及它们之间的关系。多变量统计在特定问题上的实际应用可能涉及几种类型的单变量和多变量分析,以了解变量之间的关系以及它们与所研究问题的相关性。
多元统计分析Multivariate Statistical Analysis通常情况下,希望使用多变量分析的研究会因为问题的维度而停滞。这些问题通常通过使用代理模型来缓解,代理模型是基于物理学的代码的高度精确的近似。由于代用模型采取方程的形式,它们可以被快速评估。这成为大规模MVA研究的一个有利因素:在基于物理学的代码中,整个设计空间的蒙特卡洛模拟是困难的,而在评估代用模型时,它变得微不足道,代用模型通常采取响应面方程的形式。
my-assignmentexpert™ 多元统计分析Multivariate Statistical Analysis作业代写,免费提交作业要求, 满意后付款,成绩80\%以下全额退款,安全省心无顾虑。专业硕 博写手团队,所有订单可靠准时,保证 100% 原创。my-assignmentexpert™, 最高质量的多元统计分析Multivariate Statistical Analysis作业代写,服务覆盖北美、欧洲、澳洲等 国家。 在代写价格方面,考虑到同学们的经济条件,在保障代写质量的前提下,我们为客户提供最合理的价格。 由于统计Statistics作业种类很多,同时其中的大部分作业在字数上都没有具体要求,因此多元统计分析Multivariate Statistical Analysis作业代写的价格不固定。通常在经济学专家查看完作业要求之后会给出报价。作业难度和截止日期对价格也有很大的影响。
想知道您作业确定的价格吗? 免费下单以相关学科的专家能了解具体的要求之后在1-3个小时就提出价格。专家的 报价比上列的价格能便宜好几倍。
my-assignmentexpert™ 为您的留学生涯保驾护航 在数学Mathematics作业代写方面已经树立了自己的口碑, 保证靠谱, 高质且原创的多元统计分析Multivariate Statistical Analysis代写服务。我们的专家在数学Mathematics代写方面经验极为丰富,各种多元统计分析Multivariate Statistical Analysis相关的作业也就用不着 说。
我们提供的多元统计分析Multivariate Statistical Analysis及其相关学科的代写,服务范围广, 其中包括但不限于:
非线性方法 nonlinear method functional analysis
变分法 Calculus of Variations
统计代写|多元统计分析作业代写Multivariate Statistical Analysis代考|Standardized Linear Combination
The main objective of principal components analysis (PC) is to reduce the dimension of the observations. The simplest way of dimension reduction is to take just one element of the observed vector and to discard all others. This is not a very reasonable approach, as we have seen in the earlier chapters, since strength may be lost in interpreting the data. In the bank notes example we have seen that just one variable (e.g. $X_{1}=$ length) had no discriminatory power in distinguishing counterfeit from genuine bank notes. An alternative method is to weight all variables equally, i.e., to consider the simple average $p^{-1} \sum_{j=1}^{p} X_{j}$ of all the elements in the vector $X=\left(X_{1}, \ldots, X_{p}\right)^{\top}$. This again is undesirable, since all of the elements of $X$ are considered with equal importance (weight).
A more flexible approach is to study a weighted average, namely
$$
\delta^{\top} X=\sum_{j=1}^{p} \delta_{j} X_{j} \quad \text { so that } \quad \sum_{j=1}^{p} \delta_{j}^{2}=1
$$
The weighting vector $\delta=\left(\delta_{1}, \ldots, \delta_{p}\right)^{\top}$ can then be optimized to investigate and to detect specific features. We call (9.1) a standardized linear combination (SLC). Which SLC should we choose? One aim is to maximize the variance of the projection $\delta^{\top} X$, i.e., to choose $\delta$ according to
$$
\max {{\delta:|\delta|=1}} \operatorname{Var}\left(\delta^{\top} X\right)=\max {{\delta:|\delta|=1}} \delta^{\top} \operatorname{Var}(X) \delta
$$
统计代写|多元统计分析作业代写Multivariate Statistical Analysis代考|Principal Components in Practice
In practice the PC transformation has to be replaced by the respective estimators: $\mu$ becomes $\bar{x}, \Sigma$ is replaced by $\mathcal{S}$, etc. If $g_{1}$ denotes the first eigenvector of $\mathcal{S}$, the first principal component is given by $y_{1}=\left(\mathcal{X}-1_{n} \bar{x}^{\top}\right) g_{1}$. More generally if $\mathcal{S}=\mathcal{G} \mathcal{L} \mathcal{G}^{\top}$ is the spectral decomposition of $\mathcal{S}$, then the PCs are obtained by
$$
\mathcal{Y}=\left(\mathcal{X}-1_{n} \bar{x}^{\top}\right) \mathcal{G} .
$$
Note that with the centering matrix $\mathcal{H}=\mathcal{I}-\left(n^{-1} 1_{n} 1_{n}^{\top}\right)$ and $\mathcal{H} 1_{n} \bar{x}^{\top}=0$ we can write
$$
\begin{aligned}
\mathcal{S}{\mathcal{Y}} &=n^{-1} \mathcal{Y}^{\top} \mathcal{H} \mathcal{Y}=n^{-1} \mathcal{G}^{\top}\left(\mathcal{X}-1{n} \bar{x}^{\top}\right)^{\top} \mathcal{H}\left(\mathcal{X}-1_{n} \bar{x}^{\top}\right) \mathcal{G} \
&=n^{-1} \mathcal{G}^{\top} \mathcal{X}^{\top} \mathcal{H} \mathcal{X} \mathcal{G}=\mathcal{G}^{\top} \mathcal{S G}=\mathcal{L}
\end{aligned}
$$
where $\mathcal{L}=\operatorname{diag}\left(\ell_{1}, \ldots, \ell_{p}\right)$ is the matrix of eigenvalues of $\mathcal{S}$. Hence the variance of $y_{i}$ equals the eigenvalue $\ell_{i}$ !
统计代写|多元统计分析作业代写MULTIVARIATE STATISTICAL ANALYSIS代考|Interpretation of the PCs
Recall that the main idea of PC transformations is to find the most informative projections that maximize variances. The most informative SLC is given by the first eigenvector. In Section $9.2$ the eigenvectors were calculated for the bank data. In particular, with centered $x$ ‘s, we had:
$$
\begin{aligned}
&y_{1}=-0.044 x_{1}+0.112 x_{2}+0.139 x_{3}+0.768 x_{4}+0.202 x_{5}-0.579 x_{6} \
&y_{2}=0.011 x_{1}+0.071 x_{2}+0.066 x_{3}-0.563 x_{4}+0.659 x_{5}-0.489 x_{6}
\end{aligned}
$$
and
$$
\begin{aligned}
&x_{1}=\text { length } \
&x_{2}=\text { left height } \
&x_{3}=\text { right height } \
&x_{4}=\text { bottom frame } \
&x_{5}=\text { top frame } \
&x_{6}=\text { diagonal. }
\end{aligned}
$$
Hence, the first PC is essentially the difference between the bottom frame variable and the diagonal. The second PC is best described by the difference between the top frame variable and the sum of bottom frame and diagonal variables.
多元统计分析代写
统计代写|多元统计分析作业代写MULTIVARIATE STATISTICAL ANALYSIS代考|STANDARDIZED LINEAR COMBINATION
主成分分析的主要目的磷C是降低观察的维度。最简单的降维方法是只取观察向量的一个元素并丢弃所有其他元素。正如我们在前面的章节中所看到的,这不是一个非常合理的方法,因为在解释数据时可能会失去力量。在钞票示例中,我们看到只有一个变量和.G.$X1=$l和nG吨H在区分假钞和真钞方面没有歧视性的权力。另一种方法是对所有变量进行同等加权,即考虑简单平均p−1∑j=1pXj向量中的所有元素X=(X1,…,Xp)⊤. 这又是不可取的,因为X被同等重视在和一世GH吨.
更灵活的方法是研究加权平均值,即
d⊤X=∑j=1pdjXj 以便 ∑j=1pdj2=1
权重向量d=(d1,…,dp)⊤然后可以优化以调查和检测特定特征。我们称之为9.1标准化的线性组合小号大号C. 我们应该选择哪种 SLC?一个目标是最大化投影的方差d⊤X,即选择d根据
$$
\max {{\delta:|\delta|=1}} \operatorname{Var}\left\delta^{\top} X\right\delta^{\top} X\right= \ max {{\ delta: | \ delta | = 1}} \ delta ^ {\ top} \ operatorname {Var}X\三角洲
$$
统计代写|多元统计分析作业代写MULTIVARIATE STATISTICAL ANALYSIS代考|PRINCIPAL COMPONENTS IN PRACTICE
在实践中,PC 变换必须由各自的估计器代替:μ变成X¯,Σ被替换为小号等。如果G1表示的第一个特征向量小号,第一个主成分由下式给出是1=(X−1nX¯⊤)G1. 更一般地,如果小号=G大号G⊤是的谱分解小号,则 PC 由下式获得
是=(X−1nX¯⊤)G.
请注意,使用中心矩阵H=一世−(n−11n1n⊤)和H1nX¯⊤=0我们可以写成
$$
\begin{aligned}
\mathcal{S} {\mathcal{Y}} &=n^{-1} \mathcal{Y}^{\top} \mathcal{H} \mathcal{Y} =n^{-1} \mathcal{G}^{\top}\left(\mathcal{X}-1 {n} \bar{x}^{\top}\right)^{\top} \mathcal {H}\左\mathcal{X}-1_{n} \bar{x}^{\top}\right\mathcal{X}-1_{n} \bar{x}^{\top}\right\mathcal{G} \
&=n^{-1} \mathcal{G}^{\top} \mathcal{X}^{\top} \mathcal{H} \mathcal{X} \mathcal{G}= \mathcal{G}^{\top} \mathcal{SG}=\mathcal{L}
\end{aligned}
$$
其中大号=诊断(ℓ1,…,ℓp)是特征值的矩阵小号. 因此方差为是一世等于特征值ℓ一世 !
统计代写|多元统计分析作业代写MULTIVARIATE STATISTICAL ANALYSIS代考|INTERPRETATION OF THE PCS
回想一下,PC 转换的主要思想是找到使方差最大化的信息量最大的投影。信息量最大的 SLC 由第一个特征向量给出。在部分9.2为银行数据计算特征向量。特别是,居中X的,我们有:
是1=−0.044X1+0.112X2+0.139X3+0.768X4+0.202X5−0.579X6 是2=0.011X1+0.071X2+0.066X3−0.563X4+0.659X5−0.489X6
和
X1= 长度 X2= 左侧高度 X3= 合适的高度 X4= 底架 X5= 顶框 X6= 对角线。
因此,第一个 PC 本质上是底部框架变量和对角线之间的差异。第二个 PC 最好用顶部框架变量与底部框架和对角线变量之和之间的差异来描述。
统计代写|多元统计分析作业代写Multivariate Statistical Analysis代考 请认准UprivateTA™. UprivateTA™为您的留学生涯保驾护航。