19th Ave New York, NY 95822, USA

# 统计代写|The Number of Records抽样理论代考

## 统计代写

Consider a sequence $W_{1}, W_{2}, \ldots$ of independent identically distributed random variables. Moreover, assume that the common distribution of these random variables is continuous. In particular, if $i \neq j$ then $P\left(W_{i}=W_{j}\right)=0$.
A record is said to occur at time $n \geq 1$ if
$$W_{n}=\max \left{W_{1} \ldots, W_{n}\right}$$
Note that according to the definition there is always a record at $n=1$. Let $R_{n}$ be the number of records up to time $n$. Let $X_{i}=1$ if there is a record at time $i$ and $X_{i}=0$ otherwise. It is easy to see that
$$R_{n}=X_{1}+\cdots+X_{n}$$
We will use this representation of $R_{n}$ as a sum of Bernoulli random variables to compute its mean.
4 The Number of Records
227

• For $n \geq 1$, the probability that there is a record at time $n$ is
$$P\left(X_{n}=1\right)=\frac{1}{n}$$
We now prove this claim. Let
$$M_{n}=\max \left{W_{1} \ldots, W_{n}\right}$$
The maximum $M_{n}$ is equal to some $W_{i}$ for exactly one $i$ in ${1, \ldots, n}$ (this is where the assumption that the distribution is continuous is critical). Thus,
$$\sum_{i=1}^{n} P\left(M_{n}=W_{i}\right)=1$$
Because the $W_{i}$ are identically distributed the maximum $M_{n}$ is equally likely to occur at any time $i \leq n$. That is,
$$P\left(M_{n}=W_{1}\right)=P\left(M_{n}=W_{2}\right)=\cdots=P\left(M_{n}=W_{n}\right)$$
Therefore,
$$\sum_{i=1}^{n} P\left(M_{n}=W_{i}\right)=n P\left(M_{n}=W_{n}\right)=1$$
Hence,
$$P\left(M_{n}=W_{n}\right)=\frac{1}{n}$$
Note now that the event $\left{M_{n}=W_{n}\right}$ is exactly the event $\left{X_{n}=1\right}$ (i.e., there is a record at time $n$ ). This proves the claim.
• The expected number of records up to time $n$ is,
$$E\left(R_{n}\right)=\sum_{i=1}^{n} \frac{1}{i}$$
To prove the formula for $E\left(R_{n}\right)$ we just use that $R_{n}=X_{1}+\cdots+X_{n}$ and that $E\left(X_{i}\right)=1 / i$ for $i=1,2 \ldots, n$.

As $n$ gocs to infinity $\sum_{i=1}^{n} \frac{1}{i}$ can be approximated by $\ln (n)$. Hence, the number of records grows very slowly with $n$. For instance, up to time $n=10^{5}$ we expect only about 11 records.

$$W_{n}=\max \left{W_{1} \ldots, W_{n}\right}$$

$$R_{n}=X_{1}+\cdots+X_{n}$$

4 记录数
227

• 对于$n \geq 1$，在时间$n$ 有记录的概率是
$$P\left(X_{n}=1\right)=\frac{1}{n}$$
我们现在证明这个说法。让
$$M_{n}=\max \left{W_{1} \ldots, W_{n}\right}$$
对于 ${1, \ldots, n}$ 中的恰好一个 $i$，最大值 $M_{n}$ 等于某个 $W_{i}$（这是假设分布是连续的关键所在） ）。因此，
$$\sum_{i=1}^{n} P\left(M_{n}=W_{i}\right)=1$$
因为$W_{i}$ 是同分布的，所以最大值$M_{n}$ 在任何时候$i \leq n$ 出现的可能性相同。那是，
$$P\left(M_{n}=W_{1}\right)=P\left(M_{n}=W_{2}\right)=\cdots=P\left(M_{n}=W_{n} \正确的）$$
所以，
$$\sum_{i=1}^{n} P\left(M_{n}=W_{i}\right)=n P\left(M_{n}=W_{n}\right)=1$$
因此，
$$P\left(M_{n}=W_{n}\right)=\frac{1}{n}$$
现在请注意，事件 $\left{M_{n}=W_{n}\right}$ 正是事件 $\left{X_{n}=1\right}$（即，有在时间 $n$ 记录）。这证明了这一说法。
• 到时间 $n$ 的预期记录数是，
$$E\left(R_{n}\right)=\sum_{i=1}^{n} \frac{1}{i}$$
为了证明 $E\left(R_{n}\right)$ 的公式，我们只需使用 $R_{n}=X_{1}+\cdots+X_{n}$ 和 $E\left(X_{ i}\right)=1 / i$ for $i=1,2 \ldots, n$。

## 统计代考

my-assignmentexpert愿做同学们坚强的后盾，助同学们顺利完成学业，同学们如果在学业上遇到任何问题，请联系my-assignmentexpert™，我们随时为您服务！

## 编码理论代写

1. 数据压缩（或信源编码
2. 前向错误更正（或信道编码
3. 加密编码
4. 线路码

## 复分析代考

(1) 提到复变函数 ，首先需要了解复数的基本性左和四则运算规则。怎么样计算复数的平方根， 极坐标与 $x y$ 坐标的转换，复数的模之类的。这些在高中的时候囸本上都会学过。
(2) 复变函数自然是在复平面上来研究问题，此时数学分析里面的求导数之尖的运算就会很自然的 引入到复平面里面，从而引出解析函数的定义。那/研究解析函数的性贡就是关楗所在。最关键的 地方就是所谓的Cauchy一Riemann公式，这个是判断一个函数是否是解析函数的关键所在。
(3) 明白解析函数的定义以及性质之后，就会把数学分析里面的曲线积分 $a$ 的概念引入复分析中， 定义几乎是一致的。在引入了闭曲线和曲线积分之后，就会有出现复分析中的重要的定理: Cauchy 积分公式。 这个是易分析的第一个重要定理。