Страница 200 - гдз по алгебре 11 класс учебник Мерзляк, Номировский

Авторы: Мерзляк А. Г., Номировский Д. А., Полонский В. Б., Якир М. С.
Тип: Учебник
Издательство: Просвещение
Год издания: 2016 - 2025
Уровень обучения: базовый
Цвет обложки: синий, зелёный
Допущено Министерством просвещения Российской Федерации
Математика. Алгебра и начала математического анализа
Популярные ГДЗ в 11 классе
Cтраница 200

№1 (с. 200)
Учебник. №1 (с. 200)
скриншот условия

1. Пусть $D(x)$ - дисперсия случайной величины $x$. Докажите, что $D(x) = M(x^2) - (M(x))^2$.
Решение 2. №1 (с. 200)
1.
Для доказательства воспользуемся определением дисперсии и свойствами математического ожидания. Введем обозначение для математического ожидания случайной величины $x$: $M(x)$.
Дисперсия $D(x)$ по определению — это математическое ожидание квадрата отклонения случайной величины от её математического ожидания:
$D(x) = M\left((x - M(x))^2\right)$
Раскроем квадрат разности под знаком математического ожидания, используя формулу $(a-b)^2 = a^2 - 2ab + b^2$:
$(x - M(x))^2 = x^2 - 2xM(x) + (M(x))^2$
Подставим это выражение обратно в определение дисперсии:
$D(x) = M\left(x^2 - 2xM(x) + (M(x))^2\right)$
Теперь воспользуемся свойством линейности математического ожидания, которое гласит, что математическое ожидание суммы равно сумме математических ожиданий: $M(A+B) = M(A) + M(B)$. Применив это свойство, получим:
$D(x) = M(x^2) - M(2xM(x)) + M\left((M(x))^2\right)$
Далее используем свойство вынесения константы за знак математического ожидания: $M(c \cdot Y) = c \cdot M(Y)$, где $c$ — константа. Важно помнить, что математическое ожидание $M(x)$ само по себе является константой (числом).
Для второго слагаемого $M(2xM(x))$, константами являются $2$ и $M(x)$. Вынесем их:
$M(2xM(x)) = 2M(x) \cdot M(x) = 2(M(x))^2$
Для третьего слагаемого $M\left((M(x))^2\right)$, все выражение $(M(x))^2$ является константой. Математическое ожидание константы равно самой константе:
$M\left((M(x))^2\right) = (M(x))^2$
Подставим преобразованные слагаемые обратно в выражение для дисперсии:
$D(x) = M(x^2) - 2(M(x))^2 + (M(x))^2$
Приведем подобные слагаемые:
$D(x) = M(x^2) - (M(x))^2$
Таким образом, мы доказали требуемое тождество.
Ответ: Доказательство основано на определении дисперсии $D(x) = M((x - M(x))^2)$ и свойствах математического ожидания. Последовательное применение свойства линейности математического ожидания и свойства вынесения константы за его знак к раскрытому выражению под знаком ожидания приводит к искомой формуле $D(x) = M(x^2) - (M(x))^2$.
№2 (с. 200)
Учебник. №2 (с. 200)
скриншот условия

2. Пусть $D (x)$ — дисперсия случайной величины $x$ и $c$ — константа. Докажите, что $D (x + c) = D (x)$.
Решение 2. №2 (с. 200)
Для доказательства равенства $D(x+c) = D(x)$, где $D(x)$ — дисперсия случайной величины $x$, а $c$ — константа, мы воспользуемся определением дисперсии. Дисперсия случайной величины $X$ — это математическое ожидание квадрата отклонения случайной величины от её математического ожидания. Формула для дисперсии выглядит следующим образом:$D(X) = E[(X - E[X])^2]$, где $E[X]$ — математическое ожидание случайной величины $X$.
Найдём дисперсию для случайной величины $x+c$, подставив её в определение:$D(x+c) = E[((x+c) - E[x+c])^2]$.
Для дальнейших преобразований нам необходимо найти математическое ожидание величины $x+c$. Согласно свойству линейности математического ожидания, математическое ожидание суммы равно сумме математических ожиданий:$E[x+c] = E[x] + E[c]$.Поскольку $c$ является константой, её математическое ожидание равно самой этой константе: $E[c] = c$.Таким образом, получаем: $E[x+c] = E[x] + c$.
Теперь подставим найденное выражение для $E[x+c]$ обратно в формулу для дисперсии $D(x+c)$:$D(x+c) = E[((x+c) - (E[x] + c))^2]$.
Упростим выражение, находящееся внутри скобок под знаком математического ожидания:$(x+c) - (E[x] + c) = x + c - E[x] - c = x - E[x]$.
В результате упрощения формула для $D(x+c)$ принимает вид:$D(x+c) = E[(x - E[x])^2]$.
Полученное выражение $E[(x - E[x])^2]$ в точности соответствует определению дисперсии случайной величины $x$, то есть $D(x)$.Следовательно, мы доказали, что $D(x+c) = D(x)$.
Данное равенство можно доказать и другим способом, используя альтернативную формулу для расчёта дисперсии: $D(X) = E[X^2] - (E[X])^2$.
Применим эту формулу для $D(x+c)$:$D(x+c) = E[(x+c)^2] - (E[x+c])^2$.
Распишем каждый из двух членов этого выражения.Первый член: $E[(x+c)^2]$. Раскроем квадрат и воспользуемся свойством линейности математического ожидания:$E[(x+c)^2] = E[x^2 + 2cx + c^2] = E[x^2] + E[2cx] + E[c^2] = E[x^2] + 2cE[x] + c^2$.
Второй член: $(E[x+c])^2$. Мы уже знаем, что $E[x+c] = E[x] + c$. Возведём это выражение в квадрат:$(E[x+c])^2 = (E[x] + c)^2 = (E[x])^2 + 2cE[x] + c^2$.
Теперь вычтем второе полученное выражение из первого:$D(x+c) = (E[x^2] + 2cE[x] + c^2) - ((E[x])^2 + 2cE[x] + c^2)$.
Раскроем скобки и сократим подобные слагаемые:$D(x+c) = E[x^2] + 2cE[x] + c^2 - (E[x])^2 - 2cE[x] - c^2 = E[x^2] - (E[x])^2$.
Полученное выражение $E[x^2] - (E[x])^2$ является формулой для $D(x)$, что ещё раз подтверждает доказываемое тождество.
Ответ: Доказательство основано на свойствах математического ожидания. Используя определение дисперсии $D(X)=E[(X-E[X])^2]$ и свойство линейности математического ожидания $E[x+c]=E[x]+c$, получаем: $D(x+c) = E[((x+c)-(E[x]+c))^2] = E[(x-E[x])^2] = D(x)$. Таким образом, равенство $D(x+c) = D(x)$ является верным.
№3 (с. 200)
Учебник. №3 (с. 200)
скриншот условия

3. Пусть случайная величина $x$ имеет биномиальное распределение с параметрами $n$ и $p$. Докажите, что $M(x) = np$, $D(x) = np(1 - p)$.
Решение 2. №3 (с. 200)
Пусть случайная величина $x$ имеет биномиальное распределение с параметрами $n$ (число испытаний) и $p$ (вероятность успеха в одном испытании), что обозначается как $x \sim B(n, p)$. Доказательство искомых формул удобнее всего провести, представив биномиальную случайную величину как сумму независимых случайных величин.
По определению, биномиальная случайная величина $x$ представляет собой сумму $n$ независимых и одинаково распределенных случайных величин $x_i$, каждая из которых имеет распределение Бернулли.
$x = x_1 + x_2 + ... + x_n = \sum_{i=1}^{n} x_i$
Здесь $x_i$ — это случайная величина, описывающая исход $i$-го испытания: $x_i = 1$, если в $i$-м испытании произошел "успех" (с вероятностью $p$). $x_i = 0$, если в $i$-м испытании произошла "неудача" (с вероятностью $1-p$).
Доказательство, что $M(x) = np$
Математическое ожидание $M(x)$ по свойству линейности равно сумме математических ожиданий слагаемых: $M(x) = M(\sum_{i=1}^{n} x_i) = \sum_{i=1}^{n} M(x_i)$.
Найдем математическое ожидание одной бернуллиевской величины $x_i$: $M(x_i) = 1 \cdot P(x_i=1) + 0 \cdot P(x_i=0) = 1 \cdot p + 0 \cdot (1-p) = p$.
Так как все $n$ испытаний одинаковы, $M(x_i) = p$ для каждого $i$. Тогда математическое ожидание биномиальной величины $x$ равно: $M(x) = \sum_{i=1}^{n} p = np$.
Что и требовалось доказать.
Ответ: $M(x) = np$.
Доказательство, что $D(x) = np(1-p)$
Дисперсия $D(x)$, в силу независимости испытаний (и, следовательно, независимости случайных величин $x_i$), равна сумме дисперсий слагаемых: $D(x) = D(\sum_{i=1}^{n} x_i) = \sum_{i=1}^{n} D(x_i)$.
Найдем дисперсию одной бернуллиевской величины $x_i$ по формуле $D(x_i) = M(x_i^2) - (M(x_i))^2$.
Мы уже знаем, что $M(x_i) = p$. Найдем второй начальный момент $M(x_i^2)$: $M(x_i^2) = 1^2 \cdot P(x_i=1) + 0^2 \cdot P(x_i=0) = 1 \cdot p + 0 \cdot (1-p) = p$.
Теперь вычислим дисперсию $x_i$: $D(x_i) = M(x_i^2) - (M(x_i))^2 = p - p^2 = p(1-p)$.
Так как все $n$ испытаний одинаковы, $D(x_i) = p(1-p)$ для каждого $i$. Тогда дисперсия биномиальной величины $x$ равна: $D(x) = \sum_{i=1}^{n} p(1-p) = np(1-p)$.
Что и требовалось доказать.
Ответ: $D(x) = np(1-p)$.
№4 (с. 200)
Учебник. №4 (с. 200)
скриншот условия

4. Вероятность события A в некотором испытании равна p. Проводят серию из $n$ таких испытаний и подсчитывают частоту $x_n = \frac{n_A}{n}$ события A, где $n_A$ - число испытаний в этой серии, в которых произошло событие A. Докажите, что $M(x_n) = p, D(x_n) = \frac{p(1-p)}{n}$.
Решение 2. №4 (с. 200)
Для решения этой задачи мы будем рассматривать случайную величину $n_A$ — число наступлений события A в серии из $n$ независимых испытаний. Эта величина подчиняется биномиальному закону распределения с параметрами $n$ (число испытаний) и $p$ (вероятность успеха в одном испытании).
Частота $x_n$ является случайной величиной, связанной с $n_A$ соотношением $x_n = \frac{n_A}{n}$.
Для доказательства воспользуемся свойствами математического ожидания и дисперсии, а также известными формулами для биномиального распределения. Математическое ожидание числа успехов $n_A$ в биномиальном распределении равно $M(n_A) = np$, а его дисперсия равна $D(n_A) = np(1-p)$.
Докажите, что $M(x_n) = p$
Воспользуемся свойством математического ожидания: $M(cX) = cM(X)$, где $c$ — константа. В нашем случае $x_n = \frac{1}{n} \cdot n_A$, поэтому константа $c = \frac{1}{n}$.
$M(x_n) = M(\frac{n_A}{n})$
Выносим константу $\frac{1}{n}$ за знак математического ожидания:
$M(x_n) = \frac{1}{n} M(n_A)$
Подставляем известное значение математического ожидания для биномиальной случайной величины $M(n_A) = np$:
$M(x_n) = \frac{1}{n} \cdot (np) = p$
Таким образом, мы доказали, что математическое ожидание частоты события равно его вероятности.
Ответ: $M(x_n) = p$, что и требовалось доказать.
Докажите, что $D(x_n) = \frac{p(1-p)}{n}$
Воспользуемся свойством дисперсии: $D(cX) = c^2D(X)$, где $c$ — константа. В нашем случае, как и ранее, $x_n = \frac{1}{n} \cdot n_A$ и $c = \frac{1}{n}$.
$D(x_n) = D(\frac{n_A}{n})$
Выносим константу $\frac{1}{n}$ за знак дисперсии, возводя ее в квадрат:
$D(x_n) = (\frac{1}{n})^2 D(n_A) = \frac{1}{n^2} D(n_A)$
Подставляем известное значение дисперсии для биномиальной случайной величины $D(n_A) = np(1-p)$:
$D(x_n) = \frac{1}{n^2} \cdot (np(1-p))$
Сокращаем $n$ в числителе и знаменателе:
$D(x_n) = \frac{p(1-p)}{n}$
Таким образом, мы доказали требуемую формулу для дисперсии частоты.
Ответ: $D(x_n) = \frac{p(1-p)}{n}$, что и требовалось доказать.
Помогло решение? Оставьте отзыв в комментариях ниже.