Зачастую теорию вероятностей воспринимают как раздел математики, который занимается «исчислением вероятностей».

И всё это исчисление фактически сводится к простой формуле:

«Вероятность любого события равна сумме вероятностей входящих в него элементарных событий ». Практически эта формула повторяет, привычное нам с детства, «заклинание»:

«Масса предмета равна сумме масс составляющих его частей ».

Здесь мы будем обсуждать не столь тривиальные факты из теории вероятностей. Речь пойдёт, в первую очередь, о зависимых и независимых событиях.

Важно понять, что одинаковые термины в различных разделах математики могут иметь совершенно различный смысл.

Например, когда говорят, что площадь круга S зависит от его радиуса R , то, конечно, имеется в виду функциональная зависимость

Совсем другой смысл у понятий зависимость и независимость в теории вероятностей.

Знакомство с этими понятиями начнём с простого примера.

Представьте, что вы проводите эксперимент с бросанием игральной кости в этой комнате, а ваш коллега в соседней комнате тоже подбрасывает монету. Пусть вас интересует событие А – выпадение «двойки» у вас и событие В – выпадение «решки» у вашего коллеги. Здравый смысл подсказывает: эти события независимы!

Хотя мы ещё не ввели понятия зависимости/независимости, но интуитивно ясно, что любое разумное определение независимости должно быть устроено так, чтобы эти события определялись как независимые.

Теперь обратимся к другому эксперименту. Бросается игральная кость, событие А – выпадение «двойки», событие В – выпадение нечётного числа очков. Считая, что кость симметрична, можно сразу сказать, что Р(А) = 1/6. А теперь представьте, что вам сообщают: «В результате проведенного эксперимента произошло событие В, выпало нечётное число очков». Что теперь можно сказать о вероятности события А? Понятно, что теперь эта вероятность стала равна нулю.

Для нас самое важное, что она изменилась .

Возвращаясь к первому примеру, можно сказать, информация о том, что в соседней комнате произошло событие В никак не скажется на ваших представлениях о вероятности события А. Эта вероятность не изменится от того, что вы что-то узнали о событии В.

Мы приходим к естественному и чрезвычайно важному выводу –

если информация о том, что событие В произошло меняет вероятность события А, то события А и В следует считать зависимыми, а если не меняет – то независимыми.

Этим соображениям следует придать математическую форму, определить зависимость и независимость событий с помощью формул.

Будем исходить из следующего тезиса: «Если А и В – зависимые события, то в событии А содержится информация о событии В, а в событии В содержится информация о событии А». А как узнать – содержится или нет? Ответ на этот вопрос даёт теория информации .

Из теории информации нам нужна только одна формула, которая позволяет вычислить количество взаимной информации I(A, B) для событий А и В

Не будем вычислять количество информации для различных событий или подробно обсуждать эту формулу.

Для нас важно, что если

то количество взаимной информации между событиями А и В равно нулю − события А и В независимы . Если же

то количество взаимной информации − события А и В зависимы .

Обращение к понятию информации носит здесь вспомогательный характер и, как нам кажется, позволяет сделать более осязаемыми понятии зависимости и независимости событий.

В теории вероятностей зависимость и независимость событий описывается более формально.

В первую очередь нам понадобится понятие условной вероятности .

Условная вероятность события А при условии, что событие В произошло (Р(В) ≠0), называется величина Р(А|В), вычисляемая по формуле

.

Следуя духу нашего похода к пониманию зависимости и независимости событий можно ожидать, что условная вероятность будет обладать следующим свойством: если события А и В независимы , то

Это означает, что информация о том, что событие В произошло никак не влияет на вероятность события А.

Так оно и есть!

Если события А и В независимы, то

Имеем для независимых событий А и В

и

Рассматривая зависимость между признаками, выделим прежде всего зависимость между изменением факторного и результативного признаков, когда вполне определенному значению факторного признака соответствует множество возможных значений результативного признака. Иначе говоря, каждому значению одной переменной соответствует определенное (условное) распределение другой переменной. Такая зависимость называется стохастической. Возникновение понятия стохастической зависимости обусловливается тем, что зависимая переменная подвержена влиянию ряда неконтролируемых или неучтенных факторов, а также тем, что изменение значений переменных неизбежно сопровождается некоторыми случайными ошибками. Примером стохастической связи является зависимость урожайности сельскохозяйственных культур Y от массы внесенных удобрений X. Точно предсказать урожайность мы не можем, так как на нее влияет множество факторов (осадки, состав почвы и т.д.). Однако очевидно, что с изменением массы удобрений будет меняться и урожайность.

В статистике изучаются наблюдаемые значения признаков, поэтому стохастическую зависимость называют обычно статистической зависимостью.

В силу неоднозначности статистической зависимости между значениями результативного признака У и значениями факторного признака X представляет интерес усредненная по X схема зависимости, т.е. закономерность, выражаемая условным математическим ожиданием M(Y/X = х) (вычисленного при фиксированном значении факторного признака X = х ). Зависимости такого рода называются регрессионными , а функция ср(х) = M(Y/X = х) - функцией регрессии Y на X или прогнозом Y по X (обозначение у х = ф(л)). При этом результативный признак Y называют также функцией отклика или объясняемой, выходной, результирующей, эндогенной переменной, а факторный признак X - регрессором или объясняющей, входной, предсказывающей, предикторной, экзогенной переменной.

В параграфе 4.7 доказывалось, что условное математическое ожидание M(Y/X) = ср(х) дает наилучший прогноз У по X в среднеквадратическом смысле, т.е. M(Y- ф(х)) 2 M(Y-g(x)) 2 , где g(x) - любой другой прогноз УпоХ.

Итак, регрессия - это односторонняя статистическая зависимость, устанавливающая соответствия между признаками. В зависимости от числа факторных признаков, описывающих явление, различают парную и множественную регрессии. Например, парная регрессия - это регрессия между затратами на производство (факторный признак X) и объемом продукции, производимой предприятием (результативный признак У). Множественная регрессия - это регрессия между производительностью труда (результативный признак У) и уровнем механизации производственных процессов, фондом рабочего времени, материалоемкостью, квалификацией рабочих (факторные признаки X t , Х 2 , Х 3 , Х 4).

По форме различают линейную и нелинейную регрессии, т.е. регрессии, выражаемые линейной и нелинейной функциями.

Например, ф(Х) = аХ + Ъ - парная линейная регрессия; ф(Х) = аХ 2 + + ЬХ + с - квадратическая регрессия; ф(Х 1? Х 2 ,..., Х п ) = р 0 4- fi { X { + р 2 Х 2 + ... + p„X w - множественная линейная регрессия.

Проблема выявления статистической зависимости имеет две стороны: установление тесноты (силы) связи и определение формы связи.

Установлению тесноты (силы) связи посвящен корреляционный анализ , назначение которого - получить на основе имеющихся статистических данных ответы на следующие основные вопросы:

  • как выбрать подходящий измеритель статистической связи (коэффициент корреляции, корреляционное отношение, ранговый коэффициент корреляции и т.п.);
  • как проверить гипотезу о том, что полученное числовое значение измерителя связи действительно свидетельствует о наличии статистической связи.

Определением формы связи занимается регрессионный анализ. При этом назначение регрессионного анализа - решение на основе имеющихся статистических данных следующих задач:

  • выбор вида функции регрессии (выбор модели);
  • нахождение неизвестных параметров выбранной функции регрессии;
  • анализ качества функции регрессии и проверка адекватности уравнения эмпирическим данным;
  • прогноз неизвестных значений результативного признака по заданным значениям факторных признаков.

На первый взгляд может показаться, что понятие регрессии сходно с понятием корреляции, так как в обоих случаях речь идет о статистической зависимости между исследуемыми признаками. Однако на самом деле между ними есть существенные различия. Регрессия подразумевает причинную взаимосвязь, когда изменение условного среднего значения результативного признака происходит вследствие изменения факторных признаков. Корреляция же ничего не говорит о причинной зависимости между признаками, т.е. если установлено наличие корреляции между X и У, то этот факт не подразумевает того, что изменения значений X обусловливают изменение условного среднего значения У. Корреляция всего лишь констатирует факт того, что изменения одной величины в среднем соотносятся с изменениями другой.

Между различными явлениями и их признаками необходимо прежде всего выделить два типа связей: функциональную (жестко детерминированную) и статистическую (стохастическую детерминированную).

Связь признака y с признаком x называется функциональной, если каждому возможному значению независимого признака x соответствует одно или несколько строго определенных значений зависимого признака y. Определение функциональной связи может быть легко обобщено для случая многих признаков x1,x2,…,x n .

Характерной особенностью функциональных связей является то, что в каждом отдельном случае известен полный перечень факторов, определляющих значение зависимого (результтативного) признака, а также точный механизм их влияния, выраженного определенным уравнением.

Функциональную связь можно представить уравнением:

Где y i - результативный признак (i=1,…, n)

f(x i) – известная функция связи результативного и факторного признака

x i – факторный признак.

Стохастическая связь- это связь между величинами, при которых одна из них, случайная величина y, реагирует на изменение другой величины x или других величин x1, x2,…, x n , (случайных или неслучайных) изменением закона распределения. Это обуславливается тем, что зависимая переменная (результативный признак), кроме рассматриваемых независимых, подвержена влиянию ряда неучтенных или неконтролируемых (случайных) факторов, а также некоторых неизбежных ошибок измерения переменных. Поскольку значения зависимой переменной подвержены случайному разбросу, они не могут быть предсказаны с достаточной точностью, а только указаны с определенной вероятностью.

Характерной особенностью стохастических связей является то, что они проявляются во всей совокупности, а не в каждой ее единице (причем не известен ни полный перечень факторов, определяющих значение результативного признака, ни точный механизм их функционирования и взаимодействия с результативным признаком). Всегда имеет место влияние случайного. Появляющиеся различные значения зависимой переменной- реализации случайной величины.

Модель стохастической связи может быть представлена в общем виде уравнением:

Где y i – расчетное значение результативного признака

f(x i) – часть результативного признака, сформировавшаяся под воздействием учтенных известных факторных признаков (одного или множества), находящихся в стохастической связи с признаком

ε i – часть результативного признака, возникшая вследствие действия неконтролируемых или неучтенных факторов, а также измерения признаков неизбежно сопровождающегося некоторыми случайными ошибками.

зависимость между случайными величинами, при которой изменение закона распределения одной из них происходит под влиянием изменения другой.


Смотреть значение Зависимость Стохастическая в других словарях

Зависимость — подневольность
подвластность
подчиненность
Словарь синонимов

Зависимость Ж. — 1. Отвлеч. сущ. по знач. прил.: зависимый (1). 2. Обусловленность чего-л. какими-л. обстоятельствами, причинами и т.п.
Толковый словарь Ефремовой

Зависимость — -и; ж.
1. к Зависимый. Политическая, экономическая, материальная з. З. от чего-л. тяготит, гнетёт меня. З. теории от практики. Жить в зависимости. Крепостная з. (состояние........
Толковый словарь Кузнецова

Зависимость — - состояние экономического субъекта, при котором его существование и деятельность зависят от материальной и финансовой поддержки или взаимодействия с другими субъектами.
Юридический словарь

Зависимость Фишера — - зависимость, устанавливающая, что рост уровня ожидаемой инфляции имеет тенденцию поднимать номинальные процентные ставки. В наиболее строгом варианте - зависимость........
Юридический словарь

Линейная Зависимость — - экономико-математические модели в виде формул, уравнений, в которых экономические величины, параметры (аргумент и функция) связаны между собой линейной функцией. Простейший........
Юридический словарь

Лекарственная Зависимость — синдром, наблюдающийся при нарко- или токсикоманиях и характеризующийся патологической потребностью в приеме психотропного средства с тем, чтобы избежать развития........
Большой медицинский словарь

Лекарственная Зависимость Психическая — Л. з. без явлений абстиненции в случае прекращения приема лекарственного средства.
Большой медицинский словарь

Лекарственная Зависимость Физическая — Л. з. с явлениями абстиненции в случае прекращения приема лекарственного средства или после введения его антагонистов.
Большой медицинский словарь

Крепостная Зависимость — личная, поземельная и административнаязависимость крестьян от землевладельцев в России (11 в. - 1861).Юридически оформлена в кон. 15 - 17 вв. крепостным правом.

Линейная Зависимость — соотношение вида С1u1+С2u2+... +Сnun?0, где С1, С2,..., Сn - числа, из которых хотя бы одно? 0, а u1, u2, ..., un -какие-либо математические объекты, напр. векторы или функции.
Большой энциклопедический словарь

Крепостная Зависимость — - личная, поземельная и административная зависимость крестьян от феодалов в России XI в. -1861 г. Юридически оформлена в конце XV-XVII вв. крепостным правом.
Исторический словарь

Крепостная Зависимость — личная зависимость крестьян в феод. об-ве от феодалов. См. Крепостное право.
Советская историческая энциклопедия

Линейная Зависимость — - см. в статье Линейная независимость.
Математическая энциклопедия

Ляпунова Стохастическая Функция — неотрицательная функция V(t, х), для к-рой пара (V(t, X(t)), Ft) - супермартингал для нек-рого случайного процесса X(t), Ft есть s-алгебра событий, порожденных течением процесса Xдо........
Математическая энциклопедия

Стохастическая Аппроксимация — метод решения класса задач статистич. оценивания, в к-ром новое значение оценки представляет собой поправку к уже имеющейся оценке, основанную на новом наблюдении.........
Математическая энциклопедия

Стохастическая Геометрия математическая дисциплина, изучающая взаимоотношения между геометрией и теорией вероятностей. С. г. развилась из классич. интегральной геометрии и задач о геометрических........
Математическая энциклопедия

Стохастическая Зависимость — (вероятностная, статистическая) - зависимость между случайными величинами, к-рая выражается в изменении условных распределений любой из величин при изменении значений........
Математическая энциклопедия

Стохастическая Игра — - динамическая игра, у к-рой переходная функция распределения не зависит от предыстории игры, т. е. С. и. были впервые определены Л. Шепли , к-рый рассматривал антагонистич.........
Математическая энциклопедия

Стохастическая Матрица — квадратная (возможно, бесконечная) матрица с неотрицательными элементами такими, что при любом i. Множество всех С. м. n-го порядка представляет собой выпуклую оболочку........
Математическая энциклопедия

Стохастическая Непрерывность — свойство выборочных функций случайного процесса. Случайный процесс X(t), заданный на нек-ром множестве наз. стохастически непрерывным на этом множестве, если для любого........
Математическая энциклопедия

Стохастическая Неразличимость — свойство двух случайных процессов и означающее, что случайное множество является пренебрежимым, т. е. вероятность множества что равна нулю. Если Xи Yстохастически........
Математическая энциклопедия

Стохастическая Ограниченность — ограниченность по вероятности,- свойство случайного процесса X(t), к-рое выражается условием: для произвольного существует такое C>0, что при всех А. В. Прохоров.
Математическая энциклопедия

Стохастическая Последовательность — последовательность случайных величин заданная на измеримом пространстве с выделенным на нем неубывающим семейством -алгебр обладающих свойством согласованности........
Математическая энциклопедия

Стохастическая Сходимость — тоже, что сходимость по вероятности.
Математическая энциклопедия

Стохастическая Эквивалентность — отношение эквивалентности между случайными величинами, различающимися лишь на множестве нулевой вероятности. Точнее, случайные величины Х 1 и Х 2. заданные на одном........
Математическая энциклопедия

Алкогольная Зависимость — Алкоголь является наркотическим веществом, обсуждение см. в статье наркотическая зависимость.
Психологическая энциклопедия

Галлюциногенная Зависимость — Лекарственная зависимость, при которой лекарствами являются галлюциногены.
Психологическая энциклопедия

Зависимость — (Dependence). Положительное качество, способствующее здоровому психологическому развитию и росту человека.
Психологическая энциклопедия

Зависимость (dependence), Зависимость Лекарственная — (drug dependence) - физические и/или психологические эффекты, возникающие в результате привыкания к определенным лекарственным веществам; характеризуются компульсивным побуждением........
Психологическая энциклопедия