Каждой ветви каркаса ставиться главный цикл.
Есть связанный граф C=(V,E), есть каркас.
T=(V,E) рассмотрим модуль, ветвь этого каркаса – она является коциклом для дерева (каркаса) и ребро разобьется на 2 компоненты связности.
(V1,E1`), (V2,E2`)
Е`` - ребра, которые являются хордами исходного графа, которые соединяют V1–V2 тогда главный коцикл – эти хорды + та ветвь, которую удалили.
Число главных коциклов – это коранг графа.
Элементарные теории вероятностей
1. Основное определение S={a1,a2,…,an} конечное множество S элементарных событий или исходов.
Элементы этого множества являются равновероятными. Любое произвольное событие А – это подмножество S (элементарных событий)
AÍS
Любые события и для элементарных вводятся понятие вероятность P(A).
Из множества S она переводит в отрезок [0,1] каждому событию сопоставляет число из [0,1] по правилу P(A)=|A|/|S| . Берем самое элементарное событие и делим его на все.
P(0)=0 |A|=0
P(1)=1 |S|=|A|
1) Если событие АÍВ P(A)<=P(B)
2) Если событие А состоит из нескольких событий, то при этом A=A1ÈA2È…ÈAk
AiÇAj¹0 несовместные события
P(A)=Si=1k P(Ai)
Пример: Бросают 2 кубика.
Какова вероятность получить не меньше 11 очков.
Всего исходов 6×6=36
S={36} все события равно вероятные.
(5,6), (6,5), (6,6) 3/36=1/12
Но 2,3,4,…,12 не равно вероятны, поэтому другой способ.
S=S1È…ÈSn
SiÇSj¹0 несовместные события
Тогда набор {S1,S2,…,Sn} – называется полной системой событий, тогда каждое событие
A=AÇS=(AÇS1)È(AÇS2)È…È(AÇSn)
P(A)=Si=1k P(AÇSi) – формула полной вероятности.
Si – образует полную систему событий.
2. Условная вероятность.
Определяем события A и B называются независимыми, если вероятность А в пересечении с вероятностью В есть произведение вероятностей.
P(AÇВ)=Р(А)×Р(В)
Условная вероятность события В при событии А
P(B|A)= P(AÇВ)/P(A)
Теорема: 54
События А и В независимы тогда и только тогда, когда условная вероятность события В при событии А = P(B), т.е. А,В P(B|A)=P(B)
Формулу полной вероятности можно переписать
S1,S2,…,Sn
То вероятность события B : P(B)=Si=1n P(B|Si) P(Si)
Примеры условной вероятности.
В урне 10 белых шаров и 10 черных шаров.
С вероятностью ¼ были удалены 5 черных шаров, какова вероятность вытащить белые шары.
Полная система событий - {S1 (5 шаров не вынули вер. ¾), S2 (вынули ¼}
P(B|S1)=10/20 = ½ P(B|S2)=10/15 = 2/3
P(B) = P(B|S1)×P(S1)+P(B|S2)×P(S2)= ½×¾ +2/3×¼=13/24
Формула Байеса
Есть полная система событий.
S=S1È…ÈSn
SiÇSj¹Æ
Тогда вероятность любого события
P(BÇSi)=Р(B|Si)×Р(Si)=P(Si|B)×P(B)=>P(Si|B)=Р(B|Si)×Р(Si)/P(B)= Р(B|Si)×Р(Si)/Sj=1n Р(B|Sj)×Р(Sj) – формула Байеса.
Пример 3:
Событие В, которое зависит от полной системы событий S1,S2,…,Sn и известно P(Si), проводя опыт мы пересчитываем заново вероятности для Si/
Заболеть вирусом А(0,75) или B(0,25)
Иммунный анализ
IA+ (0,8) для А IB+ (0,3) для В
Какова вероятность, что больной болен вирусом А, при условии, что иммунный анализ положителен.
P(A|IA+) - ?
P(A|IA+)= P(IA+|A)×P(A)/(P(IA+|A)×P(A)+P(IA+|B)×P(B))=0,889
4. Случайные величины.
S – множество элементарных событий, тогда функция f:SàR1 называется случайной величиной. Каждому элементарному событию ставит число из R1/
Определение: Случайные величины e и h называются независимыми, если для любых чисел a,bÎR {e=a}, {h=b}
P(e=a, h=b)=P(e=a)×P(h=b)
5. Матожидание и дисперсия.
Матожидание математической величины e.
Ee=Saa P(e=a)
Свойства матожидания:
1) Если P(e=a)=1, тогда Ee=a
2) E(e+h)=Ee+Eh
3) h=b×e=Eh=b×Ee
Дисперсия случайной величины – матожидание квадрата отклонения случайной величины от ее матожидания.
De=E(e-Ee)2
Свойства дисперсии.
1) De=Ee2-(Ee)2
2) P(e=a)=1 => De=0
3) h=e+a Dh=De
4) h=b×e => Dh=b2De
60,1,58,3,56,5,54,7,52,9,50,11,48,13,46,15,44,17,42,19,40,21,38,23,36,25,34,27,32,29
2,59,4,57,6,55,8,53,10,51,12,49,14,47,16,45,18,43,20,41,22,39,24,37,26,35,28,33,30,31
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.