Основы теории делимости. Основная теорема теории чисел. Алгоритм Евклида и цепные дроби. Разложение числа в цепную дробь, страница 16

Каждой ветви каркаса ставиться главный цикл.

Есть связанный граф C=(V,E), есть каркас.

T=(V,E) рассмотрим модуль, ветвь этого каркаса – она является коциклом для дерева (каркаса) и ребро разобьется на 2 компоненты связности.

(V1,E1`), (V2,E2`)

Е`` - ребра, которые являются хордами исходного графа, которые соединяют V1–V2 тогда главный коцикл – эти хорды + та ветвь, которую удалили.

Число главных коциклов – это коранг графа.


Элементарные теории вероятностей

1.  Основное определение S={a1,a2,…,an} конечное множество S элементарных событий или исходов.

Элементы этого множества являются равновероятными. Любое произвольное событие А – это подмножество S (элементарных событий)

AÍS

Любые события и для  элементарных вводятся понятие вероятность P(A).

Из множества S она переводит в отрезок [0,1] каждому событию сопоставляет число из [0,1] по правилу P(A)=|A|/|S| .   Берем самое элементарное событие и делим его на все.

P(0)=0  |A|=0

P(1)=1  |S|=|A|

1)  Если событие АÍВ P(A)<=P(B)

2)  Если событие А состоит из нескольких событий, то при этом A=A1ÈA2È…ÈAk

AiÇAj¹0 несовместные события

P(A)=Si=1k P(Ai)

Пример: Бросают 2 кубика.

Какова вероятность получить не меньше 11 очков.

Всего исходов 6×6=36

S={36} все события равно вероятные.

(5,6), (6,5), (6,6)  3/36=1/12

Но  2,3,4,…,12 не равно вероятны, поэтому другой способ.

S=S1È…ÈSn

SiÇSj¹0 несовместные события

Тогда набор {S1,S2,…,Sn} – называется полной системой событий, тогда каждое событие

A=AÇS=(AÇS1)È(AÇS2)È…È(AÇSn)

P(A)=Si=1k P(AÇSi) – формула полной вероятности.

Si – образует полную систему событий.

2.  Условная вероятность.

Определяем события A и B называются независимыми, если вероятность А в пересечении с вероятностью В есть произведение вероятностей.

P(AÇВ)=Р(А)×Р(В)

Условная вероятность события В при событии А

P(B|A)= P(AÇВ)/P(A)

Теорема: 54

События А и В независимы тогда и только тогда, когда условная вероятность события В при событии А = P(B), т.е. А,В    P(B|A)=P(B)

Формулу полной вероятности можно переписать

S1,S2,…,Sn

То вероятность события B :  P(B)=Si=1n P(B|Si) P(Si)

Примеры условной вероятности.

В урне 10  белых шаров и 10 черных шаров.

С вероятностью ¼ были удалены 5 черных шаров, какова вероятность вытащить белые шары.

Полная система событий - {S1 (5 шаров не вынули вер. ¾), S2 (вынули ¼}

P(B|S1)=10/20 = ½    P(B|S2)=10/15 = 2/3

P(B) = P(B|S1)×P(S1)+P(B|S2)×P(S2)= ½×¾ +2/3×¼=13/24

Формула Байеса

Есть полная система событий.

S=S1È…ÈSn

SiÇSj¹Æ

Тогда вероятность любого события

P(BÇSi)=Р(B|Si)×Р(Si)=P(Si|B)×P(B)=>P(Si|B)=Р(B|Si)×Р(Si)/P(B)= Р(B|Si)×Р(Si)/Sj=1n Р(B|Sj)×Р(Sj) – формула Байеса.

Пример 3:

Событие В, которое зависит от полной системы событий S1,S2,…,Sn и известно P(Si), проводя опыт мы пересчитываем заново вероятности для Si/

Заболеть вирусом А(0,75) или B(0,25)

Иммунный анализ

IA+ (0,8) для А     IB+ (0,3) для В

Какова вероятность, что больной болен вирусом А, при условии, что иммунный анализ положителен.

P(A|IA+) - ?

P(A|IA+)= P(IA+|A)×P(A)/(P(IA+|A)×P(A)+P(IA+|B)×P(B))=0,889

4. Случайные величины.

S – множество элементарных событий, тогда функция f:SàR1 называется случайной величиной. Каждому элементарному событию ставит число из R1/

Определение: Случайные величины e и h называются независимыми, если для любых чисел a,bÎR  {e=a}, {h=b}

P(e=a, h=b)=P(e=a)×P(h=b)

5. Матожидание и дисперсия.

Матожидание математической величины e.

Ee=Saa P(e=a)

Свойства матожидания:

1)  Если P(e=a)=1, тогда Ee=a

2)  E(e+h)=Ee+Eh

3)  h=b×e=Eh=b×Ee

Дисперсия случайной величины – матожидание квадрата отклонения случайной величины от ее матожидания.

De=E(e-Ee)2

Свойства дисперсии.

1)  De=Ee2-(Ee)2

2)  P(e=a)=1 => De=0

3)  h=e+a  Dh=De

4)  h=b×e  =>  Dh=b2De



60,1,58,3,56,5,54,7,52,9,50,11,48,13,46,15,44,17,42,19,40,21,38,23,36,25,34,27,32,29

2,59,4,57,6,55,8,53,10,51,12,49,14,47,16,45,18,43,20,41,22,39,24,37,26,35,28,33,30,31