May 2022 (English ≽)

Maintenance »

Питање: Да ли се информација одржава временом?

Maintenance

Одговор: Да, јер када не би било тако, физички експерименти не би били валидни докази нечега што се дешавало. Информација из посматраног процеса била би непоуздана, ако не би била у могућности да до оператера стиже тачно онаква каква је тамо формирана.

Слично је са разговором, слањем порука телефоном, путем радија, ТВ-а, или трећих медија. Немогућ би био интернет када се информација не би могла преносити простором и временом. При томе, она се, као и импулс билијарске кугле, може усмеравати и одржавати до места испоруке. Уто промена импулса (p) на путу (x) мењаће је, јер информација еквивалент је дејству (px).

Информација је еквивалент и производа (Et) енергије (E) и времена (t), који је други израз за физичко дејство. Зато ће у једнаким временским интервалима бити једнака укупна енергија датог физичког система, јер важи закон одржања информације. Отуда је толико пута већа опажена енергија колико пута је релативно време система спорије.

Ово запажање узгред открива и особину инертности информације, која иначе није тема текућег одговора. Успоравањем информација постаје лења, потребна је већа сила за њено покретање, већи импулс да се она савлада, из чега наслућујемо да су енергија и импулс у тој ситуацији пропорционални. Инертност информације ствар је и принципијелног минимализама како њене промене тако и емисије.

Дилатацијом релативистичког времена због једноликог инерцијалног кретања система, опажање исте информације у делу трајања сопственог посматрача, резултира релативно већом енергијом онолико пута колико је пута тај исечак времена мањи од сопственог, јер је производ енергије и трајања заправо константан. Аналогно се дешава са релативистичком контракцијом пута и повећањем импулса.

Због константне брзине светлости у вакууму (c ≈ 300 000 km/s), уздуж правца кретања датог система, релативно опажани пређени путеви, за брзину светлости, у одговарајућим деловима сопствених времена биће константни. Зато релативну контракцију дужина прати одговарајућа дилатација времена, позната нам из теорије релативности (Ајнштајн, 1905), из које произилази и константност псеудо површине (tx).

Нема информације без времена и места, она је дводимензионална, па иста константност не важи рецимо за праве површине (попут xy). Али ово су тек назнаке, мање од „врха леденог брега“, онога што вам морам испричати о закону одржања информације.

Channel »

Питање: Шта је са могућим грешкама у преносу информација?

Одговор: Начелна неизвесност подразумева и грешке у комуникацији. То ће у случају неког природног броја n ∈ ℕ пошиљаоца и примаоца сигнала значити да постоје неке вероватноће kij ∈ (0,1) пријема i-тог и слања j-тог сигнала. Када за послати j-ти важи ∑i kij = 1, онда стизање тог сигнала у облику неког од датих (i-ти) чини расподелу вероватноћа. Такође, ако је збир по свим послатим један, ∑j kij = 1, за фиксиран пристигли i-ти, онда послати тог пристиглог чине расподелу вероватноћа.

Тако је дефинисан канал преноса, матрице K = (kij) чији коефицијенти су условне вероватноће. Ако је низ, односно вектор вероватноћа сигнала на улазу p = (p1, ..., pn), на излазу канала биће q = (q1, ..., qn), где матричним множењем добијамо q = Kp. Размотримо сада увођење и закона одржања информације у ову једначину.

Time

На слици десно видимо пример ове матричне једначине, за канал 3 × 3. Вероватноће на дијагонали матрице преноса (kii) морају бити различите од осталих њихове врсте (колоне) да би се јавиле шансе идентификовања пошиљаоца на основу примаоца. Наиме, када би све те вероватноће биле међусобно једнаке, из канала преноса излазио би само шум. Али природа не воли једнакости (Equality).

Послата порука била би примаоцу утолико више разговетна што су ван-дијагоналне вероватноће (kij, за i ≠ j) матрице мање. Није неопходно да оне буду нуле, да рецимо пренос j-те поруке буде без грешака, него само да је дијагонална вероватноћа већа од збира осталих тог ретка (колоне). Ако је таква ситуација у сваком ретку, да је сваки дијагонални елеменат матрице већи од збира осталих, онда постоји пренос. Из примљеног је могућа реконструкција послатог.

Теорема. Услов |kii| > ∑j:j≠i |kij| (i, j = 1, 2, ..., n) довољан је за det K ≠ 0.

Доказ: Претпоставимо супротно, да је det K = 0. Тада систем линеарних хомогених једначина ∑j kijpj, има нетривијално решење, где ∑j |pj| > 0. Нека је |pi| = max{pj} и у хомогеном систему уочимо једначину

ki1 p1 + ... + kii pi + ... + kin pn = 0

из које добијамо:
|kii pi| = |∑j:j≠i kij pj|
|kii| = ∑j:j≠i |kij| |pj / pi| ≤ ∑j:j≠i |kij|

Према томе, ако је det K = 0, тада за елементе бар једне врсте не важи полазна претпоставка теореме. ∎

Ако у доказу уместо максимума узмемо минимум |pi| и даље доследно, доказаћемо: када је сваки дијагонални елеменат дате матрице мањи од збира осталих свог ретка, тада је детерминанта матрице различита од нуле. Приметимо да то важи за све квадратне матрице типа n × n те да коефицијенти kij не морају бити нити реални бројеви (Information).

Када радимо са класичним информацијама и вероватноћама израженим реалним бројевима од 0 до 1, тада су услов теореме неједнакости kii > ½ за свако i = 1, 2, ..., n, односно да су сви kii < ½. Детерминанта матрице је тада различита од нуле, одговарајући систем линеарних једначина биће регуларан, инвертибилан, што значи да се на основу копија (q = Kp) могу израчунати оригинали (p = K-1q).

Инвертибилнонст система једначина, односно регуларност одговарајуће матрице (det K ≠ 0) значи памћење ликова на основу слика, те да постоји одржање информације коју канал преноси. Став да у природи важи закон одржања информације, према претходном, подразумева да природа не подноси једнакости (Levelness).

Укратко, када су све шансе преноса i-тог сигнала у i-ти редом веће од 50 одсто, онда информација остаје очувана. У екстремном другом случају, када су оне (kii) све мање од 50 одсто, имамо исто, али је декодирање теже, јер су информације тада присутне, али су потиснуте, прикривене као у случају лажи (The Truth). Одговарајући на постављено ми питање тада можемо рећи да нема грешака у преносу информације.

Recursion II »

Питање: Преносом кроз канале (Channel) грешкe се увећавају?

Одговор: Тако је, логично је, а лако је проверити и са матрицом канала коју помињете. Рецимо нека то буде матрица K другог реда (2×2) са два дијагонална елемента a ∈ (0,1) и вандијагоналним b = 1 - a, чији износи су вероватноће преноса. Али има ту једна занимљивост.

Њеним квадрирањем (K2) добијамо матрицу другог реда са елементима на дијагонали a2 + b2 и ван ње 2ab. Збир оба истог ретка (или колоне) је квадрат бинома (a + b)2 = 1, јер је a + b = 1, па je и она неки канал преноса (пар сигнала у пар сигнала). То је надовезани пренос информација путем два узастопна канала K. Индукцијом лако доказујемо да је пренос кроз n = 1, 2, 3, ... таквих канала сваки пут неки канал преноса (два сигнала), са степенованом матрицом (Kn), дијагоналних елемената an и осталих bn, а при чему је увек an + bn = 1.

На пример, када је a = 0,70 тада је a2 = 0,58 па a3 = 0,53 затим a4 = 0,51 и a5 = 0,50 приближно, након чега се прве две децимале понављају (затим нису све нуле). Када је a основног канала већи број (увек мањи од један), тада је потребна дужа композиција, већи степен n, да прво an смањујући се стигне до 0,50. Обрнуто, са мањим почетним a (до ½) тај ће низ бити краћи.

Међутим, када је a < ½ настају занимљивије ситуације. Низ a, a2, a3, ... елемената дијагонале степенованих матрица (Kn) постаје алтернативан, наизменично испод 0,5 и изнад. На пример, за a = 0,3 биће a2 = 0,58 па a3 = 0,47 затим a4 = 0,51 и a5 = 0,49 да би настављао стално осцилујући око 0,50. Информатичко објашњење је следеће.

Када у основној матрици канала имамо повољност преноса i-тог у i-ти сигнал, вероватноћу a > 1/2, композицијом више таквих канала, та се вероватноћа смањује, али и даље остаје повољна (увек an > 1/2). Излаз садржи полазну поруку, али ју је све теже декодирати, јер је потиснута, маскирана, прикривена. Све је више безлична, са информацијом која је ту, али се нерадо емитује. Упоредимо ово са ентропијом која порастом, према (мојој) теорији информације, слично губи информацију. У оба случаја, на сцени је начело шкртањења комуникације.

Када у основној матрици канала (K) имамо неповољност преноса i-тог у исти сигнал, вероватноћу a < 1/2, кроз надовезане такве канале порука осцилује. Час је њен пренос извеснији, час неизвеснији, као да „истину“ привлачи „лаж“ а ову опет затим побеђује „истина“ (The Truth). Овај је начин вибрирања заправо честа појава физичке реалности, мада је до теорије информације (ове) непримећена (упоредите и са Oscillation).

Детерминанта |K| = |a2 - b2| = |(a - b)(a + b)| = |(a - b)| < 1, за ab ≠ 0. Наиме, оба ова броја су вероватноће a, b ∈ (0,1), при чему је a + b = 1. Отуда су овакве композиције пресликавања константно пригушиване (осцилације за |a| < |b|). За n → ∞ биће |K|n → 0, али за свако коначно n важи |K|n ≠ 0 — због чега композиција канала чува информацију.

Поента у оба случаја је закон одржања информације и он је начелне, универзалне природе. На друго питање ми (Откуд тај закон одржања?), бољи одговор је коинциденција, претпостављам, него да би га требало произвести из неких једноставних малобројних постулата саме теорије. Наиме, претпоставимо ли да васиона таквог закона нема, онда ни нас не би било.

Spin Matrices »

Питање: Постоје ли непригушивана пресликавања?

Spin Matrices

Одговор: Да, непригушиван пренос података постоји. Дапаче, квантна механика углавном ради са таквима. На слици лево су примери њихових „канала“. То су Паулијеве матице, решења матричне једначине σ2 = I, где индексе 1, 2 и 3 можемо редом заменити са x, y и z.

Лако се види, детерминанта сваке од њих је |σ| = 1, укључујући јединичну матрицу (|I| = 1), па у стилу претходног (Recursion II) можемо рећи да су оне „канали без пригушивања“ и, наравно, да чувају дату информацију.

Математичким речником казано, изометрије су та пресликавања која ће чинити канали без пригушивања. Сва таква су неке ротације, а примери у физици су вибрације. Говорим само о онима које сам недавно помињао.

Квантне матрице пресликавају векторе „генералисаних вероватноћа“ (за разлику од „обичних“ у Channel), са комплексним коефицијентима чији квадрати модула су вероватноће налажења честице-таласа у појединим физички мерљивим стањима.

Питање: Шта је то „спин“?

Одговор: Спин (енг. spin — вртња, ознаке s) једна је од основних особина елементарних честица. Тумачимо га као унутрашњи момент импулса. За спин, као иначе за обични импулс (производ масе и брзине) и енергију, а сада и за информацију, важи закон одржања. Реагује на магнетно поље и утиче на кретање електрона. Спин је искључиво квантно својство честица без свог „пара“ у класичној механици.

Попут северно-јужних полова магнета, чине га парови вредности које се дају свести на супротне полу-целе бројеве у случају фермиона, или целе за бозоне. Квантни оператор придружен спину-½ je k = ħσk/2. Индекс k означава произвољну од Паулијевих матрица, на слици горе лево.

Qubit »

Питање: Увек има много нула матрица непригушених пресликавања?

Одговор: Не. Адамарова матрица H (Квантна механика, 1.1.3 Кjубит) има 1 и -1 на главној дијагонали, а 1 и 1 на споредној, подељено кореном броја два (√2) да би јој детерминанта била јединична. На слици је њено дејство на јединичне векторе: Hex = (ex + ey)/√2 и Hey = (ex - ey)/√2.

Qubit

Она чува информацију, штавише не потискује је (њена детерминанта је јединична), а нема ни један нулти коефицијент. Сама је себи инверзна (H2 = I), па њену композицију можемо представљати као осциловање тамо-овамо датог сигнала.

Питање: Шта је то „кјубит“?

Одговор: Кубит је квантни бит. У квантном рачунарству њему је пандан бинарна цифра или бит класичног рачунарства. Као што је бит основна јединица информације у класичном рачунару, кубит је основна јединица информације у квантном рачунару. Међутим, за разлику од бита, кјубит је векторска величина. Она садржи обе могућности дате двоисходне, тзв. бинарне расподеле.

Адамарова матрица другог реда, поменута, пример је преноса кјубита, тј. двокомпонентног вектора, квантног стања. Такви представљају бинарне расподеле вероватноћа, дуалне случајне исходе које виђамо код бацања (нефер) новчића. Али, за разлику од прекидача класичних електричних кола (рачунара), који пропуштају само по један од могућих сигнала, само по једну компоненту вектора расподеле, на квантни начин, одговарајући „прекидачи“, пропуштају целе векторе (Quantum calculus).

Eigenvalues »

Питање: Шта су то карактеристичне вредности матрице?

Одговор: Нека је M квадратна матрица. Корени једначине det(M − λI)=0 називају се карактеристичним вредностима M. Према томе, бројеви λ су карактеристичне вредности M ако и само ако постоји ненулти вектор x такав да је Mx = λx. Сваки вектор x који ће решити матричну једначину Mx = λx назива се карактеристични вектор придружен карактеристичној вредности λ.

У квантној механици, карактеристична вредност назива се „eigenvalue“, а карактеристични вектор „eigenvector“. Ови називи се све више користе и у алгебри, јер је квантна механика њена репрезентација. На српском их називамо и „сопственим“, или својственим“ вредностима, векторима, или једначинама.

Број је (квадратна) „матрица“ првог реда (n = 1), а онда је и одговарајући „вектор“. Lинеарна функција f(x) = kx еквивалентна таквој некој матрици имаће сваки број x као неки карактеристични вектор придружен такође произвољној карактеристичној вредности k. Геометријски, то је функција хомотетије (истезања или скупљања k пута), или сличности (сразмерног увећања-умањења растојања дате фигуре), односно пропорционалност.

Просто речено, проста линеарна функција f(x) = kx представља мерење. Једно-компонентни вектор x је дужина, или време, килограм и уопште нека обзервабла (физички мерљива величина), а k њена количина. Она проширена на n = 1, 2, 3, ... компонентне векторе (n-члане низове) биће линеарни оператор, или њему одговарајућа матрица.

Квантна механика ради управо са таквима, при чему реалне бројеве често генералише комплексним. Тако горње Mx = λx постаје „хомотетија“, када само реалне бројеве λ тумачимо као реалне обзервабле. На таквом нивоу физичких величина обзервабле држимо могућностима, или расподелама вероватноћа, евентуалног мерења дате физичке величине у оквиру датих околности.

Корисно је отићи до самог дна физике, до њеног садашњег микросвета, да би приметили неизвесности и у физику увели или разумели „теорију информације“ (на мој начин) и у самој квантној механици препознали „информацију перцепције“.

Питање: Имате ли неке примере?

Одговор: Па саме просте линеарне функције су прости примери. Када се каже „измерена дужина је 17 метара“, говори се о некој таквој линеарној функцији чији карактеристични вектор је димензија дужине у метрима, са сопственом вредношћу 17.

Други пример су јединичне матрице I произвољног реда (броја n редака / колона). Оне пресликавају векторе (реда матрице) у исте такве векторе, јер су им на дијагонали јединице, а сви остали елементи нуле. Дакле, тај сваки вектор x (реда матрице) са бројем λ = 1 биће „карактеристичан“ за јединичну матрицу, јер Ix = 1⋅x.

Трећи пример су Паулијеве матрице (Spin Matrices). Свака од њих имаће карактеристичне вредности +1 или −1 и карактеристичне векторе који им одговарају представљене на следећој слици (i2 = -1).

Eigenvalues

Коефицијенти оваквих вектора могу бити комплексни бројеви (други пар ових). Квадрати модула сада представљају вероватноће мерења одређене обзервабле, а координатне осе мере обзервабле које би се могле појавити у датим условима (квантном стању). Једноставним рачуном налазимо да ови вектори представљају извесности обзервабли.

Питање: Зашто би карактеристичне вредности могле бити обзервабле?

Одговор: Квантни систем је репрезентација векторског простора (X), чија квантна стања су вектори (x ∈ X). Стања чине честице мезона, електрона, атома водоника и слично, а систем је све около што се може али не мора мерити. Линеарни оператор, попут M чија матрица је горе поменута M, је квантни процес. Скуп свих вектора дате карактеристичне вредности било којег оваквог оператора образује потпростор.

Наиме, ако је Mx = λx и My = λy, тада је линеарна комбинација:

M(αx + βy) = αMx + βMy = αλx + βλy = λ(αx + βy)

што значи да је исто λ својствена вредност и за произвољне линеарне комбинације (αx + βy) њених својствених вектора x и y.

Оне зато чине добро дефинисан простор обзервабли, јер би се и мерљиве физичке величине, физичка реалност, на сличан начин мешале. Друго, са много експеримената већ је потврђена ова теза, без изузетка. Честице преносе дејства, а према томе и информације, па исте карактеристичне вредности постају и изрази теорије информације.

Линеарна комбинација стања је опет неко стање са истом обзерваблом, њеном новом вредношћу, али истом суштином. Сам појам „килограма“ неће се променити мешањем различитих килограма неких твари.

Observable »

Питање: Обзервабле меримо и помоћу карактеристичних вредности и помоћу координата?

Одговор: Да, тако је. То је та „тајна“ веза између својствених вредности линеарних оператора и дијагонализације њима придружених матрица.

Може се доказати (Channel, Теорема) да неједнакости исхода приликом копирања стварају могућност препознавања оригинала. Алгебра такве назива „инвертибилним“ операторима, у физици они исказују „законе одржања“ (импулса, енергије, информације). Ако имамо инвертибилно пресликавање S: x → y, онда постоји и инверзно S-1: y → x.

Инвертибилне операторе називамо и „регуларним“, јер се њима описују системи линеарних једначина са регуларним, јединственим решењима. Називамо их и „сличношћу“, јер су два оператора A и B „слични“ када вреди B = S-1AS. Све речено важи и за одговарајуће матрице, јер оне су еквивалентне линеарним операторима, а такође за комуникације због еквиваленције са каналима преноса.

Теорема. Ако је B = S-1AS, матрице A и B имају једнаке карактеристичне вредности.

Доказ: На основу Бинет-Кошијеве теореме за квадратне матрице, да је детерминанта њиховог производа једнака производу детерминанти:

det(B - λI) = det(S-1AS - λS-1S)
= det(S-1(A - λI)S) = det(S-1) det(A - λI) det(S)
= det(A - λI)

тиме је показано да A и B имају исти карактеристични полином. ∎

Како сличне матрице имају исте својствене вредности (Eigenvalues) оне се односе се на исте потпросторе, те чине једну „реалност“. То следи из става (моје) теорије информације, да су субјекти који могу (ин)директно комуницирати (ин)директно реални. Али, обрнуто не важи, јер матрице истих својствених вредности не морају бити сличне, па алгебра одобрава егзистенције различитих таквих реалности.

Познато је да ове матрице можемо дијагонализирати, а то је и централни одговор на постављено питање. Дијагоналне елементе дају координате система, а уједно и својствене вредности, када се обе могу свести на исте обзервабле. Другим речима, иза „доброг“ избора обзервабли (основних физичких величина) и представљања их координатама, што је видели смо увек могуће, сопствене вредности процеса, који су такође мерљиви, неће бити „збуњујуће“ различити од полазних појмова.

Verticality »

Питање: Можете ли ми појаснити дијагонализацију матрице?

Одговор: Покушајте ствари разумети прво овако. Иза избора обзервабли (основних физичких величина) на „добар“ начин и репрезентације њих координатама, што се у горњем (Observable) види да је могуће, својствене вредности насталих процеса (који су такође мерљиви) неће „збуњивати“ својом различитошћу од полазних појмова. Зато је дијагонализација матрице могућа, због тог заједничког називника.

Другим речима, нису координате и сопствене вредности у раскораку, ако праве прве бирамо. Проблем настаје преносом наших интуитивних идеја физике макросвета у микросвет, када се они „искриве“ као те координате. Прави узрок је још мало дубљи, у дозвољавању „лажи“ (ублажавању, или потискивању истине) од стране природе (The Truth), али то није данас на дневном реду.

Verticality

На слици лево видимо два вектора, две усмерене дужи a и b које затварају угао φ и пројекцију другог на први, дужине |b| cos φ. Њихов скаларни производ је

a ⋅ b = axbx + ayby = |a||b|cos φ

писан на три начина. Први нам само саопштава да је то „тачка производ“ вектора чији резултат је скалар, што значи број. Други говори и о начину записивања у систему координата:
a = (ax, ay) и b = (bx, by).
Трећи каже да је то производ модула, интензитета, са косинусом угла који вектори разапињу. Ту има довољно информација за објашњење појма дијагонализације матрице.

Променом координатног система мења се други запис, али не први и трећи; не мењају се интензитети ових вектора ни угао између, нити резултат скаларног множења. Координатни систем подсећа на скелу постављену ради градње зграде која се на крају уклања. Записи које обављамо током рачунања са координатама, у процесу рада битни, а касније мање важни, могу се изводити на различите начине.

Дијагонализација матрице, односно оператора њој придруженог, је поступак израчунавања нових координата из старих, ради добијања најбољих могућих. Такве су узајамно окомите, јер тада свака од њих (својом пројекцијом) не узурпира ни једну од осталих. Наиме, нема информација перцепције (вектора) између појединих координата и остатка простора, па нема ни дејства између њих. Последњи навод долази из информатичког објашњења рутине, Грам-Шмитовог тока, ортогонализације (Квантна Механика, Ортонормирани вектори, 133), којој заправо интерпретација и не треба.

Нека су вектори a и b, са слике горе лево, управо координатни. Тада је произвољан вектор те равни x = αa + βb, па множећи скаларно следи:

α a ⋅ a + β a ⋅ b = a ⋅ x,    α a ⋅ b + β b ⋅ b = b ⋅ x
α a2 = a ⋅ x,    β b2 = b ⋅ x
e1 = a/|a|,    e2 = d/|d|

где је d = b - (b ⋅ e1)e1 = b - (b ⋅ a)a/a2. Вектори e1 и e2 су узајамно окомити и јединични, тзв. ортови. Наставак, у случају више димензија векторског простора, је добро позната класика алгебре.

Са ортогонализацијом система координата дешава се подударање њих са својственим вредностима оператора, обоје са евентуалним обзерваблама, а приде дође и дијагонализација одговарајућих матрица.

Unitary spaces »

Питање: Шта су то унитарни простори?

Одговор: У теорији информације „унитарно“ има значење налик квантно механичким (Hilbert space) применама унитарних простора алгебре. При томе, ⟨a, b⟩ = ab, где су a и b вектори датог простора, а даље као што се види у претходном одговору (Verticality). Скаларно множење вектора се интерпретира „информацијом перцепције“ између вектора, субјеката a и b, њихова већа адаптираност већом паралелношћу (ab), а окомитост учесника (ab) одсуством међусобног опажања.

Подразумева се да је скаларни (тзв. „унутрашњи“, или „тачка“) производ коњуговано симетричан, ⟨y, x⟩ = ⟨x, y⟩*, па је ⟨x, x⟩ = |x|2 реалан број. Али тражи се да је увек |x| ≥ 0, а нула само за нула-вектор. Додатно, производ је линеаран по првом аргументу, ⟨ax + by, z⟩ = ax, z⟩ + by, z⟩, а онда, због претходног, он је коњуговано линеаран по другом.

У теорији вероватноће, коју делом примењујемо у теорији информације, уместо „скоро сваки“ пишемо краће „сваки“, што је избор вероватноће 1. Због закона великих бројева то би могло значити „баш сваки“ у макро-физици, али не и на нижем нивоу честица микро-физике. Унутар домена квантне физике треба рачунати и на повремене комуникације, односно интеракције „окомитих вектора“ такође.

Питање: Важи ли овде неки закон одржања?

Одговор: Да, закон одржања информације перцепције овде има посебно значење. Он може појаснити метрику геометрија (равних и закривљених простора), а узгред и интервале теорије релативности. У смислу горњег одговора „добро“ биране координате постаће обзервабле посматраног квантног система за који важи закон одржања укупне перцепције. Ако множени вектори садрже збирове свих могућих опажаја система, онда је могућа једнакост ⟨x, y⟩ = const, која тада постаје врста закона одржања информације перцепције.

Квадрат модула (дужине) јединичног вектора u је |u|2 = ⟨u, u⟩ = 1. Када такав пројектујемо на k-ту координату Декартовог правоуглог система (Ox1...xn) пројекција је дужине косинуса угла, cos φk = cos ∠(u,xk), који вектор заклапа са том осом. То је познато из елементарне аналитичке геометрије.

Међутим, производ две такве пројекције, прве са пројекцијом k-тог орта (јединичног вектора ортогоналног система координата) на дати вектор, даће квадрат поменутог косинуса који затим представља и вероватноћу интеракције између вектора u и осе xk. Збир вероватноћа интеракција свих оса (k = 1, 2, ..., n) је један, када оне чине потпун скуп независних догађаја. То је, укратко, садржај идеје Борнове вероватноће (Квантна механика, 1.1.6 Борнов закон).

Из константности збирне вероватноће расподеле, ∑k cos2φk = 1, следи поменути закон одржања укупне перцепције, након пажљивог бирања начина мерења. Ову особинu квантне механике преносимо шире, преко олуја које се не могу лако смирити, па све до информације перцепције живих бића (Aging), која се због тог закона одржања не могу пребрзо отарасити вишка информације и свèсти на нежива бића.

Питање: Те „информације“ могу бити и негативни бројеви?

Одговор: Информација перцепције овако третирана користи не само негативне реалне бројеве, већ и комплексне. На пример, ставимо:

x = α1x1 + α2x2 + ... + αnxn,    y = xk.

Када су вектори у сабирцима елементарни (Packages), а чине комплетан систем опажаја, тада из ⟨x, y⟩ = 0 следи αk = 0, јер је ⟨xk, xk⟩ ≠ 0. Ако исто важи за свако k = 1, 2, ..., n, онда имамо хомогени систем n једначина по исто толико непознатих αj и са коефицијентима ⟨xj, xk⟩ = Gjk, скаларима који чине Грамову матрицу G.

Питање: Може ли се ово поопштити?

Одговор: Ово се лако поопштава на случај када су компонентни вектори x1, ..., xn сложени. Наиме, из система једначина xi = ∑j βijvj, где су vj неки елементарни вектори, композицијом (матричним множењем) добијамо горњи систем, дате векторе (обзервабле) изражавамо елементарним.

Обзиром на матричну једначину ( = 0), биће скуп вектора xj линеано зависан само ако је det G = 0. Наиме, када ова детерминанта исчезава, линеарни систем има вишка једначина и неке променљиве (алфа) могу се изразити помоћу других. А ако детерминанта није нула, онда је ту само тривијално решење (све алфе су нуле).

Питање: Да, то је позната особина система линеарних једначина. Имаш ли још неки начин?

Одговор: Исто својство овог система налазимо посматрајући запремине. У простору једног вектора x, Грамова детерминанта је квадрат дужине вектора (|G| = ⟨x, x⟩ = |x|2). Грамова детерминанта простора два вектора је квадрат површине правоугаоника који они разапињу:

|G| = ⟨x, x⟩⟨y, y⟩ - ⟨x, y⟩⟨y, x
= (|x||y|)2 - |x|2|y|2cos2φxy
= (|x||y| sin φxy)2.

За три вектора, опет, детерминанта |G| је квадрат запремине тад квадра (правоуглог паралелепипеда).

Уопште, Грамова детерминанта је квадрат запремине n-димензионалног квадра разапетог системом истог броја ортогоналних вектора, па када је |G| = 0 биће да бар један од вектора није независан, већ лежи у простору осталих. Када вектори xk чине линеарно независан систем, овако се даље може доказати да је Грамова детерминанта позитиван број.

Трећи начин је информатички. Ако се (Channel) из садржаја 3-Д битно различитих података пакованих у неком квадру издвоји, пошаље и тако сачува само једна шнита, један 2-Д правоугаоник, а остало изгуби — неће бити могуће из копије дешифровати све оригинале. Општије, ако из n-дим „квадра“ таквих података издвојимо једну n-1-дим „шниту“ — нема памћења и детерминанта матрице је нула (|G| = 0).

Питање: Одосмо ли ми у интерпретације вектора предалеко?

Одговор: Не, уопште. Радећи са негативним и комплексним бројевима (скаларима) није нужно да и завршни резултати буду такви. Ипак, они сви имају неке своје поруке и теоријске последице, али које нису тема овде. Оно што је тема, то је закључак да векторе интерпретирамо као квантна стања (честице), затим као обзервабле, укључујући опажаје за које не морамо имати чула из нашег макро-света, али интерпретирамо векторе и као информације.

То су домети примене алгебре унитарних простора, што се тиче (моје) теорије информације.

Minimalism »

Питање: Да ли се принцип минимализма информације види негде у алгебри оператора?

Одговор: Да, тај минимализам је видљив, али не знам колико је заиста и запажен у примени алгебре. Појаснићу, надам се довољно једноставним речима, иако у тој тематици једва да има понешто једноставно.

Видели смо (Channel) да је различитост неопходан услов за „памћење“ и закон одржања информације при преносу каналом. Линеарни оператор, или одговарајућа матрица, памти оригинале у копијама, реверзибилан је, постоји њему инверзни оператор, када детерминанта матрице није нула. Али то није довољно да би могао постојати инвезан пренос података, да постоји инверзан канал за такав пренос.

Ова апсурдна последица, пре свега уследиће из „принципа минимализма информације“. Она је последица одговарајућег „принципа максимализма вероватноће“, да се најчешће догађају највероватнији исходи, те става да је вероватнији исход мање информативан. Отуда и закон инерције, али и принцип најмањег дејства теоријске физике, па много тога још до сасвим неочекиваних изведби попут привлачности лажи (The Truth).

Рецимо да смо то апсолвирали читајући ову теорију информације. Даље погледајмо како се исто открива путем алгебре канала преноса података. Нека су mj и Mj минимална и максимална вредност j-те колоне поменуте матрице канала K = (kij), са индексима i, j = 1, 2, ..., n. Прецизније:

mj = mini{kij},    Mj = maxi{kij},.

Тада је:
mj = ∑i mj pi ≤ ∑i kij pi ≤ ∑i Mj pi = Mj
mj ≤ ∑i kij piMj
mjqjMj

што су неједнакости које не зависе од расподеле p = (p1,...,pn), а важе за сваки такав улазни вектор. Матрица канала дакле сужава распон могућих вероватноћа у излазној расподели.

Напомињем, ово су ставови из књиге „Математичка теорија информације и комуникације“, Друштво математичара Републике Српске, Бања Лука 1995, коју сам написао десетак година пре штампања, али није излазила у јавност због тешког текста (дефиниција-теорема-доказ), рецензија, па и грађанског рата који нам се у међувремену (1991-1995) десио.

И када канал преноса података (K) има инверзну матрицу (K-1), она неће бити канал преноса осим ако таква у свакој од колона има бар једну нулу (минимум) и бар једну јединицу (максимум). Међутим, како је збир сваке врсте 1, она мора имати само једну јединицу и све остале нуле. Матрица канала, чија инверзна матрица је такође канал преноса података, мора бити нека пермутација колона јединичне матрице.

Једине инвертибилне другог реда матрице канала су јединична и прва Паулијева (Spin Matrices), у случају самих реалних ненегативних бројева. Иначе, у поменутој књизи (1995), квадратну матрицу са коефицијентима реалним ненегативним бројевима, чији је збир елемената сваке колоне 1, називао сам „стохастичка“ матрица. Као што се види (Information), развој теорије информације отићи ће даље од реалних бројева, па тај првобитни назив има посебну вредност.

Essence »

Питање: Да ли се појам обзервабле разликује од количине обзервабле?

Одговор: Ако сам добро разумео, питање спада у део вечитих расправа о значењу форми, о разликама између самог бројања и суштине онога што можемо бројати (Farming). То је отворено питање, прво због интуитивног осећаја да „маса“ као општи појам треба бити различита од „количине“ неке измерене масе. Овај став има упориште и у векторима.

Наиме, обзервабле (физички мерљиве величине) репрезентације су координатних оса, које су тада „суштине“ за разлику од „количина“ које на те осе качимо баждарећи их. Дописујући бројеве на осу, величине исте обзервабле, ми казујемо да ти бројеви нису исто што и сама оса. Довољна је једна оса бројева да се изрази све потребно у вези са обзерваблом коју представља, тврди следећи став алгебре вектора.

Теорема (о пројекцији). Ако је Y коначно димензионални потпростор унитарног простора X онда се сваки вектор xX може на јединствен начин писати у облику x = y + z, где yY и zY.

Доказ: Простор Y има (Verticality) ортонормирану базу e1, e2, ...,en. За дати вектор xX потпуно су одређени вектори:

y = ∑k (xek) ek,    z = x - y.

Очигледно је yY, а даље скаларно множење даје:

zej = (x - y) ⋅ ej = xej - ∑k (xek)(ekej) = 0

што значи да је ze1, e2, ...,en. Из тога следи да је zY.

За доказ једнозначности, нека x = y + z = y' + z' (y, y'Y; z, z'Y). Тада:

y - y' = z' - z,
(y - y') ⋅ (y - y') = (y - y') ⋅ (z' - z) = 0,
y - y' = 0,

што значи y = y', а према томе и z' = z. ∎

Тај познати став алгебре можемо разумети и као немогућност давања различитих суштина истим обзерваблама, или ћемо рећи степенима слободе, односно физичким димензијама величина. Он је и веома јак аргумент за разликовање појма од количине појма.

Са друге стране је (хипо)теза да је информација основно ткиво простора, времена и материје, а да је неизвесност њена бит. Како су то неки износи опција, свет којм се бавимо има само илузију суштине као нечег сасвим посебног од количине. Идеја димензије такође нека је информација, а информација о информацији нова је информација. Када комуницирамо са делом нове димензије, сва њена реалност постаје и наша — била би информатичка интерпретација горње теореме.

То су три аргумента за „нумеричку“ природу „суштине“. Надовезује се, тако рећи намеће се (хипо)теза, да је могуће обострано једнозначно пресликавање (бијекција) неког скупа бројева са сваком унапред датом структуром. Овим не подразумевамо додељивање „величине“ (бројчане вредности) сваком могућем појму, већ само упоређивање, асоцирање, попут објеката еуклидске геометрије са аналитичком, координатном.

То је поступак апстраховања који користимо и при применама самих векторских простора алгебре, или метричких простора функционалне анализе. Такође, применом аритметичких операција у свакодневним пословима, ми апстрахујемо појмове предмета сабирања и преносимо начином бијекције на појмове бројева, али и на ове међусобно.

Укратко, појам обзервабле јесте различит од количине обзервабле, јер различитост је принципијелна појава овог света, али постоји аналогија која се путем бројева, или облика, али и других апстракција (издвајања) може пронаћи у свим унапред датим обзерваблама. Понављам „унапред датим“, јер не постоји скуп свих скупова и не можемо обрнуто, уписати познато својство „свему“. То би била та хипотеза, не само о нумеричкој, већ о једној широј попут математичке, природи васионе.

Functional »

Питање: Који још је начин дефининисања информације перцепције?

Одговор: Ако то питање ограничимо на Банахове просторе и линеарне функционеле онда се и тражени опсег може сузити. Иначе начина описа информације перцепције има превише. Покушаћу објаснити овај мањи део, самог сложеног градива функционалне анализе. Идемо корак по корак, током чега ћу давати и одговарајући информатички расплет.

Банахов простор је нормиран и комплетиран. Нормиран вектор xX (скалари из Φ) има интензитет ознаке ∥x∥ са особинама:

    1. ∥x∥ ≥ 0, а једнакост важи само за нул-вектор (ненегативност);
    2. ∥λx∥ = |λ| ∥x∥, за сваки скалар λ (хомогеност);
    3. ∥x + y∥ ≤ ∥x∥ + ∥y∥, за свако yX (неједнакост троугла).

У нормирани простор метрика се уводи са

d(x,y) = ∥x - y∥.

Лако је проверити да, за произвољне x, y, zX, за метрику важи:

    1. d(x,y) ≥ 0, а једнакост важи само за x - y = 0;
    2. d(x,y) = d(y,x) — симетрија;
    3. d(x,y) ≤ d(x,z) + d(z,y) — неједнакост троугла.

Метрички простор је иначе било каква структура, аморфан скуп X, чије елементе означавамо словима x, y, z, ...X, ако сваком пару (x,y) можемо доделити реалан број d(x,y) са наведеним особинама. У обрнутом случају, када имамо метрички простор и прелазимо на векторски, норму вектора xX уводимо са

x∥ = d(0,x)

дакле, као удаљеност тачке x од исходишта O. Лако је проверити, сада обрнутим путем, да норма овако уведена метриком задовољава горње особине норме.

Векторски простор је структура вектора x, y, ...X и скалара α, β, ... ∈ Φ, где је (X, +) Абелова група, а (Φ, +, ⋅) поље. При томе, важи асоцијација множења (два или више) скалара (једним) вектором, затим дистрибуција множења скалара збиром вектора, те дистрибуција множења вектора по збиру скалара и подразумевано 1⋅x = x.

Ако сваком елементу x скупа X на неки начин одговара елеменат y скупа Y, кажемо да је скуп X пресликан у скуп Y. Први је оригинал, други слика, копија првог, а правило пресликавања је „функција“. Пишемо f : XY, или y = f(x), где је f функција.

Ако је X = Y, често функцију називамо „трансформација“, или „оператор“ у случају пресликавања вектора. Линеарно пресликавање је такво за које важи једнакост

f(α1x1 + α2x2 + ... + αnxn) = α1f(x1) + α2f(x2) + ... + αnf(xn)

за све, рецимо, векторе xj и скаларе αk. Ако су X и Y скупови бројева реч је о „нумеричкој функцији“, а када је једино Y скуп бројева тада говоримо о „функционели“.

Оператор A : X → Y је „адитиван“, ако је A(x1 + x2) = A(x1) + A(x2), а када је A(λx) = λA(x) оператор је „хомоген“, за све векторе x и све скаларе λ. Отуда је оператор „линеаран“, такође, ако је уједно адитиван и хомоген. Зато је за линеарне операторе практично писати Ax уместо A(x).

Линеарни оператор A : X → Y је „ограничен“, када постоји ненегативан број M такав да је ∥Ax∥ ≤ Mx∥, за свако xX. Инфимум (највећа доња граница) бројева M за које ово важи је „норма оператора“ A, ознаке ∥A∥. Дакле, ∥Ax∥ ≤ ∥A∥ ∥x∥, за свако xX.

Приметимо да је ова еквивалентна Хелдеровој неједначини

kkβk| ≤ (∑kk|p)1/p (∑kk|q)1/q

за све комплексне бројеве α и β, p > 1, при чему је 1/p + 1/q = 1. У многим нормама, управо ова неједнакост постаје ∥x y∥ ≤ ∥x∥ ∥y∥.

Неједнакост Минковског, која важи за све комплексне бројеве α и β, и свако p ≥ 1,

(∑kk + βk|p)1/p ≤ (∑kk|p)1/p + (∑kk|p)1/p

корисна је у доказивању неједнакости троугла норми.

Пример 1. У реалном или комплексном (X = ℝ, ℂ) простору Xnp низова, вектора x = (ξ1, ..., ξn), y = (η1, ..., ηn) метрика

d(x,y) =(∑kk - ηk|p)1/p

је добро дефинисана за свако 1 ≤ p < +∞. Ако p → +∞ тада

d(x,y) = maxkk - ηk|

је такође добро дефинисана метрика. ▭

Да је линеарни оператор A : X → Y је „непрекидан“ само када је оганичен, следи прво из: ∥Axn - Ax0∥ = ∥A(xn - x0)∥ ≤ ∥A∥ ∥xn - x0∥ → 0, када xn → x0. Ако, пак, оператор A није ограничен на читавом X, може се показати да није непрекидан прво у тачки x = 0, затим да није непрекидан ни у једној другој тачки. Такође, ограничен оператор A ограничен скуп пресликава у ограничен.

Пример 2. Простор lp чини норма ∥x∥ = (∑μμ|p)1/p, за 1 ≤ p < +∞, низова облика x = (ξμ). Нека је A = (αμν) бесконачна матрица бројева, таква да за неко q > 1 важи ∑μ,νμν|q < +∞. Тада је са ημ = ∑ν αμν (μ = 1, 2, ...) одређен ограничен линеарни оператор y = Ax, x = (ξμ), y = (ην). Ако је p = 1, уместо l1 пишемо само l. ▭

Примери 1. и 2. демонстрација су потенцијала дефиниција Informacija Percepcije, обзиром на могућности норме и метрике.

Питање: То би било објашњење норме, а шта је са комплетирањем?

Одговор: Добро, опет пођимо редом. Низ (ξμ) је „Кошијев низ“, ако за свако ε > 0 постоји неки природни број n0 такав да m > nn0 повлачи dm, ξn) < ε.

Из саме дефиниције следи да је сваки Кошијев низ ограничен. Наиме, за свако ε > 0 постоји n тако да из mn следи dm, ξn) < ε, што значи да се сви чланови низа сем њих коначно много налазе у кугли полупречника ε. Али тада постоји и довољно велика кугла у којој се налазе сви.

Такође, сваки конвергентан низ је Кошијев низ. Када ξn → ξ0, то следи из

dm, ξn) ≤ dm, ξ0) + d0, ξn).

Да исказ обрнут овоме није тачан показују рационални бројеви. Међу њих можемо дефинисати метрику на исти начин, али им низови могу конвергирати ирационалним бројевима.

Метрички простор је „комплетан“, ако у њему сваки Кошијев низ конвергира.

Простори примера 1. и 2. су комплетни. Физички се простор такође може сматрати комплетним, ако за сваку унапред дату удаљеност ε > 0 постоји посматрач који је може опажати. Слично је са енергијом (E = hν) за коју, иако држимо квантованом, можемо наћи (скоро) неограничено великом или малом зависно од фреквенције (ν = 1/τ), па су онда обе и она и време (Eτ = h), узети као посебне структуре, комплетни. На тај начин и фактори сабирака информације перцепције биће елементи комплетних простора.

Питање: Ограничени (линеарни) оператори су кандидати за процесе закона одржања?

Одговор: Оштроумно запажање! Компоненте опажања можемо свести на Кошијеве низове, они су ограничени, а то је већ нешто што познајемо из свакодневних перцепција. Треба нам још само могућност памћења током процеса.

Нека је A : X → Y и даље линеаран оператор. Кажемо да он има „инверзан оператор“ A-1 : Y → X ако је A-1(Ax) = x, за свако xX. Или, да инверзан оператор постоји ако је оператор бијекција, ако из x1x2 следи Ax1Ax2, што је код линеарних оператора краће да из Ax = 0 следи x = 0.

Ако линеаран оператор A : X → Y има инверзан оператор A-1, тада је тај линеаран на A(X). Наиме:

A-11y1 + λ2y2) =
A-11AA-1y1 + λAA-12y2) =
A-1A1A-1y1 + λ2A-1y2) =
λ1A-1(y1) + λ2A-1(y2),

а отуда дефиниција линеарности. Да је инверзан од инверзног полазни оператор, (A-1)-1 = A, лако је доказати на сличан начин.

Да би овај A имао ограничен оператор A-1 потребан и довољан услов је да постоји број m > 0 тако да је ∥Ax∥ ≥ mx∥, за свако xX. Тада ∥A-1∥ ≤ 1/m. То је познати став математичке анализе и непотребно ми је преписивати доказ. Занимљивије је сетити се „изоморфизма“ уопште, као бијективног и инвертибилног пресликавања две истоврсне структуре, из једне у другу, па овај став спојити са једним горњим у следећи.

Простори X и Y су изоморфни ако и само ако постоји линеаран оператор A који пресликава X на Y и ако постоје позитивне константе m и M да:

mx∥ ≤ ∥Ax∥ ≤ Mx

за свако xX. Другим речима, изоморфизам је гаранција ограничености оператора и процеса који „памте“, односно таквих примена за које важе закони одржања.

Питање: Колика је употреба ових теорема данас у квантној механици?

Одговор: Мала, или никаква, колико је мени познато. Не само зато што је ова област математике (функционална анализа) тешка за учити, посебно за оне који пред собом имају ту претешку област физике, већ и због (мог) концепта „теорије информације“ који им недостаје. То је, пре свега, став да информација чини структуру простора, времена и материје, а да њену суштину чини неизвесност. Ево још неколико примера познатих теорема који откривају ову страну проблема.

Када постоје две норме ∥⋅∥1 и ∥⋅∥2 на истом векторском простору X, тада имамо два изоморфна нормирана простора, X1 = (X, ∥⋅∥1) и X2 = (X, ∥⋅∥2), само ако постоје константе m, M > 0 тако да је mx1 ≤ ∥x2Mx1, за свако xX. Ако је услов испуњен кажемо да су норме еквивалентне.

Доказ следи из претходног става када тамо ставимо X = X1 и Y = X2, а за оператор изаберемо идентички оператор (Ix = x, за свако xX). Мало су сложенији докази следећих ставова, иако и они говоре о скоро истом. Не доказујем их овде, јер су део наставних програма.

Два нормирана простора X и Y димензије n над истим скупом скалара су изоморфни. Сваки нормиран простор X коначне димензије комплетан је (и Банахов). Коначно-димензионални потпростори X1X нормираног простора X су затворени (граничне тачке им припадају). Сви линеарни оператори A : X → Y коначно-димензионалног простора X су ограничени.

Наглашавам потребу примене ових ставова математике на везе физичког простора, времена, импулса, или енергије, са информацијом.

Питање: Добро, а шта је са функционелом?

Одговор: Нека је ограничена линеарна функционела једноставне ознаке

S : X → Φ,

коју карактеришу једнакости:

S(αx + βy) = αS(x) + βS(y)   и   ∥S(x)∥ ≤ ∥S∥ ∥x∥,

за свако x, yX и све α, β ∈ Φ. Иначе, једнакости:

S∥ = supxX∖{0} |S(x)|/∥x∥ = supx∥≤1|S(x)| = supx∥=1|S(x)|

дефинишу норму дате функционеле.

Пример 3. Нека је y = (ηk) произвољна фиксирана тачка у простору ограничених низова, који могу бити и бесконачни конвергентни, уобичајене ознаке m. Тада је

S(x) = ∑k ηkξk

ограничена линеарна функционела, где је x = (ξk) ∈ l (пример 2) произвољан. При томе, како је:

|S(x) ≤ sup1≤ν≤∞ν| ⋅ ∑νν = ∥ymxl.

биће увек ∥S∥ ≤ ∥ym. ▭

Приметили сте, надам се, да је овде намерно употребљена ознака S за линеарну функционелу, због лакшег разумевања њене интерпретације као „информације перцепције“. То је уједно и одговор на прво питање, о начинима дефинисања информације перцепције, који имају свој шири спектар у Банаховим просторима, а унутар којег су опет, на апстрактан математички начин, јединствени.

Последњи пример каже, за сваку фиксирану тачку, низ ym, постоји израз S(x), функција од xl, као ограничена линеарна функционела простора низова, вектора l и да је ∥S∥ ≤ ∥ym. Међутим, важи и обрнуто, да свакој ограниченој линеарној функционели S на l одговара тачка, низ односно вектор ym, таква са којом се функционела S да представити у истом том облику S(x).

Emergence II »

Питање: Можете ли ми још једном објаснити настајање својстава ентитета којих његови делови сами по себи немају?

Emergence II

Одговор: Концепт „искрсавања“ (On the Concept of Emergence) је популаран и занимљив феномен науци, можда и зато што изгледа као да се не уклапа у њена текућа решења. У теорији информације о том „појављивању“ (Emergence) одавно имам став, али не агилан па је углавном непознат. Могуће га је појаснити, надам се.

Информација перцепције (S = a1b1 + ... + anbn) је скаларни производ два низа, или вектора (a и b) чија вредност (Extremes) расте „усклађивањем“ компоненти, при чему интензитети (норме) вектора остају исти. И то је то. Самим „подређивањем“, рецимо првог фактора другоме, тј. вектора a вектору b, расте информација перцепције, односно дешава се „настанак“.

Примера пораста ове „виталности“ целине са адаптацијом њених делова има свукуда, а неке, рецимо о популарности (Popularity), или доминацији (Domination), наводио сам и недавно у овом блогу. Оне и „помаљање“, у теорији информације, спадају у сродне појаве. Да су ове појаве заиста и у информацији перцепције, може се приметити мало строжије на следеће начине.

Нека је a1 - a2 > 0 и b1 - b2 > 0 да имамо два опадајућа двочлана (n = 2) низа у поменутом скаларном производу (S = a ⋅ b). Тада је:

(a1 - a2)(b1 - b2) > 0
a1b1 + a2b2 > a1b2 + a2b1

па S на левој страни неједнакости има усклађене коефицијенте, где је већи a множен већим b и мањи мањим, а на десној неусклађене. Први збир производа (S) већи је од другог. Применимо исто сада на низове произвољне дужине (n > 2). Ако су одговарајући парови, j-тог и k-тог коефицијента два низа, погрешно поредани, неусклађени, заменимо места једном од њих тако да добијамо једнако монотоне низове (оба растућа, или оба опадајућа), чиме одговарајући скаларни производ (S) расте. Када више не буде парова којима треба мењати места, тад ће производ бити максималан.

Слично се може доказати и минимум, у случају супротне монотоности два низа, када је један растући а други опадајући. Једном постигнута вредност збира производа ових низова остаће непромењена заменом места сабирака, јер важи закон комутације за сабирање. Такође, када имамо неку растућу (опадајућу) функцију, y = f(x), где је bk = f(ak) за свако k = 1, 2, ..., n, скаларни производ S = ∑k akbk биће максималан (минималан).

Теорема. Ако су x = (x1, ..., xn) и y = (y1, ..., yn) за n = 1, 2, ..., две расподеле вероватноћа, тада је

-∑k xk ⋅ log xk ≤ -∑k xk ⋅ log yk

при чему једнакост важи ако и само ако је xk = yk за свако k = 1, 2, ..., n.

Доказ: Пођимо од познате неједнакости log xx - 1, у оквиру које вреди једнакост ако и само ако x = 1. Ставимо x = yk/xk (xk ≠ 0), па имамо:

xk ⋅ log yk - xk ⋅ log xkyk - xk

што важи и за xk = 0. Сабирајући по свим k = 1, 2, ..., n, добијамо тврдњу теореме. ∎

Ова теорема је само један пример претходног става, али нам је посебно занимљива јер говори о Шеноновој информацији (на левој страни). Она је средња вредност појединих вероватноћа расподеле (-log xk) и није већа од свих других сличних „средњих вредности“. У мојој је књизи „Физичка информација“ анализирана једна алтернатива Шеноновој дефиницији информације, њој крајње слична, на низу расподела вероватноћа. Идеја је била да се докаже егзистенција такве дефиниције информације за коју би важио закон одржања, а која је због тога такође већа од Шенонове.

Закон одржања, поред осталог, повлачи да ће удруживање, адаптација, односно „емергенција“, значити и пренос слобода (количина опција) са јединке на колектив. Да јединка робује колективу, синхронизујући себе са масом, служећи је и опонашајући. Али то је посебна тема. Оно што је овде довољно приметити је пренос виталности са јединке на колектив, који постаје емергенција.

Unitary operator »

Питање: Шта је то унитарни оператор?

Одговор: Прочитајте прво кратки текст „Unitary“ од пре шест месеци, а може и недавни „Unitary spaces“. По дефиницији, унитарни оператор је онај, U, који не мења скаларни производ, ⟨Ux, Uy⟩ = ⟨x, y⟩ . Процеси које представља не мењају информацију перцепције.

Пре свега, U : X → X и линеаран је, тј. Ux + βy) = αU(x) + βU(y), за све векторе x, yX и све скаларе α, β ∈ Φ. Ставимо ли x' = U-1x и y' = U-1y за произвољне x, yX, из ⟨U-1x, U-1y⟩ = ⟨x', y'⟩ = ⟨Ux, Uy⟩ = ⟨x, y⟩ видимо да из унитарности U следи унитарност њему инверзног оператора U-1. Даље, када су U и V унитарни оператори, онда је ⟨UVx, UVy⟩ = ⟨Vx, Vy⟩ = ⟨x, y⟩, што значи да је и њихова композиција, производ UV унитаран оператор. Отуда, скуп свих унитарних оператора на истом X је мултипликативна група.

У случају реалног простора X (скалари Φ су реални бројеви ℝ), унитарни оператор називамо и „ортогонални оператор“. У простору комплексних бројева, множење са exp(iφ) је унитарни оператор. Спектар унитарног оператора лежи на јединичној кружници. Ако су x1, ..., xm и x'1, ..., x'm два система вектора из n димензионалног векторског простора X, при чему је ⟨xj, xk⟩ = ⟨x'j, x'k⟩, за j, k = 1, ..., m, тада је ту бар један унитаран оператор U са својством x'k = Uxk.

Ово су школске теореме о унитарним операторима, па доказе прескачем. Мање је познато да унитарни оператори, обзиром на јединичне норме, а и јединичне детерминанте одговарајућих унитарних матрица — описују „строге законе одржања“, за разлику од „слабог“ (Minimalism). И први и други процес памте оригинале, али за разлику од првог, код другог није увек могућ пренос информација уназад.

Информатички је занимљив и ређе помињан став да у n-дим векторском простору функционела исто толико променљивих која није константа и за коју вреди f(Ux1, ..., Uxn) = f(x1, ..., xn) за све унитарне операторе U и све низове вектора, овде променљивих xk, онда је та f функција (Functional) скаларних производа ⟨xi, xj). Тај став је и о ширини домета информације перцепције.

Иначе, квантна механика је репрезентација Хилбертових простора и унитарних оператора. Квантни систем је интерпретација тог простора, квантно стање је вектор, а квантни процес је оператор.

Semaphore »

Питање: Мора ли матрица пресликавања бити квадратна?

Semaphore

Одговор: Не, али јесте углавном квадратна. Досадашња квантна физика ограничава себе на такве матрице, али и канали преноса информација (Stochastic matrix) претежно се разматрају само као квадратне матрице. За очекивати је да таква ограничења временом лабаве.

Као супротан пример погледајмо раскрсницу са семафором. Три се боје пале, одозго на доле. Црвено светло каже, возачима на које се сигнал односи, забрану проласка кроз раскрсницу. Уједно црвено и жуто светло (две секунде) обавештава да ће се укључити зелено светло. Зелено светло значи, возачима на које се односи, дозвољен пролазак кроз раскрсницу. Жуто светло (три секунде) најављује укључивање црвеног светла. Трајање црвеног (рецимо 50 s) и зеленог (65 s) светла зависи од промета и рачуна се посебно.

Један циклус трајања забране, најаве и пролаза је рецимо 120 s, па однос у бојама (црвена, жута, зелена) износи 50/120, 5/120 и 65/120. То је у процентима приближно 42%, 4% и 54%. Такве су шансе да ће у датом тренутку семафор показивати редом стање забране (црвено), најаве (жуто), или пролаза (зелено).

Поред тога, мери се опажај возача и њихова реакција, или придржавање упозорења од стране учесника у саобраћају. Око 2% свих оглушило се на забрану проласка, 30% нису смањивали брзину на жуто светло, а 1% нису искористили да прођу раскрсницом на зелено. Дакле, трећина возача на овај или онај начин није следила светлосни сигнал, односно 2/3 мерених поштовали су прописано.

Први ред матрице канала K чине поштовања сигнала (0,98; 0,70; 0,99), а други ред непоштовање (0,02; 0,30; 0,01). Том матрицом множимо тро-компонентни вектор p = (42, 4, 54) светала и добијамо дво-компонентни вектор q = Kp, дакле q = (97, 3), процене да је у датом тренутку мерења прописани светлосни сигнал био поштован, односно да није, од стране учесника у саобраћају.

Нема инверзне матрице, нема памћења оригинала (трајања боје сигнала) на основу копије (поштовања прописа), али нису бесмислене саме идеје преноса неких порука таквим каналима. Много је занимљивије питање како су уопште могуће такве?

Како су уопште могући ти фантастички „светови“ за које не важе закони физике, ако је већ све што се деси, па и оно о чему можемо размишљати, нека информација, а онда и нека „реалност“. То је, надајмо се, нешто што ћете ме једном упитати.

Питање: Можете ли ми мало појаснити овај коментар да „нема инверзне матрице“?

Одговор: Да, сложио сам одговор у прилогу „01. Неквадратна матрица канала“ скрипте Информатичка теорија, па тамо погледајте детаље.

Next

Тема:

Теорија информације која подразумева објективност неизвесности и разне њене трагове у простору, времену и материји. Разговори су вођени давно, углавном, а обрађивани за ову мајску страницу бар месец раније.

Нека се питања наизглед понављају, али одговоре чине варијације макар понеког новог аспекта претходно реченом.

Архив:

Ово је хронолошки последњи мој блог, а горе је попис свих 12 месечних страница, од јуна 2021. до маја 2022.

Обзиром да ће се овај сајт ускоро гасити, архивирао сам садржај у четири скрипте pdf-текстова:

Допуне, недовољно популарне, одвајене су у скрипте „Информатичке Теорије“, такође pdf формата:

  • IT I » мај-јули 2022.
  • IT II » јули-септембар 2022.
  • IT III » октобар-децембар 2022.