සන්නිවේදනය හා ආධුනික ගුවන් විදුලිය (Amateur radio) 37

Code Division Multiplexing

TDM, FDM ක්‍රම දෙකටම වඩා සංකීර්ණ නමුත් අපූරු මල්ටිප්ලෙක්සිං ක්‍රමය මෙයයි. අර තරම් පහසුවෙන් එකවර සමහරෙකුට මෙය තේරුම් ගැනීමටත් අපහසු විය හැකියි. එහෙත් නිසි පිලිවෙලට ඉගෙන ගන්නවා නම් එතරම් අපහසු නැත. ඩිජිටල් ක්‍රමයකි. මා පෞද්ගලිකව එය හඳුන්වන්නට කැමති “මැජික් මල්ටිප්ලෙක්සිං” කියාය.

මෙය ඉතාම හොඳින් තේරුම් ගත හැකියි උපමාවක් ඇසුරින්. ඉතා ඝෝෂාකාරී පරිසරයක ඔබ සිටිනවා යැයි සිතන්න (සංගීත සංදර්ශනයක්, රැස්වීමක් වැනි). දැන් ඔබ යමෙක් සමඟ එම අධික ඝෝෂාවේ කතා කරන අවස්ථාව සලකන්න. කොතරම් ඝෝෂාවක් තිබුණත් ඔබයි ඔහුයි අතර සංවාදය පවත්වාගෙන යනවා නේද? අවට ඝෝෂාව ඔබේ කටහඬේ සැරට වඩා ඉතා වැඩිය. එසේ වුවත්, ඔබට ඔහු කියන දේ (හා ඔහුට ඔබ කියන දේ) තේරුම් ගත හැකියි. එනම්, ඔබ දෙදෙනාගේ දෙබස සාර්ථක වීමට හේතුව ඔබේ හඬේ සැරම නොවේ. සැර වැඩි නම් තවත් හොඳයි. එහෙත් ඊට වඩා වැදගත් සාධකයක් තිබේ. එනම්, ඔබට (ඔබේ මොලයට) හැකියි අනෙකාගේ ශබ්දය පමණක් අනෙක් සියලු ශබ්දවලින් හෙවත් පසුබිම් ඝෝෂාවෙන් (background noise) වෙන් කර ගන්නට. අන්න එවැනිම ක්‍රමයක් තමයි CDM හි යොදා ගන්නේ.

FDM හි සිදු කළේ දෙන ලද යම් පුලුල් සංඛ්‍යාත පරාසයක් පටු පරාස කිහිපයකට කඩා ඒ එක් එක් පරාසයක වෙන වෙනම සංඥා යැවීමනෙ. එලෙසම, TDM හි සිදු කළේ දෙන ලද යම් පටු සංඛ්‍යාත පරාසයක් ටයිම් ස්ලොට් කිහිපයකට කඩා ඒ එක් එක් ස්ලොට් එකෙහි වෙන වෙනම සංඥා යැවීමයි. එහෙත්, CDM හි සිදු කරන්නේ යම් පුලුල් සංඛ්‍යාත පරාසය පුරාම මුලු සම්ප්‍රේෂනන කාලය පුරාම සංඥා කිහිපයක් එකවර යැවීමයි. ඉතිං CDM ක්‍රමයේ ඉහත ක්‍රම දෙකට වඩා පැහැදිලි වෙනස්කම් ඇත.

අනෙක් ක්‍රම දෙකෙහිදීම අධිවේගී දත්ත මාර්ගයක්/මාධ්‍යයක් තමයි අඩුවේගී දත්ත/සංඥා යැවිය හැකි මාර්ග කිහිපයකට බෙදා දෙන්නේ. එනම්, පුලුල් පරාස සංඥාවක් (wideband signal) පටු පරාස සංඥා (narrowband signals) රැසක් බවට පත් වූවා. එහිදී එක් එක් සංඥා එකිනෙකට මිශ්‍රවීම වැලැක්වීමට එකවරම පෙනෙන උපක්‍රමයක් තිබුණා. FDM වලදී එම උපක්‍රමය වූයේ ඒ ඒ සංඥා ගමන් කරන සංඛ්‍යාතයන් වෙනස් කිරීමයි. TDM වලදී එම උපක්‍රමය වූයේ ඒ ඒ සංඥා ගමන් කරන ටයිම් ස්ලොට් වෙනස් කිරීමයි.

එහෙත් CDM හි එකවර මෙම ලක්ෂණ දෙකම පෙනෙන්නට නැත. CDM හිදි සම්ප්‍රේෂණ මාධ්‍යයේ අධිවේගී පුලුල් සංඛ්‍යාත පරාසය සංඛ්‍යාත අනුව හෝ කාලය අනුව හෝ බෙදා වෙන් නොකර, සමස්ථ පරාසයම එකවර අඩුවේගී සංඥා කිහිපය විසින් යොදා ගන්නවා. එකවර පෙනෙන උපක්‍රමයකුත් නැහැ ඒ එක් එක් සංඥා එකිනෙකට මිශ්‍රවීම වැලැක්වීමට. පිට සිට බලන විට එය පෙනෙන්නේ කිසිම පිලිවෙලක් නැති “ගාලගෝට්ටියක්” වගේ. එහෙත් එතැන ඇසට එකවර නොපෙනෙන එහෙත් ගණිතයට මැනවින් පෙනෙන උපක්‍රමයක් යොදා තිබෙනවා එම සංඥා මිශ්‍රවීම (ගාලගෝට්ටිය) වැලැක්වීමට. එයයි මැජික් එක. එනිසා තරමක් ගණිතය මුල් කරගෙනයි මේ ගැන නිවැරදි අවබෝධයක් ලබා ගත හැක්කේ. මොහොතකින් මෙය වටහා ගැනීමට අවශ්‍ය සරල ගණිත සංකල්ප ගැන ඉගෙන ගමු. බොහෝ පතපොත කියවීමේදී මෙම ගණිත වචන හමුවන බැවින් ඒ ගැන සරල හෝ දැනුමක් තිබීම වටිනවා.

CDM යනු ඩිජිටල් ක්‍රමයක්නෙ. ඒ කියන්නේ 1 හා 0 සහිත ඩිජිටල් සංඥා මිස ඇනලොග් සංඥා නැත (ඇනලොග් සංඥා නම් තිබෙන්නේ එවා පළමුව PCM කර ගත යුතුයි). යම් ඩිජිටල් සංඥාවක් දැන් සම්ප්‍රේෂනය කිරීමට ඇතැයි සිතන්න. පළමුව මෙම සංඥාවට (එනම් එම සංඥාවේ බිට්වලට) යම් “හඳුනාගැනීමේ හැකියාවක්/ටැග් එකක්/කෝඩ් එකක්” එල්ලනවා. ඉන්පසු එම “කෝඩ් කරපු (ටැග් කරපු)” බිට් ගොන්න විශාල සංඛ්‍යාත පරාසයක් (බෑන්ඩ්විත්) එකක් යොදා ගෙන විසුරුවා හරිනවා.

මෙලෙසම තවත් වෙනස් සංඥාවක්ද ඉහත ආකාරයෙන්ම කෝඩ් කර ඉස්සෙල්ල විසුරුවා හැරපු සංඛ්‍යාත පරාසය තුලම විසුරුවා හැරිය හැකියි. මේ ආකාරයට වෙනස් වෙනස් සංඥා රාශියක් වෙන වෙනම කෝඩ් කර එකම සංඛ්‍යාත පරාසය තුල විසුරුවා හැරිය හැකියි. කෝඩ් කරන විට, එකිනෙකාට ලැබෙන කෝඩ් එක වෙනස්ය (එය හරියට එක එක පුද්ගලයාට ලැබෙන හැඳුනුම්පත වගේ). එනිසා, එකිනෙකට වෙනස් සංඥා රාශියක්ම එකම සංඛ්‍යාත පරාසයේ එක ගොඩට කලවම්ව පවතින නිසා, එය පිටත සිට යම් උපකරණයකින් බලන කෙනෙකුට පෙනෙන්නේ ඝෝෂාවක් ලෙසය. එය සාමාන්‍ය පසුබිම් ඝෝෂාවක් වැනිමය.

මේ විශ්වයේ සෑම තැනකම ඉතා කුඩා මට්ටමින් හෝ සෑම සංඛ්‍යාත පරාසයකටම අයත් රේඩියෝ තරංග විවිධාකාරයේ භෞතික සංසිද්ධින් නිසා ජනින වී පැතිරී ඇති අතර, එය පසුබිම ඝෝෂාව (background noise) ලෙස හැඳින්වෙනවා. සමහරවිට ඔබ අසා ඇති තාරකා හා භෞතික විද්‍යාවේදි cosmic microwave background radiation යනුවෙන් වචනයක්; එයත් තාරකා/භෞතික විද්‍යා අධ්‍යනවලදී ඉතා වැදගත් වන මයික්‍රොවේව් සංඛ්‍යාත කලාපයේ තිබෙන පසුබිම් ඝෝෂාවකි. එනිසා CDM ක්‍රමයෙන් පෙනෙන ඝෝෂාව හා විවිධ හේතු නිසා ඇත්තටම පසුබිමේ පවතින ඝෝෂා දෙකම එකට ගෙන මෙතැන් සිට පසුබිම් ඝෝෂාව කියා හඳුන්වමු (නමුත් වැඩි පංගුව CDM ඝෝෂාව වේ).

සාමාන්‍යයෙන් මෙලෙස විසුරුවා හරිනු ලබන එක් එක් සංඥාවේ ජවය (power) කුඩාය. එය පසුබිම් ඝෝෂා ජවයටත් වඩා අඩු වියද හැකිය (ඒ කියන්නේ SNR අගය ඉතාම ඉතා කුඩා හෝ ඍණ අගයක්ද විය හැකියි). සාමාන්‍ය ක්‍රමයෙන් රේඩියෝ සංඥා එලෙස පසුබිම් ඝෝෂා ජවයට වඩා අඩුවෙන් ඇති විට, කිසිසේත් එම සංඥා ග්‍රහණය කර බුද්ධි සංඥා උකහ ගැනීමට බැරිය. එහෙත් CDM ක්‍රමයේදී එය කළ හැකියි. ඊට හේතුව යවපු දත්ත බිට් සියල්ලම කෝඩ් කරලයි තිබෙන්නේ. ඉතිං රිසීවරයට හැකියි ඝෝෂාව තුල සැඟව තිබෙන එම සංඥාව කෝඩ් එකෙන් හඳුනාගෙන එය ඝෝෂාවෙන් වෙන් කර ගන්නට. මුලදී ගත් උපමාව නැවත මතක් කළොත්, එය හරියට ඉතා ඝෝෂාකාරි පරිසරයකදී ඔබ තවෙකෙක් කියන දේ තේරුම් ගන්නවා වාගේය. මෙම වෙන්කර හඳුනාගැනීම සිදු කරන්නේ (ඔටෝ) කොරිලේෂන් නම් පසුව සලකා බලන ක්‍රමයෙන්.

රිසීවරය සතුවත් තිබෙනවා යම් සංඥාවක බිට් ටික කෝඩ් කරපු කෝඩ් එක. ඉතිං, එම කෝඩ් එකෙන් හැකියි සැඟව තිබෙන සංඥාව හඳුනා ගන්නට. එක් එක් සංඥාව කෝඩ් කළේ වෙනස් වෙනස් කෝඩ්වලින්නෙ. ඒ කියන්නේ රිසීවරය සතුව එම කෝඩ්ද තිබෙනවා නම්, අනෙක් සංඥාද උකහා ගත හැකියි. ඉතිං, මෙලෙස එකම ගාලගෝට්ටියක් සේ හෙවත් ඝෝෂාවක් සේ තිබූ සංඥා එකින් එක වෙන් කර ගත හැකියි. මෙලෙස යම් කෝඩ් එකක් යොදා ගෙන වෙනස් වෙනස් සංඥා යැවීම හා ග්‍රහණය කර ගත හැකි ක්‍රමයක් නිසා තමයි මෙම ක්‍රමය code division multiplexing ලෙස නම් කෙරෙන්නේ.

තවමත් ඉහත ක්‍රියාවලිය සමහරෙකුට මැජික් වගේ පෙනෙනු ඇති. කොහොමද ඝෝෂාවක් තුල සැඟව තිබෙන සංඥාවක් වරදින්නේ නැතිව එලියට ඇදල ගන්නේ? කෝඩ් එකක් උපයෝගි කරගෙන එය සිදු කරන බව පැවසුවත්, විදුලිමය වශයෙන් කෝඩ් එකට එම හැකියාව ලැබුණේ කෙසේද? කොරිලේෂන් සංකල්ප ගැන තවම අවබෝධයක් නැති අයට ඊට හේතුවත් සරලව මෙසේද පැහැදිලි කළ හැකියි.

CDM නොවන ක්‍රමවලදී යම් සංඥාවක් විසුරුවා හරින්නේ පටු සංඛ්‍යාත පරාසයකින්නෙ (එම සංඥාව සඳහා අවශ්‍ය අවම බෑන්ඩ්විත් එකකුයි අප නිතරම භාවිතා කරන්නේ මොකද රේඩියෝ සංඛ්‍යාත යනු ඉතාම සීමිත සම්පතක් බැවින් හැකි තරම් අවමයෙන් සංඛ්‍යාත පරාස භාවිතා කිරීමට රීති රෙගුලාසිවලින්ද බල කෙරෙන නිසා). මෙවිට, එම සංඛ්‍යාත පරාසයේම ජනිතවන යම් කිසි ඝෝෂාවක් නිසා, එම පටු සංඛ්‍යාත පරාසය සම්පූර්ණයෙන්ම යටපත් කර දැමිය හැකියි. එහෙත් එම සංඥාවේම කොපි සිය ගණනක් පුලුල් සංඛ්‍යාත පරාසයක් පුරාම විහිදී තිබුණා නම් තත්වය මීට වෙනස් වෙනවා නේද? එවිට, ඉහත ඝෝෂාවෙන් විනාශ කර දමන්නේ කොපිවලින් කිහිපයකි. කොපි 100කින් 99ක්ම විනාශ වුවත්, ඉතිරි තනි කොපියෙන් අපට අවශ්‍ය සංඥාව ලබා ගත හැකියි නේද? අපි එදිනෙදා ජීවිතයෙත් මෙම සංකල්පය යොදා ගන්නවානේ. ඔබේ යම් ලියවිල්ලක කොපි කිහිපයක්ම තබා ගන්නවා නේද වෙන වෙන තැන්වල? එවිට එක තැනක යම් විනාශයක් සිදු වුවත්, තවත් තැනක තබා ඇති කොපිය තිබෙනවානෙ.

ඉතිං, දත්ත බිට් ටික කෝඩ් කරනවා කියන්නෙත් යම් කිසි රටාවකට/රීතියකට එම දත්ත බිට්වල කොපි සාදා ගන්නා එක තමයි. කොපි 100ක් සාදනවා නම්, ඒ කියන්නේ සාමාන්‍යයෙන් එම සංඥාව සඳහා අවශ්‍ය සංඛ්‍යාත පරාසය වගේ 100 ගුණයක් පුලුල් සංඛ්‍යාත පරාසයක් අවශ්‍ය කරනවා කියන එකයි. එනිසානෙ CDM මඟින් පටු පරාස සංඥා පුලුල් පරාසයක් ඔස්සේ සම්ප්‍රේෂණය කරනවා යැයි පුනපුනා පැවසුවේ.

කෝඩ් කරන විට යම් රීතියක්/රටාවක් අනුගමනය කරන නිසා අපට හැකියි එකම පුලුල් පරාසය තුල සංඥා කිහිපයක්ම එකට යැවීමටත් (මේ ගැන හරියටම දැන ගැනීමට නම් ඉහත ගණිත සංකල්ප ඉගෙනීමට සිදු වෙනවා). එනිසා, යම් සංඥාවක් සඳහා සිය ගණන් වැඩිපුර සංඛ්‍යාත පරාසයක් වැය කිරීම විශාල නාස්තියක් ලෙස ඔබට සිතුනේ නම්, එම සිතුවිල්ල සපුරා සාවද්‍ය වේ මොකද සංඥා සිය ගණනක් එම පුලුල් සංඛ්‍යාත පරාසයේ සම්ප්‍රේෂණය කළ හැකිය.

Autocorrelation

correlation, autocorrelation, convolution, cross-correlation (හා variance, covariance) ආදී ලෙස එකිනෙකට සම්බන්ද ගණිත සංකල්ප රාශියක් ඇත. මේ සෑම වචනයකින්ම හඳුන්වන්නේ දෙන ලද යම් විචල්‍ය (එනම්, ඩේටා සෙට්) දෙකක් අතර තිබෙන පොදුබව/සමානබව සෙවීමයි. සාමාන්‍ය ජීවිතයේදී අපි මෙය නිතරම කරනවා. උදාහරණයක් ලෙස, ළමයෙකු ඉපදුනාම, ඒ ළමයාගේ නහය තාත්තගෙ වගේ, කන අම්මගෙ වගේ ආදී ලෙස කියනවා ඔබට ඕන තරම් ඇසී ඇති. එහිදී ළමයාගේ අවයවයක් හා දෙමාපියෙකුගේ අවයවයක් අතර පොදු/සමාන බව නේද සෙව්වේ?

අවශ්‍ය නම්, ඉහත සෑම වචනයක් ගැනම තරමක් ගැඹුරින් අධ්‍යනය කරන්න. ඇත්තටම, කොරිලේෂන් යන්න cross-correlation හා autocorrelation යන දෙකටම කියන පොදු නමයි. එහෙමත් නැතිනම් මෙසේද එය පැවසිය හැකියි - ඔටෝකොරිලේෂන් යනු ක්‍රොස්කොරිලේෂන් හි විශේෂ අවස්ථාවකි. එනම්, ක්‍රොස්කොරිලේෂන්හිදි විචල්‍යයන් දෙකක සමානබව සොයන අතර, ඔටෝකොරිලේෂන්වලින් එකම විචල්‍යයේ අවස්ථා දෙකකදී ලැබෙන සමාන බව සොයනු ලැබේ.
Covariance
X, Y යන විචල්‍ය/දත්ත සෙට් දෙකක් අතර කෝවේරියන්ස් අගය පහත සරල සූත්‍රයෙන් සෙවිය හැකිය . මෙම සූත්‍රය (පසුව ඉගැන්වෙන අනෙක් සංකල්පත්) තනි තනි අගයන් සඳහා වූ සූත්‍රයයි (discrete variables). මෙහි, E(X) යනු X විචල්‍යයේ මධ්‍යන්‍ය අගය (mean value) හෙවත් අපේක්ෂිත අගය (expected value) වේ. එලෙසම E(Y) යනු Y හි අපේක්ෂිත අගයයි. සංඛේතාත්මකව කෝවේරියන්ස් යන්න cov(X,Y) ලෙස හෝ σ (ග්‍රීක අකුරක් වන සිම්පල් සිග්මා) ලෙස දැක්වේ.

ඉහත සූත්‍රය බැලූ විට කෝවේරියන්ස් මඟින් කුමක් නියෝජනය වේදැයි පෙනේ. යම් විචල්‍ය දෙකක් ගමු. විචල්‍යයකට දිය හැක්කේ එක් අගයක් පමණක් නොවෙයිනෙ. අගයන් රාශියක් වරින් වර ඊට ආදේශ වේ (විවිධ අගයන් ගන්නා නිසාමනේ ඊට විචල්‍ය කියා කියන්නෙත්). ඉතිං එලෙස අගය/දත්ත සෙට් එකක් ආදේශ කළ විට, අපට හැකියි එම අගය සියල්ලම නියෝජනය කරන පොදු/මධ්‍යන්‍ය/අපේක්ෂිත අගය සොයන්න. උදාහරණයක් ලෙස, X සඳහා, 20, 22, 16, 24, 18 යන අගයන් ලබා ගන්නේ නම්, එහි අපේක්ෂිත අගය හෙවත් E(X) යනු (20+22+16+24+18)/5 = 20 වේ.

ඉන්පසු කරන්නේ එක් එක් විචල්‍යයකට අයිති යම් මොහොතක තිබෙන අගයන් (ඉහත සූත්‍රයේ Xi , Yi ලෙස ඒවා සංඛේතවත් කෙරේ) ඒවායේ මධ්‍යම අගයෙන් අඩු කර ((Xi – E[X]) හා (Yi – E[Y])), එම වෙනසවල් දෙක එකිනෙකට ගුණ කිරීමයි ( (Xi – E[X])(Yi – E[Y]) ). ඉහත දත්ත සෙට් එකෙන්ම උදාහරණයක් ලෙස එය ගණනය කිරීම කරමු. ඉහත දත්ත සඳහා (Xi-E(X) ) යනු, (20 – 20), (22 – 20), (16 – 20), (24 – 20), (18 – 20) හෙවත් 0, 2, -4, 4, 2 වේ. එලෙසම Y විචල්‍ය සඳහාත් ගණනය කළ හැකියි එහි දත්ත සෙට් එක දී ඇති විට.

අවසාන වශයෙන් ඉහත සූත්‍රය කියන්නේ ඉහත ආකාරයට X,Y යන විචල්‍ය දෙකෙහි වෙනසවල් එකිනෙකට ගුණ කර, එහි මධ්‍යම අගය ගන්නා ලෙසයි. මෙම ගණනය කිරීම සඳහා (Y – E(Y)) සඳහා 1, 0, 3, -2, 2 ලැබී ඇතැයි සිතමු. එවිට, (X – E(X)).(Y – E(Y)) යනු 0x1, 2x0, -4x3, 4x-2, 2x2 හෙවත් 0, 0, -12, -8, 4 වේ. මෙම අගයන්හි මධ්‍යම අගය ඒ අනුව, (0+0+(-12)+(-8)+4)/5 = 3.2 වේ. 3.2 යනු කෝවේරියන්ස් අගයයි (එය ගණනය කරන ආකාරය පියවරෙන් පියවර සිදු කරන හැටියි අපි දැන් බැලුවේ).

කෝවේරියන්ස්වලින් අපට “ඇඟට දැනෙන” සංසිද්ධිය කුමක්ද? එහි ශ්‍රිත දෙකක් තිබෙන අතර, ඒ එක් එක් ශ්‍රිතය තුල වෙනස් විචල්‍ය දෙකක් (එනම් දත්ත සෙට් දෙකක්) තිබේ. එම විචල්‍ය දෙකෙහි තිබෙන අන්‍යොන්‍ය සම්බන්දතාවක් මෙමඟින් දැක්වේ. කෝවේරියන්ස් අගය ධන නම්, ඉන් කියවෙන්නේ එක් වේරියබල් එකක අගය වැඩි වෙන විට අනෙක් වේරියබල් එකේ අගයත් වැඩි වෙන බව (හා එක් වේරියබල් එකක අගය අඩු වන විට අනෙක් වේරියබල් අගයත් අඩු වෙන බව) වේ. ඒ කියන්නේ දෙකම එකට උඩ පහල යයි. එහෙත් කෝවේරියන්ස් අගය ඍණ නම්, ඉන් කියන්නේ එක් වේරියබල් එකකට විරුද්ධව අනෙක ක්‍රියාත්මක වන බවයි (එකක් වැඩි වන විට අනෙක අඩු වන බව). ඒ කියන්නේ කෝවේරියන්ස් මඟින් අපට එකවරම වේරියබල් දෙකක් එකිනෙකට ක්‍රියාත්මක වන්නේ කෙසේදැයි සොයා ගත හැකියි නේද?

තවද, ඉහත ගතිගුණය නිසා, කෝවේරියන්ස් මඟින් සංඥා දෙකක සමානකම බැලිය හැකියි. සංඥා දෙක සමාන වන්නට වන්නට එහි ධන විශාල අගයන් ලැබේ (යම් උපරිම අගයකට යටත්ව). සංඥා දෙක අසමාන වන්නට වන්නට විශාල ඍණ අගයන් ලැබේ (යම් අවම අගයකට යටත්ව).
Variance
මෙය කෝවේරියන්ස්වල විශේෂ අවස්ථාවකි. විචල්‍යයන් දෙකක් වෙනුවට එකම විචල්‍යයේ අවස්ථා දෙකක් මෙහිදී විචල්‍ය දෙක ලෙස යොදා ගැනේ. සංඛේතාත්මකව var(X) හෝ σ2 ලෙස දැක්වේ.

σ (X,X) = E[(X – E[X])(X – E[X])] = E[(X – E[X])2] = σ 2(X)

වේරියන්ස් යන්නත් කෝවේරියන්ස් විස්තර අනුවම තේරුම් ගත හැකියි. එහෙත් මෙහිදී එකිනෙකට වෙනස් විචල්‍යයන් දෙකක් වෙනුවට එකම විචල්‍යයි ගන්නේ. එකම විචල්‍යය ගත්තත්, එම විචල්‍යයේ අවස්ථා දෙකකුයි දැන් සංසන්දනය කරන්නේ. උදාහරණයක් වශයෙන් යම් රාශියක (විචල්‍යයක) දැන් තිබෙන අගය සැසඳිය හැකියි එම රාශියේම තත්පරයකට පෙර තිබුණු අගයක් සමඟ.
Cross-correlation
sliding dot product ලෙසත් sliding inner product ලෙසත් හැඳින්වෙන මෙයත් කෝවේරියන්ස් හි සුවිශේෂි අවස්ථාවකි. ඉහත කෝවේරියන්ස් (හා වේරියන්ස්) සඳහා ධන හෝ ඍණ ඕනෑම අගයක් ලැබිය හැකියි. එහෙත් ඕනෑම අගයක් ලැබෙනවා වෙනුවට, -1ත් +1ත් අතර සංඛ්‍යාවක් ලැබෙන පරිදි එය සකස් කළ හැකියි.

ඕනෑම ශ්‍රිතයක (function) මෙලෙස උපරිම අගය +1 හා අවම අගය -1 ලැබෙන පරිදි සකස් කිරීම normalization ලෙස ගණිතයේදී හැඳින්වේ. ඒ අනුව, ක්‍රොස්කොරිලේෂන් යනු කෝවේරියන්ස් නෝර්මලයිස් කළ විට ලැබෙන ආකාරයයි.

ඕනෑම ශ්‍රිතයක් නෝර්මලයිස් කරන්නේ එම ශ්‍රිතය ඉන් ලැබෙන වැඩිම/උපරිම අගයෙන් බෙදීමෙනි. උදාහරණයක් ලෙස සිතමු යම් කෝවේරියන්ස් අගයක් සඳහා ලැබිය හැකි උපරිම අගය 40 කියා. එම උපරිම අගය සොයා ගත හැකියි කෝවේරියන්ස් ගණනය කරන විට එහි විචල්‍යවලට ලබා ගත හැකි අගය පරාසය පිරික්සීමෙන් හා ඒ හා සම්බන්ද කොන්දේසිවලින්. එවිට, ඉහත කෝවේරියන්ස් කොටසෙහි තිබූ සූත්‍රය 40න්ද බෙදිය යුතුයි. ඉන් අදහස් වන්නේ කුමක්ද? යම් මොහොතක කෝවේරියන්ස් අගය එහි උපරිම අගය වන 40 ලබා ගත් විට, එම 40 නැවත 40න් බෙදෙනවා. එවිට අවසාන අගය +1 නේද? ඒ කියන්නේ උපරිම අගය +1යි. අනෙක් පැත්තට අවම අගයත් (එනම් ඍණ පැත්තෙන් උපරිම අගයත්) -1 වේවි. ඒ අනුව, ක්‍රොස්කොරිලේෂන් සඳහා වූ පොදු සූත්‍රය පහත ආකාරයට විය යුතුය. ක්‍රොස්කොරිලේෂන් හි සංඛේතය ρ (ග්‍රීක් හෝඩියේ සිම්පල් රෝ අකුර) වේ.


මෙහි ලවයේ (උඩ) තිබෙන්නේ කෝවේරියන්ස් සූත්‍රයමයි. එහෙත් එය σxσy වලින් බෙදා නෝර්මලයිස් කර තිබේ. මෙහි σx හා σy යනු x හි හා y හි දත්ත සෙට්වල සම්මත අපගමන (standard deviation) වේ.

සටහන
සංඛ්‍යානය (statistics) යන විෂයේදී මෙම සටහනේ විස්තර කෙරෙන සංකල්ප ඉගැන්වේ (කැමති නම් ඒ ගැන තවත් සොයා බලන්න). මෙම සටහන ඉතා කෙටියෙන් අපට අවශ්‍ය සංඛ්‍යාන සංකල්ප කිහිපයක් ගැන ඉතාම සරලව විස්තර කරනවා.

ඔබ දන්නවා යම් දත්ත සමූහයක මධ්‍ය හෙවත් මධ්‍යන්‍ය අගය (mean) යනු එම දත්ත සමූහයම නිරූපණය කරන තනි අගයකි. උදාහරණයක් ලෙස, පංතියක ළමුන් ඉංග්‍රිසි විෂයට ලබා ගත් ලකුණු විවිධය. එක එක්කෙනා විවිධ ලකුණු ප්‍රමාණයන්නෙ ලබා ගන්නේ. එහෙත් අපට හැකියි එම ළමුන් සමූහයම සඳහා එක් අගයක් ඉදිරිපත් කරන්නට – එය තමයි මධ්‍යන්‍ය අගය කියන්නේ. මධ්‍යන්‍ය අගය ලබා ගන්නේ සෑම කෙනෙකුම ලබා ගත් ලකුණු සමූහය එකතු කර, එම එකතුව ළමුන් ගණනින් බෙදීමෙන්ය. ඉහත පැහැදිලි කිරීම්වල අපේක්ෂිත අගය යනුද එයමයි.

ඉන්පසු අපට නැවත වැදගත් වෙනවා එක් එක් ළමයා එම මධ්‍ය අගයෙන් කොතරම් ප්‍රමාණයක් වෙනස්ද (අඩු හෝ වැඩි බව) යන්න දැන ගැනීමට. උදාහරණයක් ලෙස, පංතියේ ඉංග්‍රිසි විෂය සඳහා ලබා ගත් ලකුණුවල මධ්‍ය අගය 50 නම්, යම් ශිෂ්‍යයෙකු ලකුණු 57ක් ලබා ඇති විට, ඔහු මධ්‍ය අගයේ සිට 7ක් (ධන පැත්තට) ඈතින් සිටී හෙවත් 7කින් අපගමනය වී ඇත. එලෙසම තවත් ළමයෙකු ලකුණු 42ක් ලබා ඇති විට, ඔහුගේ අපගමනය (47 – 50 =) -3 කි.

සම්මත අපගමනය යනු අපගමනය පෙන්වන එක් සම්මත මිම්මකි. එහෙත් මෙහිදී තනි දත්තයක අපගමනය නොවේ සලකන්නේ (ඉහත පැහැදිලි කිරීමේදී එක් එක් ළමයාගේ අපගමනය ගැනනෙ කතා කළේ). ඒ වෙනුවට, එම දත්ත සෙට් එකෙහි එක් එක් දත්තයක අපගමනයන් සියල්ල කැටි කොට දැක්වීමයි සිදු කරන්නේ. එනම් අපගමනයන්ගේ මධ්‍යන්‍ය අගයක් සෙවීමයි මෙහිදී සිදු වෙන්නේ.

ඇත්තටම ඉහතදී කතා කළ වේරියන්ස් යනුද එවැනි අපගමනයන් දැක්විය හැකි එක්තරා ක්‍රමයකි. මා පහත නැවත වේරියන්ස් සොයන සූත්‍රය ලියා දක්වන්නම් මොකද සම්මත අපගමනය සොයන්නේ එය ඇසුරිනි. බලන්න ( ) යන වරහන තුල X – E[X] ලෙස තිබෙන්නේ එක් දත්තයක අපගමනයයි. එහෙත් මෙහිදී එම අපගමනය වර්ග කර තිබේ. එලෙස වර්ග කර ගත් අපගමන අගයන් සියල්ලේම මධ්‍යන්‍ය අගය සොයන්න කියා තමයි E[ ] යන්නෙන් සංඛේතවත් කරන්නේ.

E[(X – E[X])2] = σ 2(X)

ඉහත ලබා ගත් වේරියන්ස් අගයේ වර්ගමූලය ලබා ගත් විට අපට ලැබෙන්නේ සම්මත අපගමනය තමයි. එනිසා එය σ වලින් හෝ s වලින් සංඛේතවත් කෙරේ (කෝවේරියන්ස්ද σ වලින් සංඛේතවත් වන බවත්, එය සම්මත අපගමනයට වෙනස් බවත් නමුත් අන්‍ය ආකාරයකින් යම් සමාන කමක් තිබෙන බවද මතක තබා ගන්න). අපගමනය දැක්වීමට වේරියන්ස් අගයට වඩා වැඩිපුරම භාවිතා වන්නේ සම්මත අපගමනයයි.
සම්මත අපගමනය = s = (σ 2(X)) = σ

ක්‍රොස්කොරිලේෂන්වලින් යම් විචල්‍ය දෙකක සමානකම මැනිය හැකිය. සංඥා සමඟ යොදා ගන්නා විට, විචල්‍ය වන්නේ සංඥාවල එක් එක් නිමේෂයන්වල අගයන්ය. විචල්‍ය දෙක සමාන නම්, +1 උපරිම අගය ලෙස පවතින ධන අගයන් ලැබේවි. අසමානතාව වැඩි වන්නට වන්නට උපරිමව -1 වන ලෙස ඍණ අගයන් ලැබේවි.
Convolution
මෙයත් ක්‍රොස්කොරිලේෂන් වැනිමය; නමුත් ඊට යම් වෙනස්කම සිදු කර ඇත. මෙහි සූත්‍රය බැලූ විට එම වෙනස්කම පැහැදිලි වේවි.


දී තිබෙන ශ්‍රිත දෙකෙහි එක් ශ්‍රිතයකට ආදේශ කරන දත්ත පද්ධතියේ සලකුණ මාරු කළ යුතුය. ඉහත සූත්‍රයේ (පළමු හෝ දෙවැනි) එය -m ලෙස දක්වා තිබේ (එක් ශ්‍රිතයක සුපුරුදු ලෙසම m ලෙස තිබෙන අතරේ අනෙකහි එය ඍණ සලකුන සහිතව තිබේ).

සටහන
ඉහත සූත්‍රය තුල වැඩිපුර t නම් පදයක් ඇත. එය නැතිවත් ඉහත සූත්‍රය ලිවිය හැකිය. මෙහි t යනු පරාමිතියකි (parameter). එමඟින් එම කොන්වල්‍යුෂන් ශ්‍රිතයට ගතික බවක් ලබා දේ. උදාහරණයක් ලෙස f(m), g(m) යනු සංඥා නම් හා t යනු කාලය හඟවන පදයක් නම්, එම t පදයට අපට කැමති අගයන් ලබා දීමෙන් අප කරන්නේ t සහිත ශ්‍රිතය කාලය ඔස්සේ ඉස්සරහට පස්සට ගෙන යෑමයි (හරියට හඬ පටයක් අපට කැමති කැමති තැනකට රිවයින්ඩ් හා ෆාස්ට් ෆෝර්වර්ඩ් කරනවා වාගේ).

මෙම පරාමිතියේ වැදගත්කම දැන් ඔබට වැටහිය යුතුය. තවත් උදාහරණයකින් එය වඩාත් පැහැදිලි කර ගමු. යම් ස්ථාවර සංඥාවක් තවත් සංඥාවක් සමග සසඳනවා යැයි සිතමු. ඉතිං ස්ථාවර සංඥාව තිබෙන විදියට දිගටම නිසලව තිබෙනවා සේ සැලකිය යුතුයිනෙ. එවිට දෙවැනි සංඥාව නිසල සංඥාව සමඟ සැසඳීම කරන්නට නම්, දෙවැනි සංඥාව පළමු සංඥාවට සාපේක්ෂව වමට දකුණට ගෙන යා යුතුයිනෙ. වමට දකුණට ගෙන යෑම යනු t පරාමිතියට සුදුසු අගයන් දීමයි. පහත රූපයේ දැක්වෙන්නේ සම්පූර්ණ කොන්වල්‍යුෂන් ක්‍රියාවලියයි. එහි පෙනෙනවා මෙම t පරාමිතිය නිසා රතුපාටින් පෙන්වන ශ්‍රිතය ගතිකවන හෙවත් ගමන් කරන හැටි අනෙක් සංඥාවට සාපේක්ෂව.


කොන්වල්‍යුෂන් සඳහා පමණක් නොව, ඔටෝකොරිලේෂන් වැනි අනෙක් ශ්‍රිත සඳහාද එලෙස පරාමිතියක් ඇතුලු කළ හැකියි. එමඟින් සංඥා දෙකක් එකිනෙකට සැසඳිය හැකියි.

කොන්වල්‍යුෂන් ශ්‍රිතයෙන්ද අපට ලැබෙන්නේ යම් ශ්‍රිත (සංඥා) දෙකක් එකිනෙකට හැසිරෙන ආකාරයයි (පොදුබව පෙන්වීමකි).

ඉහත කරුණු කාරණා ගැන කෙටියෙන් හෝ සෛද්ධාන්තිකව සලකා බැලුවේ autocorrelation මාතෘකාවට පැමිණෙන්නටයි මොකද CDM හි යොදා ගන්නේ ඔටෝකොරිලේෂන් වේ. එහෙත් එක සංකල්පයකින් අනෙක් සංකල්ප සාදන දම්වැලක් සේ තිබෙන නිසයි ඉහත සංකල්ප කිහිපය ගැනම කතා කළේ. ඔටෝකොරිලේෂන් යනුද ක්‍රොස්කොරිලේෂන්වල විශේෂ අවස්ථාවකි (දැක්කද මෙම දම්වැල නොකඩවා පවතිනවා තාමත්). මෙහිදී ක්‍රොස්කොරිලේෂන්වල තිබූ විචල්‍ය දෙකක් වෙනුවට තනි විචල්‍යයකුයි තිබෙන්නේ. එහෙත් එම විචල්‍යයේ අවස්ථා දෙකක් තමයි සසඳන්නේ. සූත්‍රයක් ලෙස එය පහත ආකාරයට ලිවිය හැකිය.


ඉහත සූත්‍රයේ Xs යනු s යන මොහොතේදී සංඥා අගයයි. Xt යනු එම සංඥාවම t යන මොහොතේදී ලබා ගන්නා අගයයි. E[X]s යනු s යන මොහොතේ සලකා බලනු ලබන අවස්ථාවේදී සංඥාවේ මධ්‍යන්‍ය අගයයි. E[X]t යනු t යන මොහොතේදී සංඥාවේ මධ්‍යන්‍ය අගයයි. එලෙසම, s මොහොතේ සම්මත අපගමනය σs , t මොහොතේදී සම්මත අපගනය σt ද වේ.

ඉතිං එකම සංඥාව අවස්ථා දෙකකදී තිබෙන ස්වරූප දෙක එකිනෙකට සසඳා ඒ සංඥා දෙක අතර තවමත් කොතරම් සමානකමක් පවතීද යන්න බැලිය හැකියි. විචල්‍ය දෙක එකිනෙකට සමාන වන විට, ලැබෙන අගය ධන අගයකි. ඒ දෙක වෙනස් නම්, ධන අගය අඩු වී ඍණ අගයන් කරාද යා හැකිය. 100% ක් සංඥා දෙක ගැලපේ නම් +1 ලැබේවි. සංඥා දෙක අංශක 180කින් එකිනෙකාට විරුද්ධව පවතී නම් (මෙයත් එක්තරා විදියක සමාන බවක් වන අතර එය anticorrelation ලෙස හැඳින්වේ) -1 ලැබේවි. හැමවිටම +1 හා -1 අතර අගයන් ලැබෙන්නේ මෙය නෝර්මලයිස් කර තිබෙන නිසා බව මතකද?

Comments

Popular posts from this blog

දන්නා සිංහලෙන් ඉංග්‍රිසි ඉගෙන ගනිමු - පාඩම 1

දන්නා සිංහලෙන් ඉංග්‍රිසි ඉගෙන ගනිමු - අතිරේකය 1

දෛශික (vectors) - 1

මුදල් නොගෙවා සැටලයිට් ටීවී බලන හැටි - 7

සිංහලෙන් ක්වන්ටම් (Quantum in Sinhala) - 1

දැනගත යුතු ඉංග්‍රිසි වචන -1

මුදල් නොගෙවා සැටලයිට් ටීවී බලන හැටි - 1