Informacijos teorija: Skirtumas tarp puslapio versijų

Straipsnis iš Vikipedijos, laisvosios enciklopedijos.
Ištrintas turinys Pridėtas turinys
Andrius.v (aptarimas | indėlis)
Andrius.v (aptarimas | indėlis)
Nėra keitimo santraukos
Eilutė 35: Eilutė 35:
{{stub}}
{{stub}}


[[Kategorija:Informacijos teorija]]
[[Kategorija:Informacijos teorija| ]]


[[en:Information_theory]]
[[en:Information_theory]]

21:43, 6 sausio 2007 versija

Informacijos teorija - tai mokslas, kuris nagrinėja informacijos kiekio matavimo, gavimo, keitimo, kaupimo, vaizdavimo, perdavimo įvertinimą ir metodinius aprašus. Informacija yra diskrečiosios matematikos dalis. Informacijos kiekio matas - informacijos entropija. Informacijos terija galaudžiai siejasi su matematika, statistika, kompiuterių mokslu, informatika, fizika, elektronikos inžinerija ir kt.

Istorija

Informacijos teorijos kaip mokslo šakos pradininku laikomas JAV matematikas Klaudas Šenonas (Claude Elwood Shannon), kai 1948 metais pasirodė jo veikalas "Matematinė komunikacijos teorija". Nors pačios informacijos teorijos idėjas jau anksčiau nagrinėjo Haris Naikvistas ir Ralfas Hartlis.

Kryptys

Pagrindinės informacijos teorijos kryptys:

Uždaviniai

Vieni pagrindinių informacijos teorijos uždavinių yra:

  • Informacijos kiekio nustatymas.
  • Informacijos kokybės nustatymas.
  • Informacijos siuntimo efektyvumas.
  • Priimtos informacijos patikimumas.

Taikymas

Informacijos teorija taikoma kodavime (pavyzdžiui, vaizdo ir garso kompresijoje, kriptologijoje ir kitose srityse.

Taip pat žiūrėkite

Nuorodos