Informacijos teorija

Straipsnis iš Vikipedijos, laisvosios enciklopedijos.
Peršokti į: navigaciją, paiešką

Informacijos teorija – mokslas, kuris nagrinėja informacijos kiekio matavimo, gavimo, keitimo, kaupimo, vaizdavimo, perdavimo įvertinimą ir metodinius aprašus. Informacija yra diskrečiosios matematikos dalis. Informacijos kiekio matas – informacijos entropija.

Informacijos teorija glaudžiai siejasi su matematika, statistika, kompiuterių mokslu, informatika, fizika, elektronikos inžinerija ir kt.

Istorija[taisyti | redaguoti kodą]

Informacijos teorijos kaip mokslo šakos pradininku laikomas JAV matematikas Klaudas Šenonas (Claude Elwood Shannon), kai 1948 metais pasirodė jo veikalas „Matematinė komunikacijos teorija“. Nors pačios informacijos teorijos idėjas jau anksčiau nagrinėjo Haris Naikvistas ir Ralfas Hartlis.

Kryptys[taisyti | redaguoti kodą]

Pagrindinės informacijos teorijos kryptys:

Uždaviniai[taisyti | redaguoti kodą]

Vieni pagrindinių informacijos teorijos uždavinių yra:

  • Informacijos kiekio nustatymas.
  • Informacijos kokybės nustatymas.
  • Informacijos siuntimo efektyvumas.
  • Priimtos informacijos patikimumas.

Taikymas[taisyti | redaguoti kodą]

Informacijos teorija taikoma kodavime (pavyzdžiui, vaizdo ir garso kompresijoje), kriptografijoje ir kitose srityse.

Taip pat skaitykite[taisyti | redaguoti kodą]

Nuorodos[taisyti | redaguoti kodą]