Claude E. Shannon: Różnice pomiędzy wersjami
m (cleanup bibliografii i rotten links) |
m (Czyszczenie tekstu) |
||
Linia 15: | Linia 15: | ||
[[Image:C.E.Shannon.jpg|thumb|right|200px|Claude Elwood Shannon (1916-2001)]] | [[Image:C.E.Shannon.jpg|thumb|right|200px|Claude Elwood Shannon (1916-2001)]] | ||
== Ogólna charakterystyka == | ==Ogólna charakterystyka== | ||
Claude Elwood Shannon - urodził się 30 kwietnia 1916 r. w Gaylord w USA, zmarł 24 lutego 2001 r. w Medford w USA. Był amerykańskim inżynierem oraz matematykiem, profesorem MIT, znanym jako "ojciec teorii informacji". Uznano go za jednego z największych uczonych XX w. | |||
Claude Elwood Shannon- urodził się 30 kwietnia 1916 r. w Gaylord w USA, zmarł 24 lutego 2001 r. w Medford w USA. Był amerykańskim inżynierem oraz matematykiem, profesorem MIT, znanym jako "ojciec teorii informacji". Uznano go za jednego z największych uczonych XX w. | |||
==Biografia== | |||
Shannon w 1936 r. uzyskał dwa dyplomy: w dziedzinie matematyki i inżynierii elektrycznej w University of Michigan. W swojej pracy magistersiej z inżynierii elektrycznej zaadaptował elementy algebry logicznej G. Boola do problemu elektrycznego przełączania, to właśnie od tego momentu kod binarny stał się "systemem nerwowym" każdego komputera. W 1940 roku Shannon obronił doktorat w Massachusetts Institute of Technology; a od roku 1958 był tam profesorem. W latach 1936-40 pracował w MIT, gdzie współuczestniczył przy budowie mechanicznego analizatora dyferencjałów, który był wczesnym typem komputera, opracowanego przez Vannevera Busha, w latach 1941-1972 był pracownikiem w Laboratoriach Bella, gdzie sformułował teorię wyjaśniającą przekazywania informacji i pracował nad problemem najskuteczniejszego ich przekazywania. Punktem kulminacyjnym matematycznych i technicznych badań Shannona było dzieło "A Mathematical Theory of Communication" opublikowane w 1948 r. | Shannon w 1936 r. uzyskał dwa dyplomy: w dziedzinie matematyki i inżynierii elektrycznej w University of Michigan. W swojej pracy magistersiej z inżynierii elektrycznej zaadaptował elementy algebry logicznej G. Boola do problemu elektrycznego przełączania, to właśnie od tego momentu kod binarny stał się "systemem nerwowym" każdego komputera. W 1940 roku Shannon obronił doktorat w Massachusetts Institute of Technology; a od roku 1958 był tam profesorem. W latach 1936-40 pracował w MIT, gdzie współuczestniczył przy budowie mechanicznego analizatora dyferencjałów, który był wczesnym typem komputera, opracowanego przez Vannevera Busha, w latach 1941-1972 był pracownikiem w Laboratoriach Bella, gdzie sformułował teorię wyjaśniającą przekazywania informacji i pracował nad problemem najskuteczniejszego ich przekazywania. Punktem kulminacyjnym matematycznych i technicznych badań Shannona było dzieło "A Mathematical Theory of Communication" opublikowane w 1948 r. | ||
<google>ban728t</google> | <google>ban728t</google> | ||
==Osiągniecia naukowe== | ==Osiągniecia naukowe== | ||
Jednym z najważniejszych elementów teorii komunikacji Shannona była koncepcja entropii, którą pokazał w ramach teorii informacji. [[Definicja]] informacyjna była pierwotnie próbą ujęcia tradycyjnego pojęcia entropii znanego z termodynamiki w kategoriach teorii informacji. Pojęcie entropii jest bardzo przydatne na przykład w dziedzinie kompresji danych. [[Metoda]] Shannona może mieć zastosowanie nie tylko do projektowania komputerowego, ale także do dużej grupy dziedzin, w których język i [[komunikacja]] odgrywają znaczną rolę np. lingwistyce, psychologii, kryptografii i fonetyce. | Jednym z najważniejszych elementów teorii komunikacji Shannona była koncepcja entropii, którą pokazał w ramach teorii informacji. [[Definicja]] informacyjna była pierwotnie próbą ujęcia tradycyjnego pojęcia entropii znanego z termodynamiki w kategoriach teorii informacji. Pojęcie entropii jest bardzo przydatne na przykład w dziedzinie kompresji danych. [[Metoda]] Shannona może mieć zastosowanie nie tylko do projektowania komputerowego, ale także do dużej grupy dziedzin, w których język i [[komunikacja]] odgrywają znaczną rolę np. lingwistyce, psychologii, kryptografii i fonetyce. | ||
Linia 31: | Linia 28: | ||
==Ciekawostki== | ==Ciekawostki== | ||
Shannon wraz z żoną Betty oraz Edem Thorpem - matematykiem z MIT mieli także w zwyczaju wyjazdy do Las Vegas, gdzie przy użyciu teorii gier, opartej na podstawach teorii informacji, opracowanej przy współudziale współpracownika Shannona z Laboratoriów Bella, skutecznie wygrywali w blackjack. Podobno zarobili na tym fortunę, co opisali w książce "Fortune's Formula" William Poundstone i Elwyn Berlekamp. | |||
Shannon wraz z żoną Betty oraz Edem Thorpem- matematykiem z MIT mieli także w zwyczaju wyjazdy do Las Vegas, gdzie przy użyciu teorii gier, opartej na podstawach teorii informacji, opracowanej przy współudziale współpracownika Shannona z Laboratoriów Bella, skutecznie wygrywali w blackjack. Podobno zarobili na tym fortunę, co opisali w książce "Fortune's Formula" William Poundstone i Elwyn Berlekamp. | |||
==Nagrody i wyróżnienia== | ==Nagrody i wyróżnienia== | ||
Shannon za swoją pracę otrzymał bardzo wiele wyróżnień. Wśród najważniejszych znajdują się: [[Nagroda]] Nobla z 1939 roku; National Medal of Science z 1966 roku, wręczona przez prezydenta Lyndona B. Johnsona; Audio Engineering Society Gold Medal z 1985 roku i Kyoto Prize z 1985 roku. Shannon otrzymał także tytuł doktora honoris causa takich uczelni jak: Princeton University, University of Oxford, University of Pittsburgh czy Carnegie Mellon University. | Shannon za swoją pracę otrzymał bardzo wiele wyróżnień. Wśród najważniejszych znajdują się: [[Nagroda]] Nobla z 1939 roku; National Medal of Science z 1966 roku, wręczona przez prezydenta Lyndona B. Johnsona; Audio Engineering Society Gold Medal z 1985 roku i Kyoto Prize z 1985 roku. Shannon otrzymał także tytuł doktora honoris causa takich uczelni jak: Princeton University, University of Oxford, University of Pittsburgh czy Carnegie Mellon University. | ||
Wersja z 11:04, 2 lis 2023
Claude E. Shannon |
---|
Polecane artykuły |
Ogólna charakterystyka
Claude Elwood Shannon - urodził się 30 kwietnia 1916 r. w Gaylord w USA, zmarł 24 lutego 2001 r. w Medford w USA. Był amerykańskim inżynierem oraz matematykiem, profesorem MIT, znanym jako "ojciec teorii informacji". Uznano go za jednego z największych uczonych XX w.
Biografia
Shannon w 1936 r. uzyskał dwa dyplomy: w dziedzinie matematyki i inżynierii elektrycznej w University of Michigan. W swojej pracy magistersiej z inżynierii elektrycznej zaadaptował elementy algebry logicznej G. Boola do problemu elektrycznego przełączania, to właśnie od tego momentu kod binarny stał się "systemem nerwowym" każdego komputera. W 1940 roku Shannon obronił doktorat w Massachusetts Institute of Technology; a od roku 1958 był tam profesorem. W latach 1936-40 pracował w MIT, gdzie współuczestniczył przy budowie mechanicznego analizatora dyferencjałów, który był wczesnym typem komputera, opracowanego przez Vannevera Busha, w latach 1941-1972 był pracownikiem w Laboratoriach Bella, gdzie sformułował teorię wyjaśniającą przekazywania informacji i pracował nad problemem najskuteczniejszego ich przekazywania. Punktem kulminacyjnym matematycznych i technicznych badań Shannona było dzieło "A Mathematical Theory of Communication" opublikowane w 1948 r.
Osiągniecia naukowe
Jednym z najważniejszych elementów teorii komunikacji Shannona była koncepcja entropii, którą pokazał w ramach teorii informacji. Definicja informacyjna była pierwotnie próbą ujęcia tradycyjnego pojęcia entropii znanego z termodynamiki w kategoriach teorii informacji. Pojęcie entropii jest bardzo przydatne na przykład w dziedzinie kompresji danych. Metoda Shannona może mieć zastosowanie nie tylko do projektowania komputerowego, ale także do dużej grupy dziedzin, w których język i komunikacja odgrywają znaczną rolę np. lingwistyce, psychologii, kryptografii i fonetyce.
W późniejszej pracy Shannon skupił się na badaniach w dziedzinie sztucznej inteligencji. Opracował komputerowy program do gry w szachy oraz projekt elektronicznej myszy, która ucząc się na własnych błędach miała odnaleźć drogę do celu w labiryncie. Był to jeden z pierwszych eksperymentów w dziedzinie sztucznej inteligencji na świecie. Natomiast przełomowy dokument na temat szachów komputerowych "Programming a Computer for Playing Chess", został opublikowany w 1950 roku.
Ciekawostki
Shannon wraz z żoną Betty oraz Edem Thorpem - matematykiem z MIT mieli także w zwyczaju wyjazdy do Las Vegas, gdzie przy użyciu teorii gier, opartej na podstawach teorii informacji, opracowanej przy współudziale współpracownika Shannona z Laboratoriów Bella, skutecznie wygrywali w blackjack. Podobno zarobili na tym fortunę, co opisali w książce "Fortune's Formula" William Poundstone i Elwyn Berlekamp.
Nagrody i wyróżnienia
Shannon za swoją pracę otrzymał bardzo wiele wyróżnień. Wśród najważniejszych znajdują się: Nagroda Nobla z 1939 roku; National Medal of Science z 1966 roku, wręczona przez prezydenta Lyndona B. Johnsona; Audio Engineering Society Gold Medal z 1985 roku i Kyoto Prize z 1985 roku. Shannon otrzymał także tytuł doktora honoris causa takich uczelni jak: Princeton University, University of Oxford, University of Pittsburgh czy Carnegie Mellon University.
Bibliografia
- Johnson G., Claude Shannon, Mathematician, Dies at 84, "New York Times" 27 February 2001, New York 2001
- Kahn D., The Codebreakers, Simon and Schuster, New York 1996
- Slepian D., Key papers in the development of information theory, Institute of Electrical and Electronics Engineers Inc., New York 1974
Autor: Gabriela Wawrzak