Claude E. Shannon: Różnice pomiędzy wersjami
m (Infobox update) |
m (cleanup bibliografii i rotten links) |
||
(Nie pokazano 8 wersji utworzonych przez 2 użytkowników) | |||
Linia 1: | Linia 1: | ||
[[Image:C.E.Shannon.jpg|thumb|right|200px|Claude Elwood Shannon (1916-2001)]] | [[Image:C.E.Shannon.jpg|thumb|right|200px|Claude Elwood Shannon (1916-2001)]] | ||
== Ogólna charakterystyka == | ==Ogólna charakterystyka== | ||
Claude Elwood Shannon - urodził się 30 kwietnia 1916 r. w Gaylord w USA, zmarł 24 lutego 2001 r. w Medford w USA. Był amerykańskim inżynierem oraz matematykiem, profesorem MIT, znanym jako "ojciec teorii informacji". Uznano go za jednego z największych uczonych XX w. | |||
Claude Elwood Shannon- urodził się 30 kwietnia 1916 r. w Gaylord w USA, zmarł 24 lutego 2001 r. w Medford w USA. Był amerykańskim inżynierem oraz matematykiem, profesorem MIT, znanym jako "ojciec teorii informacji". Uznano go za jednego z największych uczonych XX w. | |||
==Biografia== | |||
Shannon w 1936 r. uzyskał dwa dyplomy: w dziedzinie matematyki i inżynierii elektrycznej w University of Michigan. W swojej pracy magistersiej z inżynierii elektrycznej zaadaptował elementy algebry logicznej G. Boola do problemu elektrycznego przełączania, to właśnie od tego momentu kod binarny stał się "systemem nerwowym" każdego komputera. W 1940 roku Shannon obronił doktorat w Massachusetts Institute of Technology; a od roku 1958 był tam profesorem. W latach 1936-40 pracował w MIT, gdzie współuczestniczył przy budowie mechanicznego analizatora dyferencjałów, który był wczesnym typem komputera, opracowanego przez Vannevera Busha, w latach 1941-1972 był pracownikiem w Laboratoriach Bella, gdzie sformułował teorię wyjaśniającą przekazywania informacji i pracował nad problemem najskuteczniejszego ich przekazywania. Punktem kulminacyjnym matematycznych i technicznych badań Shannona było dzieło "A Mathematical Theory of Communication" opublikowane w 1948 r. | Shannon w 1936 r. uzyskał dwa dyplomy: w dziedzinie matematyki i inżynierii elektrycznej w University of Michigan. W swojej pracy magistersiej z inżynierii elektrycznej zaadaptował elementy algebry logicznej G. Boola do problemu elektrycznego przełączania, to właśnie od tego momentu kod binarny stał się "systemem nerwowym" każdego komputera. W 1940 roku Shannon obronił doktorat w Massachusetts Institute of Technology; a od roku 1958 był tam profesorem. W latach 1936-40 pracował w MIT, gdzie współuczestniczył przy budowie mechanicznego analizatora dyferencjałów, który był wczesnym typem komputera, opracowanego przez Vannevera Busha, w latach 1941-1972 był pracownikiem w Laboratoriach Bella, gdzie sformułował teorię wyjaśniającą przekazywania informacji i pracował nad problemem najskuteczniejszego ich przekazywania. Punktem kulminacyjnym matematycznych i technicznych badań Shannona było dzieło "A Mathematical Theory of Communication" opublikowane w 1948 r. | ||
==Osiągniecia naukowe== | ==Osiągniecia naukowe== | ||
Jednym z najważniejszych elementów teorii komunikacji Shannona była koncepcja entropii, którą pokazał w ramach teorii informacji. [[Definicja]] informacyjna była pierwotnie próbą ujęcia tradycyjnego pojęcia entropii znanego z termodynamiki w kategoriach teorii informacji. Pojęcie entropii jest bardzo przydatne na przykład w dziedzinie kompresji danych. [[Metoda]] Shannona może mieć zastosowanie nie tylko do projektowania komputerowego, ale także do dużej grupy dziedzin, w których język i [[komunikacja]] odgrywają znaczną rolę np. lingwistyce, psychologii, kryptografii i fonetyce. | |||
W późniejszej pracy Shannon skupił się na badaniach w dziedzinie [[Sztuczna inteligencja|sztucznej inteligencji]]. Opracował komputerowy [[program]] do gry w szachy oraz [[projekt]] elektronicznej myszy, która ucząc się na własnych błędach miała odnaleźć drogę do celu w labiryncie. Był to jeden z pierwszych [[eksperyment]]ów w dziedzinie sztucznej inteligencji na świecie. Natomiast przełomowy [[dokument]] na temat szachów komputerowych "Programming a Computer for Playing Chess", został opublikowany w 1950 roku. | |||
<google>n</google> | |||
==Ciekawostki== | ==Ciekawostki== | ||
Shannon wraz z żoną Betty oraz Edem Thorpem - matematykiem z MIT mieli także w zwyczaju wyjazdy do Las Vegas, gdzie przy użyciu teorii gier, opartej na podstawach teorii informacji, opracowanej przy współudziale współpracownika Shannona z Laboratoriów Bella, skutecznie wygrywali w blackjack. Podobno zarobili na tym fortunę, co opisali w książce "Fortune's Formula" William Poundstone i Elwyn Berlekamp. | |||
Shannon wraz z żoną Betty oraz Edem Thorpem- matematykiem z MIT mieli także w zwyczaju wyjazdy do Las Vegas, gdzie przy użyciu teorii gier, opartej na podstawach teorii informacji, opracowanej przy współudziale współpracownika Shannona z Laboratoriów Bella, skutecznie wygrywali w blackjack. Podobno zarobili na tym fortunę, co opisali w książce "Fortune's Formula" William Poundstone i Elwyn Berlekamp. | |||
==Nagrody i wyróżnienia== | ==Nagrody i wyróżnienia== | ||
Shannon za swoją pracę otrzymał bardzo wiele wyróżnień. Wśród najważniejszych znajdują się: [[Nagroda]] Nobla z 1939 roku; National Medal of Science z 1966 roku, wręczona przez prezydenta Lyndona B. Johnsona; Audio Engineering Society Gold Medal z 1985 roku i Kyoto Prize z 1985 roku. Shannon otrzymał także tytuł doktora honoris causa takich uczelni jak: Princeton University, University of Oxford, University of Pittsburgh czy Carnegie Mellon University. | |||
{{infobox5|list1={{i5link|a=[[Marian Mazur]]}} — {{i5link|a=[[Bioinformatyka]]}} — {{i5link|a=[[Charles de Freminville]]}} — {{i5link|a=[[Informatyka]]}} — {{i5link|a=[[Charles Babbage]]}} — {{i5link|a=[[Cybernetyka]]}} — {{i5link|a=[[Burrhus Frederic Skinner]]}} — {{i5link|a=[[Alban William Phillips]]}} — {{i5link|a=[[Dekonstrukcja]]}} }} | |||
== Bibliografia == | ==Bibliografia== | ||
<noautolinks> | |||
* Johnson G., Claude Shannon, Mathematician, Dies at 84, | * Johnson G. (2001), ''Claude Shannon, Mathematician, Dies at 84'', New York Times 27 February | ||
* Kahn D., The Codebreakers, Simon and Schuster, New York | * Kahn D. (1996), ''The Codebreakers'', Simon and Schuster, New York | ||
* Slepian D. (1974), ''Key papers in the development of information theory'', Institute of Electrical and Electronics Engineers Inc, New York | |||
</noautolinks> | |||
{{a|Gabriela Wawrzak}} | {{a|Gabriela Wawrzak}} | ||
[[Kategoria: | [[Kategoria:Znani praktycy i badacze]] | ||
[[en:Claude E. Shannon]] | [[en:Claude E. Shannon]] | ||
{{#metamaster:description|Claude E. Shannon - amerykański matematyk i elektrotechnik, uznawany za ojca teorii informacji. Jego prace miały kluczowe znaczenie dla rozwoju informatyki i telekomunikacji.}} |
Aktualna wersja na dzień 17:38, 22 gru 2023
Ogólna charakterystyka
Claude Elwood Shannon - urodził się 30 kwietnia 1916 r. w Gaylord w USA, zmarł 24 lutego 2001 r. w Medford w USA. Był amerykańskim inżynierem oraz matematykiem, profesorem MIT, znanym jako "ojciec teorii informacji". Uznano go za jednego z największych uczonych XX w.
Biografia
Shannon w 1936 r. uzyskał dwa dyplomy: w dziedzinie matematyki i inżynierii elektrycznej w University of Michigan. W swojej pracy magistersiej z inżynierii elektrycznej zaadaptował elementy algebry logicznej G. Boola do problemu elektrycznego przełączania, to właśnie od tego momentu kod binarny stał się "systemem nerwowym" każdego komputera. W 1940 roku Shannon obronił doktorat w Massachusetts Institute of Technology; a od roku 1958 był tam profesorem. W latach 1936-40 pracował w MIT, gdzie współuczestniczył przy budowie mechanicznego analizatora dyferencjałów, który był wczesnym typem komputera, opracowanego przez Vannevera Busha, w latach 1941-1972 był pracownikiem w Laboratoriach Bella, gdzie sformułował teorię wyjaśniającą przekazywania informacji i pracował nad problemem najskuteczniejszego ich przekazywania. Punktem kulminacyjnym matematycznych i technicznych badań Shannona było dzieło "A Mathematical Theory of Communication" opublikowane w 1948 r.
Osiągniecia naukowe
Jednym z najważniejszych elementów teorii komunikacji Shannona była koncepcja entropii, którą pokazał w ramach teorii informacji. Definicja informacyjna była pierwotnie próbą ujęcia tradycyjnego pojęcia entropii znanego z termodynamiki w kategoriach teorii informacji. Pojęcie entropii jest bardzo przydatne na przykład w dziedzinie kompresji danych. Metoda Shannona może mieć zastosowanie nie tylko do projektowania komputerowego, ale także do dużej grupy dziedzin, w których język i komunikacja odgrywają znaczną rolę np. lingwistyce, psychologii, kryptografii i fonetyce.
W późniejszej pracy Shannon skupił się na badaniach w dziedzinie sztucznej inteligencji. Opracował komputerowy program do gry w szachy oraz projekt elektronicznej myszy, która ucząc się na własnych błędach miała odnaleźć drogę do celu w labiryncie. Był to jeden z pierwszych eksperymentów w dziedzinie sztucznej inteligencji na świecie. Natomiast przełomowy dokument na temat szachów komputerowych "Programming a Computer for Playing Chess", został opublikowany w 1950 roku.
Ciekawostki
Shannon wraz z żoną Betty oraz Edem Thorpem - matematykiem z MIT mieli także w zwyczaju wyjazdy do Las Vegas, gdzie przy użyciu teorii gier, opartej na podstawach teorii informacji, opracowanej przy współudziale współpracownika Shannona z Laboratoriów Bella, skutecznie wygrywali w blackjack. Podobno zarobili na tym fortunę, co opisali w książce "Fortune's Formula" William Poundstone i Elwyn Berlekamp.
Nagrody i wyróżnienia
Shannon za swoją pracę otrzymał bardzo wiele wyróżnień. Wśród najważniejszych znajdują się: Nagroda Nobla z 1939 roku; National Medal of Science z 1966 roku, wręczona przez prezydenta Lyndona B. Johnsona; Audio Engineering Society Gold Medal z 1985 roku i Kyoto Prize z 1985 roku. Shannon otrzymał także tytuł doktora honoris causa takich uczelni jak: Princeton University, University of Oxford, University of Pittsburgh czy Carnegie Mellon University.
Claude E. Shannon — artykuły polecane |
Marian Mazur — Bioinformatyka — Charles de Freminville — Informatyka — Charles Babbage — Cybernetyka — Burrhus Frederic Skinner — Alban William Phillips — Dekonstrukcja |
Bibliografia
- Johnson G. (2001), Claude Shannon, Mathematician, Dies at 84, New York Times 27 February
- Kahn D. (1996), The Codebreakers, Simon and Schuster, New York
- Slepian D. (1974), Key papers in the development of information theory, Institute of Electrical and Electronics Engineers Inc, New York
Autor: Gabriela Wawrzak