Claude E. Shannon: Różnice pomiędzy wersjami

Z Encyklopedia Zarządzania
m (Dodanie MetaData Description)
m (cleanup bibliografii i rotten links)
 
(Nie pokazano 7 wersji utworzonych przez 2 użytkowników)
Linia 1: Linia 1:
{{infobox4
|list1=
<ul>
<li>[[Marian Mazur]]</li>
<li>[[Bioinformatyka]]</li>
<li>[[Charles de Freminville]]</li>
<li>[[Informatyka]]</li>
<li>[[Charles Babbage]]</li>
<li>[[Cybernetyka]]</li>
<li>[[Burrhus Frederic Skinner]]</li>
<li>[[Alban William Phillips]]</li>
<li>[[Dekonstrukcja]]</li>
</ul>
}}
[[Image:C.E.Shannon.jpg|thumb|right|200px|Claude Elwood Shannon (1916-2001)]]
[[Image:C.E.Shannon.jpg|thumb|right|200px|Claude Elwood Shannon (1916-2001)]]
== Ogólna charakterystyka ==
==Ogólna charakterystyka==
 
Claude Elwood Shannon - urodził się 30 kwietnia 1916 r. w Gaylord w USA, zmarł 24 lutego 2001 r. w Medford w USA. Był amerykańskim inżynierem oraz matematykiem, profesorem MIT, znanym jako "ojciec teorii informacji". Uznano go za jednego z największych uczonych XX w.
Claude Elwood Shannon- urodził się 30 kwietnia 1916 r. w Gaylord w USA, zmarł 24 lutego 2001 r. w Medford w USA. Był amerykańskim inżynierem oraz matematykiem, profesorem MIT, znanym jako "ojciec teorii informacji". Uznano go za jednego z największych uczonych XX w.  
 
== Biografia==


==Biografia==
Shannon w 1936 r. uzyskał dwa dyplomy: w dziedzinie matematyki i inżynierii elektrycznej w University of Michigan. W swojej pracy magistersiej z inżynierii elektrycznej zaadaptował elementy algebry logicznej G. Boola do problemu elektrycznego przełączania, to właśnie od tego momentu kod binarny stał się "systemem nerwowym" każdego komputera. W 1940 roku Shannon obronił doktorat w Massachusetts Institute of Technology; a od roku 1958 był tam profesorem. W latach 1936-40 pracował w MIT, gdzie współuczestniczył przy budowie mechanicznego analizatora dyferencjałów, który był wczesnym typem komputera, opracowanego przez Vannevera Busha, w latach 1941-1972 był pracownikiem w Laboratoriach Bella, gdzie sformułował teorię wyjaśniającą przekazywania informacji i pracował nad problemem najskuteczniejszego ich przekazywania. Punktem kulminacyjnym matematycznych i technicznych badań Shannona było dzieło "A Mathematical Theory of Communication" opublikowane w 1948 r.
Shannon w 1936 r. uzyskał dwa dyplomy: w dziedzinie matematyki i inżynierii elektrycznej w University of Michigan. W swojej pracy magistersiej z inżynierii elektrycznej zaadaptował elementy algebry logicznej G. Boola do problemu elektrycznego przełączania, to właśnie od tego momentu kod binarny stał się "systemem nerwowym" każdego komputera. W 1940 roku Shannon obronił doktorat w Massachusetts Institute of Technology; a od roku 1958 był tam profesorem. W latach 1936-40 pracował w MIT, gdzie współuczestniczył przy budowie mechanicznego analizatora dyferencjałów, który był wczesnym typem komputera, opracowanego przez Vannevera Busha, w latach 1941-1972 był pracownikiem w Laboratoriach Bella, gdzie sformułował teorię wyjaśniającą przekazywania informacji i pracował nad problemem najskuteczniejszego ich przekazywania. Punktem kulminacyjnym matematycznych i technicznych badań Shannona było dzieło "A Mathematical Theory of Communication" opublikowane w 1948 r.
<google>ban728t</google>


==Osiągniecia naukowe==
==Osiągniecia naukowe==
Jednym z najważniejszych elementów teorii komunikacji Shannona była koncepcja entropii, którą pokazał w ramach teorii informacji. [[Definicja]] informacyjna była pierwotnie próbą ujęcia tradycyjnego pojęcia entropii znanego z termodynamiki w kategoriach teorii informacji. Pojęcie entropii jest bardzo przydatne na przykład w dziedzinie kompresji danych. [[Metoda]] Shannona może mieć zastosowanie nie tylko do projektowania komputerowego, ale także do dużej grupy dziedzin, w których język i [[komunikacja]] odgrywają znaczną rolę np. lingwistyce, psychologii, kryptografii i fonetyce.


Jednym z najważniejszych elementów teorii komunikacji Shannona była koncepcja entropii, którą pokazał w ramach teorii informacji. [[Definicja]] informacyjna była pierwotnie próbą ujęcia tradycyjnego pojęcia entropii znanego z termodynamiki w kategoriach teorii informacji. Pojęcie entropii jest bardzo przydatne na przykład w dziedzinie kompresji danych. [[Metoda]] Shannona może mieć zastosowanie nie tylko do projektowania komputerowego, ale także do dużej grupy dziedzin, w których język i [[komunikacja]] odgrywają znaczną rolę np. lingwistyce, psychologii, kryptografii i fonetyce.
W późniejszej pracy Shannon skupił się na badaniach w dziedzinie [[Sztuczna inteligencja|sztucznej inteligencji]]. Opracował komputerowy [[program]] do gry w szachy oraz [[projekt]] elektronicznej myszy, która ucząc się na własnych błędach miała odnaleźć drogę do celu w labiryncie. Był to jeden z pierwszych [[eksperyment]]ów w dziedzinie sztucznej inteligencji na świecie. Natomiast przełomowy [[dokument]] na temat szachów komputerowych "Programming a Computer for Playing Chess", został opublikowany w 1950 roku.


W późniejszej pracy Shannon skupił się na badaniach w dziedzinie [[Sztuczna inteligencja|sztucznej inteligencji]]. Opracował komputerowy [[program]] do gry w szachy oraz [[projekt]] elektronicznej myszy, która ucząc się na własnych błędach miała odnaleźć drogę do celu w labiryncie. Był to jeden z pierwszych [[eksperyment]]ów w dziedzinie sztucznej inteligencji na świecie. Natomiast przełomowy [[dokument]] na temat szachów komputerowych "Programming a Computer for Playing Chess", został opublikowany w 1950 roku.
<google>n</google>


==Ciekawostki==
==Ciekawostki==
 
Shannon wraz z żoną Betty oraz Edem Thorpem - matematykiem z MIT mieli także w zwyczaju wyjazdy do Las Vegas, gdzie przy użyciu teorii gier, opartej na podstawach teorii informacji, opracowanej przy współudziale współpracownika Shannona z Laboratoriów Bella, skutecznie wygrywali w blackjack. Podobno zarobili na tym fortunę, co opisali w książce "Fortune's Formula" William Poundstone i Elwyn Berlekamp.
Shannon wraz z żoną Betty oraz Edem Thorpem- matematykiem z MIT mieli także w zwyczaju wyjazdy do Las Vegas, gdzie przy użyciu teorii gier, opartej na podstawach teorii informacji, opracowanej przy współudziale współpracownika Shannona z Laboratoriów Bella, skutecznie wygrywali w blackjack. Podobno zarobili na tym fortunę, co opisali w książce "Fortune's Formula" William Poundstone i Elwyn Berlekamp.


==Nagrody i wyróżnienia==
==Nagrody i wyróżnienia==
Shannon za swoją pracę otrzymał bardzo wiele wyróżnień. Wśród najważniejszych znajdują się: [[Nagroda]] Nobla z 1939 roku; National Medal of Science z 1966 roku, wręczona przez prezydenta Lyndona B. Johnsona; Audio Engineering Society Gold Medal z 1985 roku i Kyoto Prize z 1985 roku. Shannon otrzymał także tytuł doktora honoris causa takich uczelni jak: Princeton University, University of Oxford, University of Pittsburgh czy Carnegie Mellon University.


Shannon za swoją pracę otrzymał bardzo wiele wyróżnień. Wśród najważniejszych znajdują się: [[Nagroda]] Nobla z 1939 roku; National Medal of Science z 1966 roku, wręczona przez prezydenta Lyndona B. Johnsona; Audio Engineering Society Gold Medal z 1985 roku i Kyoto Prize z 1985 roku. Shannon otrzymał także tytuł doktora honoris causa takich uczelni jak: Princeton University, University of Oxford, University of Pittsburgh czy Carnegie Mellon University.
{{infobox5|list1={{i5link|a=[[Marian Mazur]]}} &mdash; {{i5link|a=[[Bioinformatyka]]}} &mdash; {{i5link|a=[[Charles de Freminville]]}} &mdash; {{i5link|a=[[Informatyka]]}} &mdash; {{i5link|a=[[Charles Babbage]]}} &mdash; {{i5link|a=[[Cybernetyka]]}} &mdash; {{i5link|a=[[Burrhus Frederic Skinner]]}} &mdash; {{i5link|a=[[Alban William Phillips]]}} &mdash; {{i5link|a=[[Dekonstrukcja]]}} }}


== Bibliografia ==
==Bibliografia==
* Slepian D., Key papers in the development of information theory, Institute of Electrical and Electronics Engineers Inc., New York 1974
<noautolinks>
* Johnson G., Claude Shannon, Mathematician, Dies at 84, "New York Times" 27 February 2001, New York 2001
* Johnson G. (2001), ''Claude Shannon, Mathematician, Dies at 84'', New York Times 27 February
* Kahn D., The Codebreakers, Simon and Schuster, New York 1996
* Kahn D. (1996), ''The Codebreakers'', Simon and Schuster, New York
* Slepian D. (1974), ''Key papers in the development of information theory'', Institute of Electrical and Electronics Engineers Inc, New York
</noautolinks>


{{a|Gabriela Wawrzak}}
{{a|Gabriela Wawrzak}}
[[Kategoria:Zarządzanie informacjami]]
[[Kategoria:Znani praktycy i badacze]]
[[en:Claude E. Shannon]]
[[en:Claude E. Shannon]]


{{#metamaster:description|Claude E. Shannon - amerykański matematyk i elektrotechnik, uznawany za ojca teorii informacji. Jego prace miały kluczowe znaczenie dla rozwoju informatyki i telekomunikacji.}}
{{#metamaster:description|Claude E. Shannon - amerykański matematyk i elektrotechnik, uznawany za ojca teorii informacji. Jego prace miały kluczowe znaczenie dla rozwoju informatyki i telekomunikacji.}}

Aktualna wersja na dzień 17:38, 22 gru 2023

Claude Elwood Shannon (1916-2001)

Ogólna charakterystyka

Claude Elwood Shannon - urodził się 30 kwietnia 1916 r. w Gaylord w USA, zmarł 24 lutego 2001 r. w Medford w USA. Był amerykańskim inżynierem oraz matematykiem, profesorem MIT, znanym jako "ojciec teorii informacji". Uznano go za jednego z największych uczonych XX w.

Biografia

Shannon w 1936 r. uzyskał dwa dyplomy: w dziedzinie matematyki i inżynierii elektrycznej w University of Michigan. W swojej pracy magistersiej z inżynierii elektrycznej zaadaptował elementy algebry logicznej G. Boola do problemu elektrycznego przełączania, to właśnie od tego momentu kod binarny stał się "systemem nerwowym" każdego komputera. W 1940 roku Shannon obronił doktorat w Massachusetts Institute of Technology; a od roku 1958 był tam profesorem. W latach 1936-40 pracował w MIT, gdzie współuczestniczył przy budowie mechanicznego analizatora dyferencjałów, który był wczesnym typem komputera, opracowanego przez Vannevera Busha, w latach 1941-1972 był pracownikiem w Laboratoriach Bella, gdzie sformułował teorię wyjaśniającą przekazywania informacji i pracował nad problemem najskuteczniejszego ich przekazywania. Punktem kulminacyjnym matematycznych i technicznych badań Shannona było dzieło "A Mathematical Theory of Communication" opublikowane w 1948 r.

Osiągniecia naukowe

Jednym z najważniejszych elementów teorii komunikacji Shannona była koncepcja entropii, którą pokazał w ramach teorii informacji. Definicja informacyjna była pierwotnie próbą ujęcia tradycyjnego pojęcia entropii znanego z termodynamiki w kategoriach teorii informacji. Pojęcie entropii jest bardzo przydatne na przykład w dziedzinie kompresji danych. Metoda Shannona może mieć zastosowanie nie tylko do projektowania komputerowego, ale także do dużej grupy dziedzin, w których język i komunikacja odgrywają znaczną rolę np. lingwistyce, psychologii, kryptografii i fonetyce.

W późniejszej pracy Shannon skupił się na badaniach w dziedzinie sztucznej inteligencji. Opracował komputerowy program do gry w szachy oraz projekt elektronicznej myszy, która ucząc się na własnych błędach miała odnaleźć drogę do celu w labiryncie. Był to jeden z pierwszych eksperymentów w dziedzinie sztucznej inteligencji na świecie. Natomiast przełomowy dokument na temat szachów komputerowych "Programming a Computer for Playing Chess", został opublikowany w 1950 roku.

Ciekawostki

Shannon wraz z żoną Betty oraz Edem Thorpem - matematykiem z MIT mieli także w zwyczaju wyjazdy do Las Vegas, gdzie przy użyciu teorii gier, opartej na podstawach teorii informacji, opracowanej przy współudziale współpracownika Shannona z Laboratoriów Bella, skutecznie wygrywali w blackjack. Podobno zarobili na tym fortunę, co opisali w książce "Fortune's Formula" William Poundstone i Elwyn Berlekamp.

Nagrody i wyróżnienia

Shannon za swoją pracę otrzymał bardzo wiele wyróżnień. Wśród najważniejszych znajdują się: Nagroda Nobla z 1939 roku; National Medal of Science z 1966 roku, wręczona przez prezydenta Lyndona B. Johnsona; Audio Engineering Society Gold Medal z 1985 roku i Kyoto Prize z 1985 roku. Shannon otrzymał także tytuł doktora honoris causa takich uczelni jak: Princeton University, University of Oxford, University of Pittsburgh czy Carnegie Mellon University.


Claude E. Shannonartykuły polecane
Marian MazurBioinformatykaCharles de FreminvilleInformatykaCharles BabbageCybernetykaBurrhus Frederic SkinnerAlban William PhillipsDekonstrukcja

Bibliografia

  • Johnson G. (2001), Claude Shannon, Mathematician, Dies at 84, New York Times 27 February
  • Kahn D. (1996), The Codebreakers, Simon and Schuster, New York
  • Slepian D. (1974), Key papers in the development of information theory, Institute of Electrical and Electronics Engineers Inc, New York


Autor: Gabriela Wawrzak