Uczenie maszynowe: Różnice pomiędzy wersjami

Z Encyklopedia Zarządzania
(LinkTitles.)
(Rozbudowa i poprawa merytoryczna hasła.)
Linia 1: Linia 1:
{{infobox4
'''Uczenie maszynowe (ang. machine learning)''' - to nauka o algorytmach komputerowych, które automatycznie doskonalą (uczą) się poprzez własne wyniki (T. Mitchell, 1997).
|list1=
Jest ona postrzegana jako część sztucznej inteligencji. Algorytmy uczenia maszynowego budują model w oparciu o przykładowe dane, znane jako "dane treningowe" (ang. training data), w celu dokonywania przewidywań lub podejmowania decyzji bez wyraźnego zaprogramowania do tego (ang. "hard coding") (A. Samuel, 1959).
<ul>
Algorytmy uczenia maszynowego są wykorzystywane w wielu różnych zastosowaniach, takich jak np. medycyna czy analiza obrazów cyfrowych, gdzie niewykonalne jest opracowanie standardowych algorytmów do wykonywania potrzebnych zadań.
<li>[[Sztuczna inteligencja]]</li>
<li>[[Daniel Kahneman]]</li>
<li>[[Koncentracja uwagi]]</li>
<li>[[Język wysokiego poziomu]]</li>
<li>[[Algorytm przetwarzania]]</li>
<li>[[Data science]]</li>
<li>[[Ethereum]]</li>
<li>[[Rozszerzona rzeczywistość]]</li>
<li>[[Bioinformatyka]]</li>
</ul>
}}


==Historia==
Pojęcia "Uczenie Maszynowe" jako pierwszy użył Arthur Samuel w 1959 roku w swojej pracy dotyczącej modeli sztucznej inteligencji w grach komputerowych (w tym wypadku Warcabów) (A. Samuel, 1959).
Przez kolejne lata była ona rozwijana i kolejnym krokiem milowym była praca Richarda Duda'y i Petera Harta dotycząca rozpoznawania wzorów (ang. "pattern recognition"). Stworzyli oni model potrafiący rozpoznać 40 różnych znaków (26 liter, 10 cyfr oraz 4 symbole specjalne) (R. Duda, P. Hart, 1973).
Współcześnie uczenie maszynowe ma dwa cele, jednym z nich jest klasyfikowanie danych na podstawie opracowanych modeli, drugim z nich jest przewidywanie przyszłych wyników na podstawie tych modeli ("Introduction to AI" , 2020).


'''Uczenie maszynowe (ang. machine learning)''' - jest nauką łączącą takie dziedziny jak [[informatyka]] i [[robotyka]]. Głównym celem uczenia maszynowego jest [[rozwój]] [[sztuczna inteligencja|sztucznej inteligencji]] poprzez [[samodoskonalenie]] się systemu na podstawie dostarczonych danych (czyli doświadczenia) i zdobywanie wiedzy.
==Powiązania z innymi dziedzinami==
==Idea==
W związku ze swoją złożonością, algorytmy uczenia maszynowego czerpią z wielu dziedzin techniki i informatyki.
Uczenie maszynowe to dział nauki rozwijający się niezwykle prężnie ze względu na możliwości, które stwarza jej dynamiczny rozwój. Jest to bowiem [[proces]] przebiegający inaczej, niż uczenie się przez człowieka. Przede wszystkim maszyny "uczą się" znacznie szybciej, niż człowiek. Zapamiętują i przetwarzają momentalnie [[dane]], które uzyskają - informację wystarczy dostarczyć maszynie jeden raz. Dla kontrastu człowiek, chcąc przyswoić wiedzę, musi ją zapamiętać. Proces ten może być długotrwały i nie daje gwarancji, że człowiek zapamięta przyswojoną informację na zawsze. (Herbert A. S, 1983, s. 26-27) Zatem w teorii duża część pracy ludzkiej, wymagającej specjalistycznej wiedzy, mogłaby zostać zastąpiona przez sztuczną inteligencję. Nie jest to jednak możliwe w pełni, ponieważ maszyny nie są "kreatywne" - w przeciwieństwie do człowieka nie są w stanie wymyślić czegoś, czego nie zostały nauczone.
* Sztuczna inteligencja (ang. AI - Artificial Intelligence) - proces podejmowania abstrakcyjnych decyzji na podstawie nauczonego wzorca (modelu).
<google>t</google>
* Pozyskiwanie danych (ang. Data mining) - proces poszukiwania wzorów w grupach danych.
* Optymalizacja - podczas tworzenia modelu, minimalizuję się tzw. funkcję strat (ang. loss function), by stworzony wzorzec był jak najbardziej korzystny i optymalny.  
* Statystyka - Uczenie maszynowe bazuje na metodach predykcyjnych (na podstawie modeli przewiduje zachowanie/wynik), gdzie statystyka bazuje na danych historycznych.  


==Pattern recognition==
==Rodzaje uczenia maszynowego==
Rozpoznawanie wzorców (ang. pattern recognition) jest to [[identyfikacja]] cech danego obiektu albo zjawiska, która pozwala na jego klasyfikację. Proces ten jednak może zachodzić tylko na podstawie posiadanych wcześniej na temat obiektu informacji. Termin pattern recognition jest kojarzony z gałęzią nauczania maszynowego, która umożliwia komputerowi zidentyfikować przedstawione mu obrazy. Jest to naśladowanie przez maszyny [[umiejętności]] istot żywych, które działają według schematu wykształconego w ciągu setek tysięcy lat ewolucji. Najpierw spostrzegają one konkretne [[działanie]], następnie rozpoznając w nim [[wzorzec]], by w końcu podjąć właściwe działanie na podstawie interpretacji występującej sytuacji. Pattern recognition to [[technologia]], która polega na dosłownym nauczeniu maszyn tej samej umiejętności.
Podejścia do uczenia maszynowego dzieli się na trzy rozbudowane kategorie, w zależności od charakteru dostarczanych informacji lub oczekiwanej informacji zwrotnej dostępnej dla systemu uczącego się (M. Bishop, 2006):
Głównym celem pattern recognition jest [[praca]] nad systemami, dzięki którym maszyny nauczą się rozróżniania oraz klasyfikowania obiektów. (Beyerer J., Nagel M., Richter M., 2017, s. 12) Dlaczego jednak uczyć maszyn umiejętności, z która świetnie radzą sobie istoty żywe? Badanie wykazało, że u maszyny margines błędu wynosi 7,5%, a u ludzi 3,5%. Jednakże łącząc prace maszyny i człowieka, [[wskaźnik]] ten wynosi jedynie 0,5%. (Satell G., 2018) Zatem celem rozwoju rozpoznawania wzorców u maszyn jest zwiększenie efektywności pracy człowieka, który z pomocą technologii jest w stanie popełniać mniej błędów w swojej pracy.
* Uczenie nadzorowane (ang. Supervised learning) - Komputerowi przedstawiane są przykładowe "wejścia" i ich pożądane "wyjścia", a celem jest stworzenie ogólnej reguły, która odwzorowuje te zależności.
* Uczenie nienadzorowane (ang. Unsupervised learning) - Algorytmowi uczącemu nie podaje się żadnych zdefiniowanych wskazówek (etykiet), pozostawiając go samemu sobie w celu znalezienia struktury w danych wejściowych. Uczenie nienadzorowane może być celem samym w sobie (odkrywanie ukrytych wzorców w danych) lub środkiem do celu (tzw. uczenie cech).
* Uczenie przez wzmocnienie (ang. Reinforcement learning) - Program komputerowy wchodzi w interakcję ze zdefiniowanym środowiskiem (np. grą komputerową lub symulatorem), w którym musi wykonać pewien cel (taki jak prowadzenie pojazdu lub gra przeciwko przeciwnikowi). Poruszając się w przestrzeni problemowej, program otrzymuje informacje zwrotne analogiczne do nagród, które stara się maksymalizować (M. Bishop, 2006).


==Google Quick Draw==
==Sieci neuronowe (ang. neural networks) i modele wynikowe==
[[Firma]] Google uruchomiła w listopadzie 2016 roku grę ''Quick, Draw!''. Zabawa polega na grze w kalambury. Jednak przełomem w grze jest przeciwnik, z którym mamy się zmierzyć - nie gramy w grę z innym człowiekiem, ale z gigantyczną siecią neuronową, która ma za [[zadanie]] odgadywać tworzone przez gracza obrazki. Oto zasady: jedna rozgrywka trwa sześć rund, każda z nich to inny obraz, który gracz musi narysować. Sztuczna inteligencja ma 20 sekund na odgadnięcie, jaki obraz obecnie powstaje. ''Quick, Draw!'' to nic innego, jak [[system]] mający za zadanie uczenie maszyny rozpoznawania wzorców. Sztuczna inteligencja uczy się rozpoznawać rysunki na podstawie wcześniej narysowanych przez innych graczy obrazów. Zapamiętuje schematy i obrazy by móc je porównywać z rysunkami tworzonymi w czasie rzeczywistym. Gracz jest w tym przypadku "nauczycielem" - im więcej osób weźmie [[udział]] w grze, tym większe będą możliwości rozpoznania obrazu przez komputer. Obecnie, po dwóch latach od uruchomienia gry sztuczna inteligencja potrafi przy pomocy ''pattern recognition'' rozpoznać rysunek niemalże błyskawicznie. (Google, 2018)
Sztuczne sieci neuronowe (ang. ANN, Artificial Neural Networks) są systemami obliczeniowymi inspirowanymi biologicznymi sieciami neuronowymi, które tworzą mózgi zwierząt i człowieka.
Takie systemy "uczą się" wykonywać zadania poprzez rozważanie przykładów, zazwyczaj bez programowania jakichkolwiek reguł specyficznych dla danego zadania.
ANN to model oparty na zbiorze połączonych jednostek lub węzłów zwanych "sztucznymi neuronami", które modelują neurony w biologicznym mózgu. Każde połączenie, podobnie jak synapsy w mózgu biologicznym, może przekazywać informacje, "sygnał", z jednego sztucznego neuronu do drugiego.
Sztuczny neuron, który otrzymuje sygnał, może go przetworzyć, a następnie wysłać sygnał do innych sztucznych neuronów z nim połączonych.
W powszechnych implementacjach ANN, sygnał na połączeniu między sztucznymi neuronami jest liczbą rzeczywistą, a wyjście każdego sztucznego neuronu jest obliczane przez pewną nieliniową funkcję sumy jego wejść.
Połączenia pomiędzy sztucznymi neuronami nazywane są "krawędziami" (ang. edges). Sztuczne neurony i krawędzie mają zazwyczaj wagę, która dostosowuje się w miarę postępu uczenia.
Waga zwiększa lub zmniejsza siłę sygnału na danym połączeniu. Sztuczne neurony mogą mieć próg, dzięki któremu sygnał jest wysyłany tylko wtedy, gdy łączny sygnał przekroczy ten próg.
Zazwyczaj sztuczne neurony są agregowane w warstwy. Różne warstwy mogą wykonywać różne rodzaje przekształceń na swoich wejściach.
Sygnały wędrują od pierwszej warstwy (warstwa wejściowa) do ostatniej (warstwa wyjściowa), będąca równocześnie wynikiem predykcji.
 
Pierwotnym celem podejścia ANN było rozwiązywanie problemów w taki sam sposób, w jaki robiłby to ludzki mózg. Jednak z czasem uwaga przesunęła się na wykonywanie konkretnych zadań, co doprowadziło do odstępstw od biologii. W naturze nie występuję mózg wyspecjalizowany do rozpoznawania obrazów, lecz jest to część bardziej złożonego i szerzej wykształconego organu.
Sztuczne sieci neuronowe zostały wykorzystane do różnych zadań, w tym widzenia komputerowego, rozpoznawania mowy, tłumaczenia maszynowego, filtrowania sieci społecznościowych, grania w gry planszowe i wideo oraz diagnostyki medycznej.
Ważnym pojęciem jest tzw. Głębokie uczenie (ang. Deep learning), które polega na zastosowaniu wielu ukrytych warstw w sztucznej sieci neuronowej. Podejście to modeluje sposób, w jaki na przykład ludzki mózg przetwarza światło i dźwięk. Niektóre udane zastosowania głębokiego uczenia się to wizja komputerowa i rozpoznawanie mowy (L. Honglak, 2009).
 
==Ograniczenia==
Chociaż uczenie maszynowe miało ogromne znaczenie w niektórych dziedzinach, programy często nie przynoszą oczekiwanych rezultatów (Bloomberg, 2006).
Przyczyn tego jest mnóstwo: brak (odpowiednich) danych, brak dostępu do danych, stronniczość danych, problemy dot. prywatności, źle dobrane zadania i algorytmy, brak zasobów i problemy z oceną ("9 Reasons why your machine learning project will fail" , 2005).
Przykładami tego może być wypadek w 2018 r. gdy autonomiczny samochód firmy Uber nie wykrył pieszego, który zginął po kolizji (Wyborcza, 2018). oraz próby wykorzystania uczenia maszynowego w opiece zdrowotnej z systemem IBM Watson nie przyniosły rezultatów nawet po latach i miliardach zainwestowanych dolarów ("IBM’s Watson supercomputer recommended ‘unsafe and incorrect’ cancer treatments (...)", 2018).
Kolejnym problemem jest tzw. stronniczość algorytmów (ang. Bias). W przypadku szkolenia na danych stworzonych przez człowieka, uczenie maszynowe prawdopodobnie przejmie konstytucyjne i nieświadome uprzedzenia już obecne w społeczeństwie (M. Garcia, 2016).
Wykazano również, iż modele językowe uczone na podstawie danych zawierają uprzedzenia podobne do ludzkich (A. Caliskan, 2017).


==Uczenie maszynowe w popkulturze==
==Uczenie maszynowe w popkulturze==
Linia 33: Linia 49:


==Bibliografia==
==Bibliografia==
* Mitchell, Tom (1997). "Machine Learning". Nowy Jork\
* Samuel, Arthur (1959). "Some Studies in Machine Learning Using the Game of Checkers". IBM Journal of Research and Development. 3 (3): s. 210–229.
* Duda, R., Hart P. Pattern Recognition and Scene Analysis, Wiley Interscience, 1973
* [https://edzion.com/2020/12/09/introduction-to-ai-part-1/ ''Introduction to AI Part 1''], Edzion, 2020, Data dostępu: 20.04.2021
* Bishop, C. M. (2006), Pattern Recognition and Machine Learning, Springer, ISBN 978-0-387-31073-2
* Beyerer J., Nagel M., Richter M. (2017), ''Pattern Recognition'', Karlsruhe, De Gruyter Oldenbourg
* Beyerer J., Nagel M., Richter M. (2017), ''Pattern Recognition'', Karlsruhe, De Gruyter Oldenbourg
* Floreano D., Wood RJ. (2015), [https://infoscience.epfl.ch/record/208757/files/nature14542.pdf ''Science, technology and the future of small autonomous drones''], Nature 521, 460-466
* Honglak Lee, Roger Grosse, Rajesh Ranganath, Andrew Y. Ng. "Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hierarchical Representations" Proceedings of the 26th Annual International Conference on Machine Learning, 2009.
* [https://web.archive.org/web/20170320225010/https://www.bloomberg.com/news/articles/2016-11-10/ ''Why Machine Learning Models Often Fail to Learn: QuickTake Q&A''], Bloomberg, 2016, Data dostępu: 21.04.2021.
* Floreano D., Wood RJ. (2015), [https://infoscience.epfl.ch/record/208757/files/nature14542.pdf ''Science, technology and the future of small autonomous drones''], Nature 521, s. 460-466
* Michalski R. S., Carbonell J. G., Mitchell T. M. (1983), ''Machine Learning: An Artificial Intelligence Approach'', Springer-Verlag, Berlin
* Michalski R. S., Carbonell J. G., Mitchell T. M. (1983), ''Machine Learning: An Artificial Intelligence Approach'', Springer-Verlag, Berlin
* [https://experiments.withgoogle.com/quick-draw Oficjalna strona internetowa eksperymentu Google ''Quick, Draw!'' ]
* [https://www.kdnuggets.com/2018/07/why-machine-learning-project-fail.html ''9 Reasons why your machine learning project will fail''], kdnuggets.com, data dostępu: 21.04.2021.
* [https://quickdraw.withgoogle.com/# Oficjalna strona internetowa gry Google ''Quick, Draw!'' ]
* Satell G., (2018), [https://hbr.org/2018/07/how-to-make-an-ai-project-more-likely-to-succeed ''How to make an AI project more likely to succeed''], Harvard Business Review
* Satell G., (2018), [https://hbr.org/2018/07/how-to-make-an-ai-project-more-likely-to-succeed ''How to make an AI project more likely to succeed''], Harvard Business Review
{{a|Daniela Wawrzyniak}}
* [https://wyborcza.pl/7,75399,23162966,pierwsza-smierc-spowodowana-przez-samosterujacy-samochod-uber.html ''Pierwsza śmierć spowodowana przez bezzałogowy samochód. Uber zawiesza testy w USA''], Wyborcza. Data dostępu: 21.04.2021
* [https://www.statnews.com/2018/07/25/ibm-watson-recommended-unsafe-incorrect-treatments/ ''IBM’s Watson supercomputer recommended ‘unsafe and incorrect’ cancer treatments, internal documents show''], Statnews, 2018, data dostępu: 21.04.2021
* Garcia, Megan. "Racist in the Machine". World Policy Journal. 33 (4): s. 111–117, 2016.
* Caliskan, Aylin; Bryson, Joanna J.; Narayanan, Arvind. "Semantics derived automatically from language corpora contain human-like biases". Science. 356 (6334): s. 183–186, 2017.
[[Kategoria:Informatyka]]
[[Kategoria:Informatyka]]

Wersja z 18:37, 26 kwi 2021

Uczenie maszynowe (ang. machine learning) - to nauka o algorytmach komputerowych, które automatycznie doskonalą (uczą) się poprzez własne wyniki (T. Mitchell, 1997). Jest ona postrzegana jako część sztucznej inteligencji. Algorytmy uczenia maszynowego budują model w oparciu o przykładowe dane, znane jako "dane treningowe" (ang. training data), w celu dokonywania przewidywań lub podejmowania decyzji bez wyraźnego zaprogramowania do tego (ang. "hard coding") (A. Samuel, 1959). Algorytmy uczenia maszynowego są wykorzystywane w wielu różnych zastosowaniach, takich jak np. medycyna czy analiza obrazów cyfrowych, gdzie niewykonalne jest opracowanie standardowych algorytmów do wykonywania potrzebnych zadań.

Historia

Pojęcia "Uczenie Maszynowe" jako pierwszy użył Arthur Samuel w 1959 roku w swojej pracy dotyczącej modeli sztucznej inteligencji w grach komputerowych (w tym wypadku Warcabów) (A. Samuel, 1959). Przez kolejne lata była ona rozwijana i kolejnym krokiem milowym była praca Richarda Duda'y i Petera Harta dotycząca rozpoznawania wzorów (ang. "pattern recognition"). Stworzyli oni model potrafiący rozpoznać 40 różnych znaków (26 liter, 10 cyfr oraz 4 symbole specjalne) (R. Duda, P. Hart, 1973). Współcześnie uczenie maszynowe ma dwa cele, jednym z nich jest klasyfikowanie danych na podstawie opracowanych modeli, drugim z nich jest przewidywanie przyszłych wyników na podstawie tych modeli ("Introduction to AI" , 2020).

Powiązania z innymi dziedzinami

W związku ze swoją złożonością, algorytmy uczenia maszynowego czerpią z wielu dziedzin techniki i informatyki.

  • Sztuczna inteligencja (ang. AI - Artificial Intelligence) - proces podejmowania abstrakcyjnych decyzji na podstawie nauczonego wzorca (modelu).
  • Pozyskiwanie danych (ang. Data mining) - proces poszukiwania wzorów w grupach danych.
  • Optymalizacja - podczas tworzenia modelu, minimalizuję się tzw. funkcję strat (ang. loss function), by stworzony wzorzec był jak najbardziej korzystny i optymalny.
  • Statystyka - Uczenie maszynowe bazuje na metodach predykcyjnych (na podstawie modeli przewiduje zachowanie/wynik), gdzie statystyka bazuje na danych historycznych.

Rodzaje uczenia maszynowego

Podejścia do uczenia maszynowego dzieli się na trzy rozbudowane kategorie, w zależności od charakteru dostarczanych informacji lub oczekiwanej informacji zwrotnej dostępnej dla systemu uczącego się (M. Bishop, 2006):

  • Uczenie nadzorowane (ang. Supervised learning) - Komputerowi przedstawiane są przykładowe "wejścia" i ich pożądane "wyjścia", a celem jest stworzenie ogólnej reguły, która odwzorowuje te zależności.
  • Uczenie nienadzorowane (ang. Unsupervised learning) - Algorytmowi uczącemu nie podaje się żadnych zdefiniowanych wskazówek (etykiet), pozostawiając go samemu sobie w celu znalezienia struktury w danych wejściowych. Uczenie nienadzorowane może być celem samym w sobie (odkrywanie ukrytych wzorców w danych) lub środkiem do celu (tzw. uczenie cech).
  • Uczenie przez wzmocnienie (ang. Reinforcement learning) - Program komputerowy wchodzi w interakcję ze zdefiniowanym środowiskiem (np. grą komputerową lub symulatorem), w którym musi wykonać pewien cel (taki jak prowadzenie pojazdu lub gra przeciwko przeciwnikowi). Poruszając się w przestrzeni problemowej, program otrzymuje informacje zwrotne analogiczne do nagród, które stara się maksymalizować (M. Bishop, 2006).

Sieci neuronowe (ang. neural networks) i modele wynikowe

Sztuczne sieci neuronowe (ang. ANN, Artificial Neural Networks) są systemami obliczeniowymi inspirowanymi biologicznymi sieciami neuronowymi, które tworzą mózgi zwierząt i człowieka. Takie systemy "uczą się" wykonywać zadania poprzez rozważanie przykładów, zazwyczaj bez programowania jakichkolwiek reguł specyficznych dla danego zadania. ANN to model oparty na zbiorze połączonych jednostek lub węzłów zwanych "sztucznymi neuronami", które modelują neurony w biologicznym mózgu. Każde połączenie, podobnie jak synapsy w mózgu biologicznym, może przekazywać informacje, "sygnał", z jednego sztucznego neuronu do drugiego. Sztuczny neuron, który otrzymuje sygnał, może go przetworzyć, a następnie wysłać sygnał do innych sztucznych neuronów z nim połączonych. W powszechnych implementacjach ANN, sygnał na połączeniu między sztucznymi neuronami jest liczbą rzeczywistą, a wyjście każdego sztucznego neuronu jest obliczane przez pewną nieliniową funkcję sumy jego wejść. Połączenia pomiędzy sztucznymi neuronami nazywane są "krawędziami" (ang. edges). Sztuczne neurony i krawędzie mają zazwyczaj wagę, która dostosowuje się w miarę postępu uczenia. Waga zwiększa lub zmniejsza siłę sygnału na danym połączeniu. Sztuczne neurony mogą mieć próg, dzięki któremu sygnał jest wysyłany tylko wtedy, gdy łączny sygnał przekroczy ten próg. Zazwyczaj sztuczne neurony są agregowane w warstwy. Różne warstwy mogą wykonywać różne rodzaje przekształceń na swoich wejściach. Sygnały wędrują od pierwszej warstwy (warstwa wejściowa) do ostatniej (warstwa wyjściowa), będąca równocześnie wynikiem predykcji.

Pierwotnym celem podejścia ANN było rozwiązywanie problemów w taki sam sposób, w jaki robiłby to ludzki mózg. Jednak z czasem uwaga przesunęła się na wykonywanie konkretnych zadań, co doprowadziło do odstępstw od biologii. W naturze nie występuję mózg wyspecjalizowany do rozpoznawania obrazów, lecz jest to część bardziej złożonego i szerzej wykształconego organu. Sztuczne sieci neuronowe zostały wykorzystane do różnych zadań, w tym widzenia komputerowego, rozpoznawania mowy, tłumaczenia maszynowego, filtrowania sieci społecznościowych, grania w gry planszowe i wideo oraz diagnostyki medycznej. Ważnym pojęciem jest tzw. Głębokie uczenie (ang. Deep learning), które polega na zastosowaniu wielu ukrytych warstw w sztucznej sieci neuronowej. Podejście to modeluje sposób, w jaki na przykład ludzki mózg przetwarza światło i dźwięk. Niektóre udane zastosowania głębokiego uczenia się to wizja komputerowa i rozpoznawanie mowy (L. Honglak, 2009).

Ograniczenia

Chociaż uczenie maszynowe miało ogromne znaczenie w niektórych dziedzinach, programy często nie przynoszą oczekiwanych rezultatów (Bloomberg, 2006). Przyczyn tego jest mnóstwo: brak (odpowiednich) danych, brak dostępu do danych, stronniczość danych, problemy dot. prywatności, źle dobrane zadania i algorytmy, brak zasobów i problemy z oceną ("9 Reasons why your machine learning project will fail" , 2005). Przykładami tego może być wypadek w 2018 r. gdy autonomiczny samochód firmy Uber nie wykrył pieszego, który zginął po kolizji (Wyborcza, 2018). oraz próby wykorzystania uczenia maszynowego w opiece zdrowotnej z systemem IBM Watson nie przyniosły rezultatów nawet po latach i miliardach zainwestowanych dolarów ("IBM’s Watson supercomputer recommended ‘unsafe and incorrect’ cancer treatments (...)", 2018). Kolejnym problemem jest tzw. stronniczość algorytmów (ang. Bias). W przypadku szkolenia na danych stworzonych przez człowieka, uczenie maszynowe prawdopodobnie przejmie konstytucyjne i nieświadome uprzedzenia już obecne w społeczeństwie (M. Garcia, 2016). Wykazano również, iż modele językowe uczone na podstawie danych zawierają uprzedzenia podobne do ludzkich (A. Caliskan, 2017).

Uczenie maszynowe w popkulturze

Uczenie maszynowe niegdyś było zagadnieniem z pogranicza science-fiction - autorzy książek i filmów chętnie sięgali po taka tematykę, budując nierzeczywisty i nowoczesny świat w swoich dziełach. Do dziś zresztą sztuczna inteligencja, uczenie maszynowe czy tez rozpoznawanie wzorców to tematy przewijające się niezwykle często w tekstach kultury. Współcześnie jednak jest to zagadnienie bardziej rzeczywiste - fikcja przeplata się z rozwiązaniami, które naprawdę istnieją. Poniżej znajdują się przykłady:

  • Avengers: Czas Ultrona (2015) – film, w którym tytułowy Ultron jest programem, który poprzez uczenie maszynowe doskonali swoją sztuczną inteligencję.
  • Black Mirror (2011) – serial, w którym każdy odcinek opowiada osobną historię osadzoną w futurystycznej przyszłości. Ze względu na tematykę serialu, kwestia sztucznej inteligencji i uczenia maszynowego pojawia się w nim wielokrotnie. Na szczególną uwagę w tym względzie zasługuje odcinek Hated in the Nation. Pojawiają się w nim miniaturowe drony w kształcie pszczół. Ich zadaniem jest zastąpienie żywych pszczół – drony mają rozpoznawać kwiaty poprzez nauczenie się i przetwarzanie wzorców, czyli pattern recognition. Przykład ten zasługuje na uwagę, ponieważ prace nad takimi dronami są już obecnie prowadzone. (Floreano D., Wood RJ., 2015, s. 3)

Bibliografia