Postęp w sztucznej inteligencji

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj
 Główny artykuł: Sztuczna inteligencja.
Procent błędów przy klasyfikacji obrazów dokonywanej przez SI (niebieskie słupki) i przez człowieka (czerwona linia)[1]

Sztuczna inteligencja jest obecnie wykorzystywana w wielu dziedzinach, takich jak diagnostyka medyczna, inwestowanie na giełdzie, sterowanie robotami, czy automatyczne dowodzenie twierdzeń. Wiele tych zastosowań nie jest jednak traktowanych jako SI, ponieważ termin zwykle kojarzy się z tymi funkcjami ludzkiego umysłu, których jeszcze nie potrafimy odtworzyć w komputerze[2].

W odpowiednio zdefiniowanych warunkach można porównywać wyniki uzyskane przez programy komputerowe z wynikami uzyskiwanymi przez ludzi. Testy takie nazywane są eksperckimi testami Turinga. W ten sposób można wskazywać kolejne problemy, dla których programy znajdują rozwiązania lepiej niż ludzie.

Osiągnięcia SI w rozwiązywaniu problemów[edytuj]

Osiągnięcia SI w rozwiązywaniu różnych problemów można podzielić na następujące kategorie:

  • optymalne: nie jest możliwe uzyskanie lepszego wyniku
  • nadludzkie: lepsze niż uzyskane przez jakiegokolwiek człowieka
  • mistrzowskie: odpowiadające poziomowi specjalistów w danej dziedzinie
  • ludzkie: odpowiadające poziomowi przeciętnego człowieka
  • kiepskie: gorsze od większości ludzi

Optymalne[edytuj]

  • Kółko i krzyżyk - drzewo gry ma 26830 węzłów, więc nawet prosty program może je łatwo przejrzeć.
  • Czwórki - drzewo gry ma 4,5 biliona pozycji. Optymalna strategia została znaleziona w 1988 roku[3]
  • Warcaby angielskie - drzewo gry ma 5*10^20 pozycji. Optymalna strategia została znaleziona w 2007 roku[4]
  • Kostka Rubika - istnieje 4*10^19 pozycji. W 1995 roku pokazano że niektóre z nich wymagają 20 ruchów. W 2010 roku sprawdzono, że każdą pozycję da się rozwiązać w nie więcej niż 20 ruchów[5]

Nadludzkie[edytuj]

  • Pilotowanie myśliwca - w 2016 roku program ALPHA w symulowanych pojedynkach powietrznych wygrywał za każdym razem z ekspertami, nawet pilotując myśliwiec o słabszych parametrach[6]
  • Diagnostyka raka płuc - w 2013 roku superkomputer Watson poprawnie diagnozował 90% przypadków, podczas kiedy przeciętny onkolog 50%[7]
  • Teleturnieje z pytaniami dotyczącymi ogólnych tematów, takich jak historia, literatura, sztuka, nauka czy sport - w 2011 roku superkomputer Watson pokonał najlepszych graczy w Jeopardy![8]
  • Szachy - najlepsze programy szachowe osiągają ranking szachowy ponad 3300, podczas gdy najwyższy ranking człowieka to 2882[9]
  • Scrabble[10]
  • Puzzle[11]
  • Reversi[12]

Mistrzowskie[edytuj]

Ludzkie[edytuj]

  • Rozpoznawanie liter
  • Rozpoznawanie mowy - w 2015 roku Baidu ogłosiła, że ich system rozpoznawania mowy Deep Speech 2 rozpoznaje mandaryńskie i angielskie frazy wyrwane z kontekstu lepiej, niż przeciętny człowiek znający oba języki[20]
  • Rozpoznawanie obrazów - w 2015 roku program opracowany przez Microsoft robił 4,94% błędów przy rozpoznawaniu obrazów z otwartej bazy danych ImageNet, podczas gdy ludzie robią średnio 5,1% błędów[1]

Kiepskie[edytuj]

  • Analiza sensowności obrazu polegająca na identyfikowaniu jako dziwne zdjęć przedstawiających doniczkę w miejscu klawiatury lub łączeniu nieprzystających fragmentów zdjęć (łączenie przystających fragmentów jest możliwe dla systemów komputerowych dzięki analizie kolorów i linii)[21]
  • Tłumaczenie automatyczne[22]
  • Większość prac wykonywanych przez ludzi (patrz paradoks Moraveca).

Przypisy

  1. a b Jordan Novet: Microsoft researchers say their newest deep learning system beats humans — and Google (ang.). VentureBeat, 9 luty 2015.
  2. AI set to exceed human brain power (ang.). CNN, 26 lipca 2006.
  3. John Tromp: John's Connect Four Playground (ang.).
  4. Computers Solve Checkers — It's a Draw (ang.). Scientific American, 19 lipca 2007.
  5. God's Number is 20 (ang.).
  6. Beyond video games: New artificial intelligence beats tactical experts in combat simulation (ang.). 27 czerwca 2016.
  7. IBM's Watson is better at diagnosing cancer than human doctors (ang.). 11 lutego 2013.
  8. Computer Wins on ‘Jeopardy!’: Trivial, It’s Not (ang.). 17 lutego 2011.
  9. CCRL 40/40 (ang.).
  10. World-championship-caliber Scrabble
  11. Computer software sets new record for solving jigsaw puzzle
  12. LOGISTELLO's Homepage
  13. Tom Simonite: Data Shows Google’s Robot Cars Are Smoother, Safer Drivers Than You or I (ang.). Technology Review, 25 października 2013. [dostęp 25 czerwca 2014].
  14. Gerald Tesauro. Temporal difference learning and TD-Gammon. „Communications of the ACM”. 38 (3), s. 58–68, March 1995. DOI: 10.1145/203330.203343. 
  15. RoboBridge - Home
  16. Proverb: The probabilistic cruciverbalist. By Greg A. Keim, Noam Shazeer, Michael L. Littman, Sushant Agarwal, Catherine M. Cheves, Joseph Fitzgerald, Jason Grosland, Fan Jiang, Shannon Pollard, and Karl Weinmeister. 1999. In Proceedings of the Sixteenth National Conference on Artificial Intelligence, 710-717. Menlo Park, Calif.: AAAI Press.
  17. Polaris drawing professionals to a stand-still. University of Alberta: Express News, 20 lipca, 2007.
  18. Ryan Smith: U of A researchers win computer poker title. University of Alberta: Express News, 9 sierpnia, 2006.
  19. Google AI wins fifth and final game against go genius Lee Sedol (ang.).
  20. Baidu’s Deep-Learning System Rivals People at Speech Recognition (ang.). 16 grudnia 2015.
  21. Christof Koch, Giulio Tononi. Test na świadomość. „Świat Nauki”. nr. 7 (239), s. 32-35, lipiec 2011. Prószyński Media. ISSN 0867-6380. 
  22. W porównaniu z przeciętną osobą znającą dwa języki, między którymi chcemy dokonać tłumaczenia