Shadowrun Wiki
Advertisement

Źródło: wikipedia

Plik:ArtificialFictionBrain.png

Sztuczna inteligencja (ang. Artificial IntelligenceAI) ma dwa podstawowe znaczenia:

  • jest to hipotetyczna inteligencja realizowana w procesie inżynieryjnym a nie naturalnym
  • jest to nazwa technologii i dziedzina badań naukowych informatyki na styku z neurologią, psychologią i ostatnio kognitywistyką oraz także systemiką, a nawet z współczesną filozofią.

Głównym zadaniem badań nad sztuczną inteligencją w drugim znaczeniu jest konstruowanie maszyn i programów komputerowych zdolnych do realizacji wybranych funkcji umysłu i ludzkich zmysłów niepoddających się prostej numerycznej algorytmizacji. Problemy takie bywają nazywane AI-trudnymi i zalicza się do nich między innymi:

  • podejmowanie decyzji w warunkach braku wszystkich danych
  • analiza i synteza języków naturalnych
  • rozumowanie logiczne/racjonalne,
  • dowodzenie twierdzeń,
  • gry logiczne, jak np. szachy czy go
  • zarządzanie wiedzą, preferencjami i informacją w robotyce
  • systemy eksperckie i diagnostyczne.

Historia badań[]

AI jako dział badań naukowych zaczęła się w latach 50. XX wieku kiedy to powstało pierwsze laboratorium AI na Uniwersytecie Carnegie Mellon, założone przez Allena Newella i Herberta Simona i kilka lat później analogiczne laboratorium w Massachusetts Institute of Technology, założone przez Johna McCarthy'ego. Oba te laboratoria są wciąż wiodącymi ośrodkami AI na świecie.

Termin sztuczna inteligencja został po raz pierwszy zaproponowany prawdopodobnie przez Johna McCarthy'ego, który w 1955 r. zdefiniował go w następujący sposób:

"konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji".

Istnieją dwa podstawowe podejścia do pracy nad AI:

  • Pierwsze to tworzenie modeli matematyczno-logicznych analizowanych problemów i implementowanie ich w formie programów komputerowych, mających realizować konkretne funkcje uważane powszechnie za składowe inteligencji. W tej grupie, tzw. podejścia symbolicznego, są np. algorytmy genetyczne, metody logiki rozmytej i wnioskowania bazującego na doświadczeniu.
  • Drugie to podejscie subsymboliczne polegające na tworzeniu struktur i programów "samouczących się", bazujących na modelach sieci neuronowej i sieci asocjacyjnych, oraz opracowywanie procedur "uczenia" takich programów, rozwiązywania postawionych im zadań i szukania odpowiedzi na wybrane klasy "pytań".

W trakcie wieloletniej pracy laboratoriów i zespołów AI stosujących oba podejścia do problemu, okazało się, że postęp w tej dziedzinie jest i będzie bardzo trudny i powolny. Często mimo niepowodzeń w osiąganiu zaplanowanych celów, laboratoria te wypracowywały nowe techniki informatyczne, które okazywały się użyteczne do zupełnie innych celów. Przykładami takich technik są np. języki programowania LISP i Prolog. Laboratoria AI stały się też "rozsadnikiem" kultury hakerskiej.

Najnowsze podejście do problemów AI to rozwijanie rożnych form inteligencji rozproszonej (wzorowanej na organizacjach ludzkich, np. personoidy oraz tzw. agentów autonomicznych i "inteligentnych". Dziedzina ta nosi nazwę Technologii Agentów Inteligentnych (ang. Intelligent Agent Technology).

Prace w dziedzinie AI przyniosły wiele konkretnych rezultatów które znalazły już praktyczne i powszechne zastosowania od domowej pralki do programów kosmicznych.

Współczesne praktyczne zastosowania AI[]

  • Technologie oparte na logice rozmytej – powszechnie stosowane do np. sterowania przebiegiem procesów technologicznych w fabrykach w warunkach "braku wszystkich danych".
  • Systemy ekspertowe – czyli rozbudowane bazy danych z wszczepioną "sztuczną inteligencją" umożliwiającą zadawanie im pytań w języku naturalnym i uzyskiwanie w tym samym języku odpowiedzi. Systemy takie stosowane są już w farmacji i medycynie.
  • Maszynowe tłumaczenie tekstów – systemy takie jak SYSTRANS, jakkolwiek wciąż bardzo ułomne, robią szybkie postępy i zaczynają się nadawać do tłumaczenia tekstów technicznych.
  • Sieci neuronowe – stosowane z powodzeniem w wielu zastosowaniach łącznie z programowaniem "inteligentnych przeciwników" w grach komputerowych.
  • Uczenie się maszyn - dział sztucznej inteligencji zajmujący się algorytmami potrafiącymi uczyć się podejmować decyzje bądź nabywać wiedzę.
  • Eksploracja danych - omawia obszary, powiązanie z potrzebami informacyjnymi, pozyskiwaniem wiedzy, stosowane techniki analizy, oczekiwane rezultaty.
  • Rozpoznawanie optyczne – stosowane są już programy rozpoznające osoby na podstawie zdjęcia twarzy lub rozpoznające automatycznie zadane obiekty na zdjęciach satelitarnych.
  • Rozpoznawanie mowy i rozpoznawanie mówców – stosowane już powszechnie na skalę komercyjną.
  • Rozpoznawanie ręcznego pisma – stosowane już masowo np. do automatycznego sortowania listów, oraz w elektronicznych notatnikach.
  • Sztuczna twórczość – istnieją programy automatycznie generujące krótkie formy poetyckie, komponujące, aranżujące i interpretujące utwory muzyczne, które są w stanie skutecznie "zmylić" nawet profesjonalnych artystów, w sensie, że nie rozpoznają oni tych utworów jako sztucznie wygenerowanych.
  • W ekonomii, powszechnie stosuje się systemy automatycznie oceniające m.in. zdolność kredytową, profil najlepszych klientów, czy planujące kampanie reklamowe. Systemy te poddawane są wcześniej automatycznemu uczeniu na podstawie posiadanych danych (np. klientów banku, którzy regularnie spłacali kredyt i klientów, którzy mieli z tym problemy).

Czego nie udało się dotąd osiągnąć mimo wielu wysiłków[]

  • Programów skutecznie wygrywających w niektórych grach. Jak dotąd nie ma programów skutecznie wygrywających w go, brydża sportowego, i polskie warcaby, mimo że podejmowano próby ich pisania. Trzeba jednak przyznać, że programy do gry w szachy, w które zainwestowano jak dotąd najwięcej wysiłku i czasu spośród wszystkich tego rodzaju programów, osiągnęły bardzo wysoki poziom, ogrywając nawet mistrza świata Garriego Kasparowa w maju 1997.
  • Programu, który skutecznie potrafiłby naśladować ludzką konwersację. Są programy "udające" konwersowanie, ale niemal każdy człowiek po kilku-kilkunastu minutach takiej konwersacji jest w stanie zorientować się, że rozmawia z maszyną, a nie człowiekiem. Najsłynniejszym tego rodzaju programem jest ELIZA, a obecnie najskuteczniejszym w teście Turinga jest cały czas rozwijany program-projekt ALICE.
  • Programu, który potrafiłby skutecznie generować zysk, grając na giełdzie. Problemem jest masa informacji, którą taki program musiałby przetworzyć i sposób jej kodowania przy wprowadzaniu do komputera. Mimo wielu prób podejmowanych w tym kierunku (zarówno w Polsce jak i na całym świecie), z użyciem sztucznej inteligencji nie da się nawet odpowiedzieć na pytanie, czy jest możliwe zarabianie na giełdzie, bez podawania samego przepisu jak to zrobić. Prawdziwym problemem w tym przypadku może być fakt, że nie istnieje żadna zależność między danymi historycznymi, a przyszłymi cenami na giełdzie (taką tezę stawia Hipoteza Rynku Efektywnego). Gdyby hipoteza ta była prawdziwa, wtedy nawet najlepiej przetworzone dane wejściowe nie byłyby w stanie wygenerować skutecznych i powtarzalnych zysków.
  • Programu skutecznie tłumaczącego teksty literackie i mowę potoczną. Istnieją programy do automatycznego tłumaczenia, ale sprawdzają się one tylko w bardzo ograniczonym stopniu. Podstawową trudnością jest tu złożoność i niejasność języków naturalnych, a w szczególności brak zrozumienia przez program znaczenia tekstu.

Zobacz też[]

  • Sieć neuronowa
  • Algorytm genetyczny
  • Cybernetyka
  • Robotyka
  • Czego nie da się obecnie zaprogramować
  • Systemy wieloagentowe
  • Inteligentny budynek
  • Hans Moravec
  • bot

Linki zewnętrzne[]

Advertisement