• Spoko
    15.03.2019 10:12
    "Tutaj nie sprawdzają się już normy etyczne spisane w latach 40. XX wieku przez Isaaka Asimova..." - niestety nie jest to prawda, sprawdzają się znakomicie. Maszyna może się tylko uczyć, nie ma mowy o myśleniu, więc wpisanie 3 praw daje gwarancję bezpieczeństwa ludziom.
    Przykład z dzieckiem na drodze też jest nie trafiony, bo samochody autonomiczne będą miały autonomiczne drogi, które będą zabezpieczone przed ludźmi.
    • tomaszl
      15.03.2019 11:21
      Niestety trzem prawom o których piszesz nie podlegają już istniejące tzw. roboty wojskowe.
      A samochody autonomiczne oczywiście docelowo będą poruszać się po każdej ulicy, nawet tej osiedlowej. Ulicy, której co oczywiste nie da się zabezpieczyć przed ludźmi.
      • Spoko
        15.03.2019 12:08
        "Niestety trzem prawom o których piszesz nie podlegają już istniejące tzw. roboty wojskowe." - zgadza się, Nobel też wymyślił dynamit, nie po to aby zabijać, ale aby pomóc górnikom w pracy. To od decyzji ludzi zależy jak użyją danego wynalazku.
  • tomaszl
    15.03.2019 10:41
    To jest bardzo ciekawy i niewątpliwie złożony problem. Oczywiście za kilka lat te wszystkie wątpliwości zostaną już rozstrzygnięte, a świat "maszyn i algorytmów" będzie o wiele powszechniejszy niż dziś.
    Zresztą dziś tzw. AI jest już powszechna choćby w rozpoznawaniu mowy czy obrazów (dla przykładu analizy emocji ze zdjęcia). Dziś to jeszcze forma zabawy, ale w przyszłości to będzie jedna z form interakcji człowieka ze światem cyfrowym.
    Tak jak już dziś można swobodnie rozmawiać ze swą komórką, czy choćby swoim domem. I to nawet w języku polskim.
    Dla pokolenia obecnych dzieci i samochód autonomiczny i medycyna z AI i wiele innych obszarów zastosowań będą już normalnością i codziennością.

  • Rafaello
    15.03.2019 20:48
    Nie podjąłbym się nauczenia maszyny tego jaką decyzję ma podjąć w sytuacji gdy wszystkie rozwiązania są złe.
Dyskusja zakończona.
Wiara_wesprzyj_750x300_2019.jpg