Moralne maszyny

Co jest dobre, a co złe? Uczą nas tego rodzice, czasami szkoła. W końcu uczymy się tego sami. Czy będziemy tego w stanie nauczyć maszyny?

Myślę, że to jest główne wyzwanie i niebezpieczeństwo wchodzenia w świat sztucznej inteligencji.

To jasne, że maszyny mogą robić złe rzeczy. Wystarczy opowiedzieć o czołgu czy o pocisku balistycznym, tyle tylko, że to nie czołg czy pocisk decyduje o sobie. Robi to za niego człowiek. Nawet rakieta, która potrafi sama manewrować, jest ubezwłasnowolniona, porusza się zgodnie z pewnymi wytycznymi, w obrębie zer i jedynek, które wpisał w jej oprogramowanie człowiek. Ale te czasy powoli się kończą. Już mamy, a w przyszłości będziemy mieć jeszcze częściej do czynienia z maszynami (programami), które same będą podejmowały decyzje. Trochę tak jak dzisiaj podejmujemy je my. Dzisiaj nikt nie wini (a przynajmniej nie powinien winić) rodziców za wybory ich dzieci (szczególnie gdy te dzieci są dorosłe). Czy odpowiedzialność za decyzje podjęte przez program komputerowy powinna spaść na programistę? Przecież on będzie miał niewielki wpływ na finalną decyzję maszyny. Najczęściej podawanym przykładem jest ten, w którym przed samochód kierowany automatycznie wychodzi grupka dzieci. W sytuacji gdy samochód nie zdąży wyhamować, jaką decyzję ma podjąć automat? Zminimalizować ludzkie straty i wjechać w drzewo, być może zabijając swojego właściciela, czy chronić właściciela, narażając na kalectwo, a może nawet śmierć większą grupkę dzieci? A jeżeli automat będzie musiał wybrać śmierć dziecka albo dorosłego? Jaką powinien podjąć decyzję? A śmierć podejrzanego o przestępstwo czy bezdomnego?

Naukowcy nad „moralnością” maszyn zastanawiają się od lat. Pierwsze kodeksy dotyczące robotów powstały kilkadziesiąt lat temu. Dotyczyły jednak raczej robotyki, czyli konstruktorów maszyn, a nie maszyn samych w sobie. W zasadzie jedyne, co uczeni wymyślili, to żeby… zapytać ludzi – moralność człowieka przenieść na maszynę. Kilka miesięcy temu w amerykańskim MIT, jednej z najlepszych uczelni technicznych świata, uruchomiono program, w którego ramach można było wypełnić kwestionariusz pełen sytuacji niejednoznacznych, trudnych do przewidzenia. Przez stronę internetową kwestionariusz wypełniło ponad milion osób. W ten sposób uzyskano około 18 milionów ludzkich decyzji. Mogą one zostać „przekazane” maszynie, a ta może być drogowskazem dla programów komputerowych. Ale czy to rozwiązuje problem? Przede wszystkim człowiek inne decyzje podejmuje w sytuacji ekstremalnej, a inne wypełniając kwestionariusz. Jest i druga, ważniejsza sprawa. Od kiedy to tłum w swojej masie ma zawsze rację? Są zasady, które nie powinny podlegać głosowaniu. Warto przypomnieć, że dwa totalitaryzmy, które przeorały Europę w XX wieku, nie były wcale pozbawione społecznego poparcia. Etyka, moralność to słowa, które jakoś nie pasują do maszyn. W następnych latach „jakoś” będziemy musieli je dopasować. Inaczej maszyny będą podejmowały decyzje zgodnie z… No właśnie – nie wiem zgodnie z jakim zbiorem zasad. 

«« | « | 1 | » | »»

TAGI| FELIETONY, NAUKA

Dodaj komentarz
Gość
    Nick (wymagany lub )

    Ze względów bezpieczeństwa, kiedy korzystasz z możliwości napisania komentarza lub dodania intencji, w logach systemowych zapisuje się Twoje IP. Mają do niego dostęp wyłącznie uprawnieni administratorzy systemu. Administratorem Twoich danych jest Instytut Gość Media, z siedzibą w Katowicach 40-042, ul. Wita Stwosza 11. Szanujemy Twoje dane i chronimy je. Szczegółowe informacje na ten temat oraz i prawa, jakie Ci przysługują, opisaliśmy w Polityce prywatności.