Nieznana twarz inteligencji

Emocje i uczucia definiują nas jako ludzi. Bez nich bylibyśmy biologicznymi maszynami.

Sztuczna inteligencja ma być inna od tej, którą my posiadamy. Mówiąc o niej, pokazując ją np. w filmach science fiction, chcemy, by była pozbawiona emocji. Nie wiem, skąd pomysł, że emocje są naszym obciążeniem. Wiem natomiast, że sztuczna inteligencja właśnie nas (negatywnie) zaskoczyła.

Emocje i uczucia definiują nas jako ludzi. Bez nich bylibyśmy biologicznymi maszynami. Owszem, mamy czasami wrażenie, że emocje w życiu przeszkadzają, czasami utrudniają podejmowanie racjonalnych decyzji. Ale czy to coś złego? Czy to, co racjonalne, jest dobre? Jeżeli jednak założymy, że racjonalne jest zawsze słuszne, nie dziwi chęć stworzenia urządzenia (systemu) pozbawionego niepotrzebnej warstwy emocji. Inteligentnej maszyny, która – pozbawiona uczuć i odczuć – zawsze jest sprawiedliwa i obiektywna. Kolejne nieporozumienie. Czy to, co obiektywne, musi być bezduszne?

W Japonii właśnie zakończył się (skandalem) pierwszy międzynarodowy konkurs piękności, w którym jurorem była sztuczna inteligencja. Organizatorzy nie ukrywali, że to pierwsza impreza tego typu, która będzie w pełni obiektywna. System komputerowy oceniał urodę uczestników na podstawie zdjęć i ogromnej liczby kryteriów, których zresztą sam się uczył. W rywalizacji uczestniczyło kilka tysięcy osób z blisko 100 krajów. Skandal wybuchł wtedy, gdy okazało się, że zwycięzcami w praktycznie wszystkich kategoriach zostali przedstawiciele jednej rasy – białej. Sztuczna inteligencja okazała się rasistą? A przecież miało być obiektywnie.

Do podobnie zaskakującej sytuacji doszło kilka miesięcy temu, gdy firma Microsoft pokazała Taya – swojego chatbota. Ten np. w mediach społecznościowych bardzo szybko zaczął używać wulgarnego języka i promować treści dość dalekie od tych, które powinny się pojawiać w domenie publicznej. Program zniknął z sieci, bo jego autorzy nie przewidzieli, w którym kierunku zacznie ewoluować. Podobnie zresztą stało się z inteligentnymi algorytmami napisanymi dla Facebooka, które miały oceniać kontrowersyjne treści. Zamiast ograniczać, promowały to, co powinno zostać zablokowane.

Temat nie powinien być źródłem żartów, tylko głębokiej refleksji. Okazuje się bowiem, że sztuczna inteligencja wcale nie jest pozbawiona uprzedzeń i negatywnych emocji. Więcej, właśnie przez to, że nie ma uczuć, nie ma także moralnych filtrów. Zgoda, wielu ludzi także ich nie ma, ale sztuczna inteligencja nie miała kopiować „świata ludzi”, tylko być nową jakością. Okazuje się, że nowa ma wszystkie wady starej. A być może ma ich więcej, bo jest bardzo podatna na treści, na podstawie których się uczy. Człowiek ma dodatkowo refleksję, której sztuczna inteligencja nie posiada. Czy kiedykolwiek będzie mieć?

Nie wiem. Ale jestem pewien, że sami się o tym przekonamy. I to raczej szybciej niż później. 

«« | « | 1 | » | »»

aktualna ocena |   |
głosujących |   |
Ocena | bardzo słabe | słabe | średnie | dobre | super |

Dodaj komentarz
Gość
    Nick (wymagany lub )

    Autopromocja