Konieczne jest przejście z oceniania samego efektu na ocenianie procesu uczenia się.
Modele generatywnej sztucznej inteligencji mogą wspierać proces uczenia się, ale ich niewłaściwe użycie może prowadzić do osłabienia zdolności samodzielnego myślenia i rozwoju wiedzy - oceniła w rozmowie z PAP dr hab. Joanna Mytnik, prof. Politechniki Gdańskiej i szefowa Centrum Nowoczesnej Edukacji.
Ekspertka dodała, że kluczowe jest świadome korzystanie z technologii oraz zmiana sposobu oceniania w edukacji.
Jej zdaniem coraz więcej wyników badań wskazuje, że duże modele językowe nie zawsze sprzyjają procesowi uczenia się, zwłaszcza w przypadku osób, które nie mają jeszcze ugruntowanej wiedzy w danej dziedzinie.
- Wyniki badań coraz częściej sugerują, że modele językowe są nie tylko nieoptymalne dla procesu uczenia się, ale wręcz mogą mieć negatywny wpływ na rozwój wiedzy i umiejętności w przypadku osób nie mających wiedzy własnej w danej dziedzinie - powiedziała Mytnik. Dodała, że korzystanie z narzędzi generatywnej AI może prowadzić do nadmiernego polegania na technologii i w efekcie osłabiać zdolność samodzielnego rozwiązywania problemów.
Jak zaznaczyła, istnieje wyraźny związek między poziomem krytycznego myślenia a zależnością od narzędzi AI. - Osoby z najniższym poziomem umiejętności krytycznego myślenia są najczęściej najbardziej zależne od AI - podkreśliła.
Badaczka przywołała również eksperymenty z wykorzystaniem EEG (to nieinwazyjna metoda diagnostyczna pozwalająca zbadać bioelektryczną czynność mózgu), w których analizowano aktywność mózgu młodych osób piszących eseje przy wsparciu ChatGPT.
- Wykazały one najsłabsze wzorce połączeń neuronalnych, miały trudności z przypomnieniem sobie tego, co przed chwilą pisały, zgłaszały mniejsze poczucie własności pracy - wskazała prof. Mytnik.
Jednocześnie - jak dodała - wyniki badań pokazują, że inne efekty obserwuje się, gdy AI wykorzystywana jest dopiero po etapie samodzielnej pracy. - W grupie osób, która korzystała z narzędzi GenAI dopiero po etapie pracy własnej, zaobserwowano znaczny wzrost połączeń neuronalnych. Te wyniki sugerują, że ponowne zaangażowanie wspierane przez narzędzia GenAI wywołuje wysoki poziom integracji poznawczej i reaktywacji pamięci - powiedziała.
Prof. Mytnik zwróciła uwagę także na inne zagrożenia związane z działaniem chatbotów. - Są one tak zaprojektowane, aby były zarówno pomocne, jak i angażujące, stale oferują pochlebstwa i spełniają oczekiwania użytkowników, a to jest uzależniająca kombinacja - oceniła. W tym kontekście wskazała na zjawisko tzw. sykofancji w dużych modelach językowych, czyli tendencję systemów do bezrefleksyjnego zgadzania się z użytkownikiem.
- To kluczowy problem etyczny i poznawczy LLMów (LLM to model językowy wyszkolony na dużej ilości danych umożliwiający generowanie tekstu - przyp.PAP) - podkreśliła badaczka. Jak dodała, badania pokazują, że modele bardziej "uprzejme" są często jednocześnie mniej krytyczne i mniej prawdomówne.
Ekspertka wskazała również na rosnącą popularność platform umożliwiających tworzenie wirtualnych towarzyszy. Przywołała badania Pew Research, według których ponad połowa nastolatków w wieku 13-17 lat regularnie korzysta z platform takich jak "character.ai". Zwróciła uwagę, że badacze ostrzegają, że tego typu rozwiązania mogą zwiększać ryzyko dla zdrowia psychicznego młodych ludzi i zacierać granice między rzeczywistością a światem wirtualnym.
- Bądźmy świadomi tego, że jeśli w coraz większym stopniu polegamy na chatbotach, z czasem tracimy umiejętność budowania głębokich więzi z ludźmi, akceptowania odmiennych zdań i współpracy - powiedziała Mytnik.
Jednocześnie podkreśliła, że sztuczna inteligencja może być bardzo użytecznym wsparciem w nauce - pod warunkiem, że nie zastępuje procesu rozumienia.
- Chcę jasno zaznaczyć, że narzędzia AI mogą znakomicie wspierać w procesie uczenia się, wyręczać nas w wielu zadaniach, ale nie powinny zastępować procesu rozumienia i internalizacji wiedzy. Trzeba używać ich świadomie - dodała.
Wyjaśniła, że tworzenie trwałej wiedzy wymaga wysiłku poznawczego, polegającego na wyszukiwaniu i łączeniu informacji. - To jak wydeptywanie ścieżki w chaszczach: im więcej razy nią chodzić, tym jest trwalsza, a nieużywana zanika - obrazowo tłumaczyła.
Jej zdaniem delegowanie tego wysiłku na narzędzia generatywnej AI może prowadzić do zjawiska "pozornego rozumienia".
- Poleganie na zewnętrznych narzędziach omija proces tworzenia i wzmacniania śladów pamięciowych prowadząc do rozumienia pozornego, mamy złudne poczucie własności procesu, ale to iluzja - podkreśliła.
Ekspertka wskazała jednak wiele sposobów konstruktywnego wykorzystania chatbotów w nauce. Mogą one wspierać m.in. refleksję nad własnym myśleniem, porządkowanie notatek czy symulację dialogu.
- Chatboty świetnie wspierają w symulacji dialogu - można pozwolić AI zagrać rolę sceptyka, który zadaje trudne pytania - powiedziała. Dodała, że studenci mogą także wykorzystywać AI do analizowania różnych perspektyw danego problemu czy do planowania powtórek materiału w oparciu o metodę rozłożonego powtarzania.
Zdaniem Mytnik rozwój generatywnej AI wymusza również głęboką zmianę w sposobie oceniania studentów. - Tradycyjny model oceniania skoncentrowany na efekcie końcowym traci swoją funkcję rozwojową i diagnostyczną - oceniła.
Jak wskazała, modele językowe potrafią generować poprawne odpowiedzi, co daje "iluzję głębokiego myślenia", a detektory treści generowanych przez AI zawodzą. - Nie można już mieć pewności co do autorstwa - zaznaczyła.
Dlatego - jej zdaniem - konieczne jest przejście z oceniania samego efektu na ocenianie procesu uczenia się. - Czas na włączenie studenta do tego procesu i dodanie oceny drogi dojścia do celu, refleksji i etycznego użycia AI jako elementu procesu poznawczego - powiedziała.
W praktyce może to oznaczać m.in. prowadzenie przez studentów dokumentacji pracy z AI, dzienników decyzji czy refleksyjnych podsumowań.
Ekspertka podkreśliła również, że rola nauczyciela w erze AI ulega zmianie. - Nauczyciel przestaje być dostarczycielem informacji () a staje się mentorem, projektantem doświadczeń edukacyjnych, przewodnikiem w świecie (dez)informacji - powiedziała.
Jak zaznaczyła, mimo automatyzacji wielu zadań rola relacyjna nauczyciela pozostaje kluczowa. - GenAI może zastąpić część naszej pracy, ale nie zastąpi roli relacyjnej, która jest związana z budowaniem motywacji, procesu grupowego, poczucia bezpieczeństwa i przynależności - podkreśliła.
Politechnika Gdańska od kilku lat przygotowuje studentów i kadrę do pracy z generatywną AI. Uczelnia opracowała strategię "EDUxAI", która ma wspierać odpowiedzialne i etyczne wykorzystanie technologii w edukacji.
- Kluczowe dla nas jest to, by nie tylko uczyć narzędzi, ale przede wszystkim uczyć myślenia o AI, odpowiedzialnego wykorzystania i umiejętności decydowania czy i kiedy użyć technologii - wyjaśniła prof. Mytnik.
W ramach działań uczelnia prowadzi szkolenia, kursy specjalistyczne oraz program przygotowujący nauczycieli do nowych ról w edukacji. Studenci mogą natomiast korzystać z jasnych zasad dotyczących wykorzystania AI przy pisaniu prac.
- Uczelnia nie zabrania korzystania z narzędzi AI w procesie uczenia się czy pisania pracy dyplomowej, ale jednocześnie mówimy o etyce, zagrożeniach i formach wsparcia - zaznaczyła badaczka.
Jej zdaniem kluczowe kompetencje to krytyczne myślenie - czy AI ma rację, umiejętność zadawania pytań czy metapoznanie.
- AI wzmacnia ekspertów. Trzeba mieć wiedzę własną, by z tego wzmocnienia AI skorzystać - podsumowała.
Może on uprawdopodobnić teorię dotyczącą powstania obrazu na Całunie Turyńskim.