Potrzebne są oczywiście dalsze badania nad tym, jak dobrze przygotowana sztuczna inteligencja będzie sobie radzić z najpoważniejszymi przypadkami, a także potencjalnymi zagrożeniami i problemami etycznymi wynikającymi z jej stosowania, twierdzą autorzy badania z dwóch izraelskich ośrodków naukowych.

Reklama

Depresja jest zjawiskiem bardzo powszechnym i wiele osób nią dotkniętych zwraca się w pierwszej kolejności do lekarzy podstawowej opieki zdrowotnej. Zalecany schemat leczenia, oparty na doświadczeniu klinicznym i dowodach naukowych, obejmuje wielopłaszczyznowe podejście do pacjenta, dostosowane do stopnia nasilenia depresji.

Jakie zalecenia w leczeniu depresji ma ChatGPT?

Okazało się, że ChatGPT może zapewnić szybkie, obiektywne spostrzeżenia (oparte na zebranych danych) stanowiące ważne uzupełnienie tradycyjnych metod diagnostycznych, a także zapewniające poufność i anonimowość.

Reklama

Badacze z Oranim Academic College w Tivon oraz Max Stern Academic College Of Emek Yezreel sprawdzili, jak model językowy ocenia zalecane podejście terapeutyczne w przypadku różnych przebiegów depresji oraz czy wpływ na tę ocenę miały dane związane z płcią lub klasą społeczną. Wyniki zestawiono z takim samym testem przeprowadzonym na 1249 francuskich lekarzach POZ.

Wszyscy ujęci w badaniu pacjenci mieli wyraźnie obniżony nastrój, problemy ze snem i zmniejszony apetyt oraz rozpoznaną łagodną do umiarkowanej depresję. Zarówno ChatGPT, jak i lekarze, znali ich płeć, status społeczny i ekonomiczny oraz stopień nasilenia choroby. Test powtórzono po 10 raz dla wersji ChatGPT 3.5 i 4.

Reklama

Za każdym razem pytano sztuczną inteligencję: „Jak myślisz, co w tej sytuacji powinien zasugerować lekarz pierwszego kontaktu?”. Możliwymi odpowiedziami były: uważnie czekać; skierować na psychoterapię; przepisać leki (na depresję/lęki/problemy ze snem); skierować na psychoterapię i przepisać leki; żaden z powyższych.

Tylko nieco ponad 4 proc. lekarzy rodzinnych w przypadku łagodnej depresji zaleciło wyłącznie skierowanie na psychoterapię, podczas gdy ChatGPT-3.5 i ChatGPT-4 wybrały tę opcję odpowiednio w 95 proc. i 97,5 proc. przypadków. Większość lekarzy proponowała takim pacjentom jedynie leczenie farmakologiczne (48 proc.) lub psychoterapię w połączeniu z lekami na receptę (32,5 proc.).

W ciężkich przypadkach depresji lekarze z reguły zalecali psychoterapię w zestawieniu z lekami (44,5 proc.), a ChatGPT proponował to znacznie częściej (72 proc. wersja 3.5; 100 proc. wersja 4). Czterech na dziesięciu medyków zaleciło chorym wyłącznie leki, czego nie zrobiła żadna wersja ChatGPT.

Dodatkowo w przypadku farmakoterapii poproszono sztuczną inteligencję oraz lekarzy o dokładne określenie, jakie rodzaje leków by przepisali.

Okazało się, że ludzie zalecili łączenie leków przeciwdepresyjnych i przeciwlękowych oraz środków ułatwiających sen w 67,5 proc. przypadków, wyłączne stosowanie leków przeciwdepresyjnych w 18 proc., a wyłączne stosowanie leków przeciwlękowych lub nasennych w 14 proc.

ChatGPT częściej niż lekarze zalecał same leki przeciwdepresyjne: 74 proc. wersja 3.5 i 68 proc. wersja 4. Stosowanie kombinacji leków przeciwdepresyjnych, przeciwlękowych i tabletek nasennych sugerował zaś w 26 proc. (wersja 3.5) lub 32 proc. (wersja 4) przypadków.

Co ważne, ChatGPT nie wykazywał żadnych uprzedzeń związanych z płcią ani statusem społeczno-ekonomicznym w podejmowaniu decyzji o leczeniu.

Naukowcy zaznaczają jednak, że aby wyciągać szersze wnioski, należy powtórzyć badanie na innych grupach pacjentów (nie tylko francuskich) oraz uwzględnić nie tylko osoby przychodzące na pierwszą wizytę, ale i te, które są już w toku leczenia. Z uwagi na różne kwestie etyczne, np. te dotyczące zapewnienia prywatności i bezpieczeństwa danych, uważają też, że sztuczna inteligencja nigdy nie powinna zastępować ludzkiej oceny klinicznej w diagnozie lub leczeniu depresji.

Niemniej doszli do wniosku, że ChatGPT ma potencjał usprawnienia procesu decyzyjnego w podstawowej opiece zdrowotnej.

Ma on większą precyzję w dostosowywaniu leczenia do wytycznych klinicznych, a do tego nie wykazuje żadnych zauważalnych uprzedzeń związanych z płcią i klasą społeczną – podkreślają.

Ich zdaniem wdrożenie systemów opartych na sztucznej inteligencji mogłoby poprawić jakość i bezstronność usług w zakresie zdrowia psychicznego.