Zdaniem naukowców prowadzenie „empatycznej” konwersacji z pacjentem to obszar, gdzie sztuczna inteligencja, czyli w tym wypadku algorytm generujący zdania, może się sprawdzić lepiej od samych lekarzy.

Naukowcy porównywali pisemne odpowiedzi lekarzy na zapytania pacjentów z odpowiedziami udzielanymi przez ChatGPT. Odpowiedzi oceniane były przez panel ekspertów, profesjonalistów w zakresie służby zdrowia.

Reklama

W 79 proc. przypadków preferowali oni odpowiedzi, których udzielał ChatGPT, uznając je za lepsze jakościowo i bardziej empatyczne – informuje zespół naukowców, który pracował pod kierunkiem Johna W. Ayersa z Qualcomm Institute przy University of California w San Diego (USA).

Naukowcy podjęli badania, chcąc przyjrzeć się możliwości wprzęgnięcia sztucznej inteligencji jako pomocnika lekarzy do kontaktów z pacjentami.

- ChatGPT mógłby zdać egzamin z medycyny, ale bezpośrednie odpowiadanie na pytania pacjentów, w sposób dokładny i empatyczny, to osobna sprawa - wyjaśnia współautor badań, Davey Smith z University of California w San Diego.

Naukowcy analizowali wpisy pacjentów i lekarzy na portalach medycznych, m.in. na amerykańskim portalu AskDocs. Następnie te same pytania zadali sztucznej inteligencji.

Eksperci, którzy oceniali posty, nie wiedzieli, które z nich napisali lekarze, a które wygenerował ChatGPT. Oceniali posty pod względem jakości informacji oraz empatii.

Okazało się, że na prawie 200 przypadków w 79 proc. pierwszeństwo przyznano sztucznej inteligencji.