"Nawet, jeśli twórca mówi o tym, że nie wykorzystuje danych osobowych, to nie możemy być pewni, że na pewno te dane są zanonimizowane w takiej definicji prawnej, jak my ją w Europie rozumiemy" - stwierdziła w rozmowie z Radiem RMF24 Ligia Kornowska, liderka grupy roboczej do spraw sztucznej inteligencji i liderka koalicji AI Zdrowie. Ekspertka rozwiała wątpliwości dotyczące nowego modelu zdrowotnego zasilanego przez sztuczną inteligencję.

REKLAMA

  • Chcesz być na bieżąco? Po więcej aktualnych informacji z kraju i ze świata zapraszamy na rmf24.pl.

Open AI uruchomił model ChatGPT Health (ang. zdrowie), który będzie analizować dokumentację medyczną użytkowników. Rozwiązanie, które już jest dostępne w Stanach Zjednoczonych, budzi pewne kontrowersje. Obecnie ponad 230 milionów osób co tydzień zadaje chatbotowi pytania, które dotyczą swojego zdrowia i samopoczucia. Open AI podkreśla, że ChatGPT Health ma wspierać, a nie zastępować opiekę medyczną.

Twoja przeglądarka nie obsługuje standardu HTML5 dla audio

AI zastąpi lekarzy? Ekspertka nie ma złudzeń

W jakich decyzjach zdrowotnych skorzystać z AI?

Gość Radia RMF 24 - Ligia Kornowska - podkreśliła, że aby jakiekolwiek narzędzie sztucznej inteligencji miało realnie wpływać na nasze decyzje kliniczne, to powinno posiadać odpowiednie standardy. Jeśli jakikolwiek model sztucznej inteligencji ma nam doradzać w kwestiach diagnozy i leczenia, to taki model algorytmu powinien być certyfikowanym wyrobem medycznym, czyli uzyskać taką certyfikację, która mówi nam, na ile ten model w ogóle jest skuteczny i na ile nam nie mówi bzdur, jeśli zadamy pytania zdrowotne - stwierdziła liderka koalicji AI Zdrowie.

Dodała, że ChatGPT Health takiego certyfikatu nie posiada.

AI zastąpi lekarzy? Ekspertka odpowiada

Dopytywana o to, czy AI jest w stanie zastąpić lekarzy, twierdziła, że choć realny wpływ na zastąpienie lekarzy mogłyby posiadać narzędzia sztucznej inteligencji z odpowiednimi certyfikatami, to jednak "nie należy się tego obawiać w najbliższej przyszłości".

Nie możemy być pewni czy te czaty, które tej certyfikacji nie mają, nas nie oszukują. To nie jest możliwe, żeby zastąpiły lekarzy ze względu na to, że będzie na pewno duży odsetek informacji błędnych lub niepełnych. Problem jest taki, że nie wszyscy wiedzą, że algorytm bez certyfikacji nie może udzielać wiadomości na temat diagnozy i leczenia pacjenta - powiedziała Kornowska.

Bezpieczeństwo cyfrowe a ChatGPT Health

Twórca najnowszego modelu ChatGPT Health zapowiedział, że dane wrażliwe użytkowników będą odpowiednio chronione. Według ekspertki, ochrona, która została wprowadzona w Stanach Zjednoczonych, może nie spotkać się z europejskimi standardami prawnymi. Musimy sobie zdawać sprawę, że jeśli przekazujemy dane do dużego modelu językowego, to te dane mogą być przetwarzane w nieodpowiedni sposób - powiedziała liderka grupy roboczej do spraw sztucznej inteligencji.

“Odpowiedzialność zawsze leży po stronie lekarza"

Przedmiotem dyskusji stało się również pytanie, czy jeżeli lekarz skorzysta z pomocy najnowszego modelu zdrowotnego i popełni błąd, to kto poniesie za to odpowiedzialność. Ekspertka stwierdziła, że "lekarz ma prawo skorzystać z modelu, tak samo jak z przeglądarki internetowej czy podręcznika".

Przy wyrobach certyfikowanych, które służą do diagnostyki i leczenia, to ryzyko może być dzielone między innymi pomiędzy twórcę takiego algorytmu albo podmiot wprowadzający ten algorytm do obrotu. Natomiast, jeśli lekarz ostatecznie podejmuje decyzję, to zazwyczaj ta odpowiedzialność spada na lekarza - oceniła.

"To jest nielegalne w Europie"

Ekspertka zgodziła się natomiast ze stwierdzeniem, że model zdrowotny zasilany sztuczną inteligencją może realnie wpłynąć na nierówności w dostępie do opieki medycznej. Uczuliła jednak, że z chatemGPT Health warto omawiać tematy wellness, dotyczące diety, ruchu fizycznego czy snu. Natomiast nie należy ufać mu w kwestiach ściśle związanych z medycyną.

Niebezpieczne jest, jeśli czat zacznie podawać diagnozę, a nawet sugerować leczenie i pacjent się tym zasugeruje. Nie wiemy, czy ta diagnoza i leczenie będą w ogóle prawidłowe i czy to nie będzie zupełnie zmyślone i nie będzie szkodzić pacjentowi. I to jest nielegalne w Europie - powiedziała Ligia Kornowska.

Czy w Polsce lekarze używają ChatuGPT?

Rosnąca popularność sztucznej inteligencji na świecie przeszyła szyki również środowiska medycznego. Z czata GPT lekarze korzystają uzupełniając swoją wiedzę medyczną lub podsumowując najnowsze badania naukowe. Takie narzędzie jak duży model językowy, nie tylko zresztą ChatGPT, jest bardzo dobrym narzędziem do podsumowywania informacji najnowszych standardów medycznych czy podsumowywania treści edukacyjnych - podsumowała Ligia Kornowska na antenie Radia RMF 24.

Opracowała Julia Rut