Оксфордське дослідження попередило про небезпеку використання ШІ для медичних порад

Дослідження Оксфордського університету показало, що чатботи зі штучним інтелектом надають неточні та суперечливі медичні рекомендації. Це створює загрозу для безпеки пацієнтів через неправильну інтерпретацію неповної інформації.

Оксфордське дослідження попередило про небезпеку використання ШІ для медичних порад

Науковці Оксфордського університету виявили, що чат-боти на основі штучного інтелекту надають неточні та суперечливі рекомендації щодо здоров’я, які загрожують безпеці пацієнтів. Дослідження підкреслює, що нездатність моделей правильно інтерпретувати неповну інформацію від користувачів робить самодіагностику через ШІ вкрай ризикованою. Про це пише УНН.

Деталі

Експеримент за участю 1300 осіб показав, що результати взаємодії з ШІ критично залежать від формулювання запитань. Користувачам пропонували оцінити симптоми, як-от сильний головний біль або виснаження, проте чат-боти часто видавали перелік діагнозів, з-поміж яких людині доводилося вибирати навмання. Доктор Адам Махді, старший автор дослідження, зазначив у коментарі для BBC: “Коли штучний інтелект перерахував три можливі умови, людям залишали здогадуватися, яка з них може підійти. Саме тоді все й розвалиться”.

Провідна лікарка дослідження доктор Ребекка Пейн назвала практику консультування з ШІ “небезпечною”. Вона пояснила, що користувачі зазвичай діляться інформацією поступово і можуть пропускати ключові деталі, які професійний медик виявив би під час очного огляду. У підсумку люди, які використовували ШІ, отримували суміш корисних і шкідливих порад, що ускладнювало прийняття рішення про необхідність візиту до сімейного лікаря чи невідкладної допомоги.

Упередженість алгоритмів та перспективи галузі

Окрім технічних помилок, фахівці вказують на системні недоліки технології. Докторка Ембер В. Чайлдс із Єльського університету наголосила, що ШІ навчається на медичних даних, які вже містять десятилітні упередження.

Чат-бот є настільки ж хорошим діагностом, наскільки хорошими є досвідчені клініцисти, що також не ідеально

– додала вона.

Це створює додатковий ризик повторення помилок, закладених у сучасну медичну практику.

Попри критику, експерти бачать потенціал у спеціалізованих моделях. Доктор Берталан Меско зауважив, що нові версії чат-ботів від OpenAI та Anthropic, розроблені саме для сфери охорони здоров’я, можуть показати кращі результати. Проте ключовою умовою безпеки залишається впровадження чітких національних правил, регуляторних бар’єрів та офіційних медичних рекомендацій для вдосконалення таких систем.

Джерело

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *