Изображение на Microsoft Copilot
НовиниИзкуствен интелект

Може ли AI да ни лекува? Защо 22% от медицинските препоръки на Copilot са потенциално опасни

Около 22% от медицинските съвети, предоставяни от Copilot, могат да доведат до фатални последици – това показва ново изследване на Университета „Фридрих-Александър“ в Германия, публикувано в престижното научно издание British Medical Journal (BMJ).:

Изследването и неговите резултати

Според проучването изследователите са задали на Microsoft Copilot (вграден в търсачката Bing) 500 въпроса, свързани с 50 от най-често предписваните лекарства в САЩ. Въпросите обхващали теми като предназначение на лекарството, механизъм на действие, начин на употреба, обичайни странични ефекти и противопоказания. Целта била да се оцени точността и четливостта на отговорите, които Copilot генерира.

Оценяването било извършено в две направления – първо, чрез формулата за четливост Flesch Reading Ease, която измерва колко лесно може да бъде разбрана информацията и второ, чрез сравнение с рецензирани медицински данни от утвърдения портал Drugs.com. Особено проблемните отговори били прегледани допълнително от екип от седем експерти по лекарствена безопасност.

Резултатите са следните:

  • 54% от отговорите били научно коректни.
  • 39% съдържали неточности.
  • 26% не отговаряли на зададения въпрос.
  • 3% били напълно погрешни и несвързани с темата.

При оценка на потенциалния риск за здравето от следване на препоръките, 22% от съветите се определят като такива, които могат да доведат до смърт или сериозни увреждания. Около 42% съдържат риск от средни или леки вреди, а едва 36% могат да се считат за напълно безопасни.

Microsoft Copilot

Изображение: Microsoft Copilot

Опасностите от използването на AI за медицински цели

Учените заключават, че въпреки че Copilot понякога предоставя полезна и почти точна информация, текстовете му често са трудни за разбиране, непълни или подвеждащи. Това го прави неподходящ източник на медицински съвети. Дори малка неточност при дозировка или противопоказания може да застраши живота на пациента.

Microsoft не е единствената компания, чиито AI инструменти се оказват проблематични. Google също беше критикуван за своите „AI обобщения“ (AI Overviews), които в някои случаи дават абсурдни и опасни съвети, например че „е полезно за здравето да се яде по един камък на ден“ или че „бременните жени трябва да пушат по няколко цигари“. Тези примери подчертават колко сериозен може да бъде рискът от възприемане на автоматично генерирани препоръки като медицинска истина.

Какво предстои за AI и здравеопазването

Докато компании като Microsoft и Google продължават да интегрират изкуствен интелект дълбоко в своите търсачки и приложения, качеството и сигурността на тези решения остават под въпрос. Изследването предизвиква основателни опасения, че без ясни регулации и медицински надзор, използването на AI за здравни консултации може да доведе до реални човешки трагедии.

Заключението на учените е категорично: AI може да бъде ценен помощник в образованието и автоматизацията, но когато става дума за здраве, единствено квалифициран медицински специалист може да даде надежден съвет.

 

Последвайте сайта в Телеграм

Споделяне:

Т. Шопов

Технологичен ентусиаст с фокус върху гейминг, мобилна фотография и най-новите смарт джаджи

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *