Здоровье // Новость

Исследование: почти половина медицинских ответов нейросетей содержит ошибки


Исследование: почти половина медицинских ответов нейросетей содержит ошибки
Фото: ru.freepik.com

Ученый из университета в Лос-Анджелесе Николас Тиллер с коллегами из других стран выяснил, насколько опасны медицинские советы нейросетей.

В феврале 2025 года ученые протестировали Gemini, DeepSeek, Meta AI*, ChatGPT и Grok. Ботам задавали вопросы о раке, прививках, питании и спорте. Результаты исследования опубликовал журнал BMJ Open.

Половина ответов оказалась проблемной, а каждый пятый совет эксперты признали потенциально опасным. ИИ при этом отвечал очень уверенно. Из 250 случаев боты отказались давать рекомендации лишь дважды.

Хуже всех с советами справился Grok.

В целом нейросети неплохо знают теорию про рак и вакцины, но постоянно ошибаются в темах питания и фитнеса. Ученые заметили, что боты часто выдумывают цитаты и дают неверные ссылки.

Понять такие тексты трудно, они написаны сухим языком на уровне учащихся средних курсов колледжей.

_______________________

* принадлежит компании Meta, деятельность которой запрещена в России


Подписывайтесь на наш телеграм-канал и читайте нас в соцсетях: Vk, Одноклассники, Яндекс.Дзен.


Youtube

Новости





























































Поделиться

Youtube