Согласно результатам исследования, опубликованным в журнале Radiology, когда врачи лучевой диагностики, изучавшие снимки, не знали об истинной цели исследования, только 41% из них смогли случайно распознать изображения, созданные с помощью ИИ.
После того, как стало известно, что набор данных содержит синтетические изображения, средняя точность рентгенологов в различении реальных и синтетических рентгеновских снимков возросла до 75%.
«Наличие реалистичных, способных обмануть рентгенологов, дипфейков-рентгеновских снимков создает уязвимое место для мошеннических судебных разбирательств, если, например, сфабрикованный перелом может быть неотличим от настоящего», – заявил руководитель исследования доктор Микаэль Торджман из Медицинской школы Икана при больнице Маунт-Синай в Нью-Йорке.
«Существует также значительный риск кибербезопасности, если хакеры получат доступ к сети больницы и внедрят синтетические изображения для манипулирования диагнозами пациентов или вызовут масштабный клинический хаос, подорвав фундаментальную надежность цифровой медицинской карты», – сказал Торджман.
Даже модель ChatGPT-4o, создавшая дипфейки, не смогла обнаружить все из них, хотя и выявила больше, чем другие модели LLM, сообщили исследователи.
«Возможно, мы видим лишь верхушку айсберга, – сказал Торджман о потенциальной возможности подделки результатов КТ и МРТ. – Создание образовательных баз данных и инструментов обнаружения сейчас имеет решающее значение».