Данное исследование, опубликованное в журнале npj Digital Medicine, посвящено анализу способности больших языковых моделей (LLM) оценивать читаемость и структурированность радиологических заключений. Авторы применяют многомерный подход к оценке, проверяя, насколько эффективно ИИ может интерпретировать сложность медицинского текста и его доступность для различных групп пользователей. В работе исследуется методология сопоставления оценок LLM с экспертными заключениями опытных радиологов. Ключевым результатом является выявление корреляции между метриками, генерируемыми моделями, и реальной клинической полезностью отчетов. Исследование подчеркивает потенциал использования ИИ для автоматизированного аудита качества документации в радиологии, что может значительно снизить когнитивную нагрузку на врачей и улучшить коммуникацию с пациентами. Результаты работы закладывают основу для внедрения интеллектуальных систем контроля качества медицинских текстов в клиническую практику.