Исследователи предложили ансамблевую модель на базе LLaMA-3 и GPT-4o mini для автоматического извлечения данных о регуляторных сетях бактерий из научных текстов. Метод показал высокую точность (F1-score > 0.87) и позволил реконструировать сеть для Salmonella Typhimurium на основе более чем 2000 статей.
Исследователи использовали метод совместного проектирования с участием пациентов для создания обучающих анимационных роликов о больших языковых моделях (LLM). Результатом стали два доступных видео на английском и бенгальском языках, объясняющих принципы работы ИИ и его применение в медицине без антропоморфизма.
Исследователи представили Pipette — инновационную мультиагентную ИИ-платформу, предназначенную для автоматизации сложных биоинформатических рабочих процессов через взаимодействие на естественном языке. Ключевой особенностью системы является использование Skill Graph — направленного взвешенного графа знаний, извлеченного из более чем 20 000 рецензируемых научных публикаций. Этот граф накладывает биологические ограничения на генерацию кода, предотвращая ошибки, которые часто допускают стандартные LLM при создании многоэтапных пайплайнов. В ходе тестирования на четырех доменах, включая анализ single-cell RNA-seq и компьютерный дизайн лекарств, Pipette показал результаты, превосходящие базовые модели LLM без использования Skill Graph. Особое внимание уделено клиническому применению: система успешно выполнила классификацию вариантов генома в соответствии со стандартами ACMG/AMP. Внедрение Pipette значительно снижает порог вхождения для биологов, не обладающих глубокими навыками программирования, позволяя эффективно преобразовывать данные секвенирования в биологические инсайты.
В исследовании проводится сравнительный анализ эффективности трех систем ИИ-агентов (Codex с навыками Claude Scientific Skills, Biomni Lab и DeerFlow 2) при выполнении сложных биоинформатических задач. Основная задача заключалась в поиске и классификации белков, связанных с кальцификацией кокколитофорид, в базе данных UniProt по шести различным механистическим категориям. Результаты показали, что система Codex продемонстрировала наилучший баланс между чувствительностью и специфичностью: 92,4% найденных ею белков имели высокую релевантность, а средний коэффициент сходства Жаккара составил 0,982, что говорит о высокой стабильности. В то же время Biomni Lab выдала самый большой объем данных (8 752 белка), но 69,5% из них оказались малорелевантными из-за чрезмерного расширения поиска на общие семейства белков. DeerFlow 2 показала высокую полноту охвата, но с существенным снижением точности (43,8% низкорелевантных результатов). Исследование делает важный вывод: для биоинформатики качество ИИ-агента определяется не объемом выдачи, а точностью генерации запросов, способностью к декомпозиции промптов и стабильностью результатов при повторных запусках.
Компания Bercut, входящая в ИТ-кластер «Ростелекома», анонсировала запуск нового продукта AI Data Fabric, предназначенного для интеграции больших языковых моделей (LLM) в корпоративную среду. Решение фокусируется на создании автономных ИИ-агентов и обеспечении бесшовного доступа к структурированным и неструктурированным данным внутри организаций. Методология продукта базируется на концепции Data Fabric, что позволяет объединить разрозненные источники данных для обучения и дообучения моделей без необходимости их физического перемещения. Ключевой особенностью является поддержка безопасного развертывания моделей внутри контура заказчика, что критически важно для соблюдения требований по защите персональных данных. Внедрение AI Data Fabric позволяет компаниям автоматизировать сложные аналитические процессы и повысить точность ответов ИИ-ассистентов за счет актуальной контекстной информации. Продукт ориентирован на масштабируемость и может быть адаптирован под специфические нужды различных отраслей, включая здравоохранение, где требуется высокая точность обработки медицинских записей.
В исследовании представлен CASPA (Context-Aware Single-Cell Proteomics Analysis) — инновационный автоматизированный конвейер для анализа данных протеомики единичных клеток (SCP), полученных с помощью масс-спектрометрии. Авторы решают критические проблемы отрасли: отсутствие стандартизации, наличие фонового загрязнения белками и субъективность ручной аннотации типов клеток. Методология включает адаптивный контроль качества, итеративную коррекцию батч-эффектов на основе энтропии и уникальный механизм аннотации с использованием больших языковых моделей (LLM). Для устранения типичных ошибок LLM (таких как неверная интерпретация состояний клеток) была разработана трехэтапная архитектура промптов, сочетающая общие биологические принципы с ограничениями, специфичными для конкретного набора данных. Тестирование на данных мозга человека, глиобластомы и опухолей кожи показало высокую точность, сопоставимую с результатами сортировки клеток методом FACS и подтвержденную иммуногистохимией. CASPA обеспечивает воспроизводимый рабочий процесс с количественной оценкой уверенности в аннотациях, что делает его ценным инструментом для высокопроизводительных протеомных лабораторий.
В исследовании представлен DrugPlayGround — инновационный фреймворк, разработанный для объективной оценки эффективности больших языковых моделей (LLM) в области поиска и разработки новых лекарств. Авторы подчеркивают, что, несмотря на растущий потенциал LLM для ускорения генерации гипотез и оптимизации приоритетов кандидатов, в отрасли отсутствует стандартизированная методология оценки их преимуществ и ограничений по сравнению с традиционными платформами. DrugPlayGround позволяет тестировать способность моделей генерировать точные текстовые описания физико-химических свойств препаратов, синергизма лекарств, их взаимодействий с белками, а также физиологических реакций на введение молекул. Особое внимание уделяется проверке химической и биологической логики моделей через взаимодействие с экспертами предметной области для обоснования предсказаний. Данная разработка критически важна для масштабирования и снижения стоимости процессов разработки лекарств, обеспечивая переход от общих генеративных задач к специализированному научному обоснованию на всех этапах создания препаратов.
В статье рассматриваются методы разработки персонализированных чат-ботов на базе LLM для продвижения здорового образа жизни. Авторы анализируют стратегии кастомизации, такие как RAG, промпт-инжиниринг и fine-tuning, а также подчеркивают важность оценки безопасности и конфиденциальности данных.
Исследование представляет автоматизированную платформу для систематического обзора биомедицинской литературы, направленную на решение проблемы галлюцинаций LLM при работе со сложными биологическими данными. В отличие от стандартных методов RAG, предлагаемый фреймворк заставляет модель анализировать каждую научную работу индивидуально на предмет соответствия конкретной гипотезе, что позволяет выявлять тонкие семантические противоречия. Методология фокусируется на поиске как подтверждающих, так и опровергающих доказательств, минимизируя риск чрезмерного обобщения данных. Эффективность системы была протестирована на задаче BioNLI, где она продемонстрировала высокую точность классификации поддержки или противоречия гипотезам. Использование ансамблевого подхода (ensemble approach) обеспечило более высокую стабильность и точность по сравнению с одиночными моделями. Результаты подтверждают практическую применимость метода для автоматизации доказательной базы в биомедицинских исследованиях и ускорения научного поиска.
В статье представлен STAnalyzer — инновационная мультиагентная интеллектуальная платформа, предназначенная для автоматизации полного цикла анализа данных пространственной транскриптомики. Разработка решает проблему фрагментированных инструментов и сложности интерпретации многомерных данных, которые часто становятся когнитивным барьером для исследователей. Архитектура системы базируется на трех ключевых принципах: оркестрации на основе намерений (перевод естественного языка в биоинформатические рабочие процессы), мультимодальном самосовершенствовании (автономная проверка через визуальные паттерны и статистические метрики) и кросс-валидации на основе доказательств (сопоставление корреляций с биологическими базами данных). В отличие от существующих LLM-агентов, STAnalyzer преодолевает проблему жесткой логики исполнения и изоляции от биологических знаний, обеспечивая замкнутый цикл самокоррекции. Использование данной платформы позволяет трансформировать массивные пространственные омиксные данные в верифицируемые биологические инсайты, значительно ускоряя процесс выдвижения гипотез и делая высокоразрешающий анализ доступным для широкого круга ученых.
Группа ученых из США и Израиля провела критическую оценку клинической надежности новой модели GPT-5 от OpenAI, сравнив её с предыдущим поколением GPT-4o. Исследование, опубликованное в журнале Digital Medicine, выявило, что новая модель не демонстрирует значительного прогресса в минимизации рисков, связанных с предвзятостью и уязвимостью к ложным данным. При тестировании на сценариях из практики неотложной помощи было обнаружено, что склонность моделей к «галлюцинациям» (додумыванию ошибочной информации) даже усилилась. Авторы зафиксировали, что ошибки и несоответствия в принятии решений сохраняются в 65% случаев при анализе социально-демографических факторов. Результаты подчеркивают сохраняющуюся проблему предвзятости алгоритмов в медицинских решениях. Данная работа указывает на необходимость более строгого регулирования и дополнительной верификации LLM перед их внедрением в критически важные медицинские процессы.
В статье рассматривается проблема низкой экономической эффективности внедрения больших языковых моделей (LLM) в банковском секторе. Представители финансовых организаций отмечают, что, несмотря на технологический хайп, использование LLM зачастую не приносит значимого финансового результата или измеримого эффекта для бизнеса. В то же время подчеркивается, что другие направления искусственного интеллекта демонстрируют колоссальную прибыльность, принося банкам миллиарды рублей прибыли. Основной акцент сделан на разрыве между ожиданиями от генеративного ИИ и реальной окупаемостью инвестиций в сравнении с классическими ML-решениями. Данный материал важен для понимания текущего этапа зрелости ИИ-технологий в финансовой индустрии и оценки рисков при внедрении новых архитектур.
Исследование представляет первый курируемый датасет экосистемы научных агентов OpenClaw, охватывающий 91 проект и 2 230 навыков в 34 научных категориях, включая биоинформатику и открытие лекарств. Авторы анализируют структуру, распределение и возникающие паттерны развития научных агентов на основе ИИ, которые могут выполнять исследовательские рабочие процессы в биоинформатике и фармацевтике. Представлена публичная платформа Claw4Science (claw4science.org), которая организует проекты и агрегирует распределённые репозитории навыков в единый интерфейс для научных рабочих процессов. Результаты показывают сдвиг от изолированных систем к более модульной и разделяемой модели научных вычислений, что особенно актуально для медицинских исследований. Авторы выделяют открытые вызовы в области оценки, воспроизводимости и управления научными агентами на базе больших языковых моделей. Датасет служит основой для будущих бенчмарков и стандартизированной инфраструктуры для научных ИИ-агентов, что может ускорить разработку инструментов для медицинской диагностики и разработки препаратов. Работа демонстрирует, как структурирование знаний об агентах может снизить барьер для вклада и способствовать росту экосистемы. Исследование имеет прямое значение для фармацевтической индустрии и биомедицинских исследований, где ИИ-агенты могут автоматизировать сложные исследовательские задачи.
Статья оценивает компромиссы между открытыми и проприетарными большими языковыми моделями (LLM) для извлечения клинической и биомедицинской информации. Авторы анализируют пять ключевых аспектов: производительность, воспроизводимость, стоимость, прозрачность и этику. Исследование показывает, что гибридные подходы могут обеспечить баланс между инновациями и подотчетностью в клиническом применении ИИ.
Компания Ensemble Partners, занимающаяся медицинским администрированием, объявила о партнёрстве с Cohere для разработки первой в отрасли языковой модели, специально обученной для управления финансовыми процессами в здравоохранении (Revenue Cycle Management - RCM). ИИ-решение направлено на автоматизацию обработки страховых претензий, снижение количества отказов в выплатах (denials) и оптимизацию финансовых рабочих процессов медицинских учреждений. Технология использует large language model (LLM) для понимания и обработки медицинской документации, кодов диагностики и кодирования процедур, что критически важно для успешного прохождения страховых выплат. Внедрение таких систем позволяет медицинским организациям сократить административные расходы и улучшить cash flow, что особенно актуально в условиях растущих операционных затрат. Партнёрство объединяет экспертизу Ensemble в области медицинского администрирования с технологическими возможностями Cohere в области NLP, создавая специализированное решение для индустрии. Рынок ИИ в медицинском администрировании демонстрирует рост по мере того как организации ищут способы снизить операционные издержки и повысить эффективность финансовых операций.
Статья в Nature Machine Intelligence посвящена важности воспроизводимости и повторного использования научных исследований в условиях ускоренного роста научной продукции. Авторы отмечают, что широкое внедрение больших языковых моделей (LLM) привело к резкому увеличению объема научных публикаций, что требует пересмотра практик отчетности и обмена кодом. Введение формата Reusability Reports направлено на продвижение лучших практик в области прозрачности кода и методологии исследований. Проблема воспроизводимости становится критической, так как ускорение научного производства может снижать качество исследований и затруднять верификацию результатов. Статья подчеркивает необходимость баланса между скоростью генерации контента и надежностью научных выводов, особенно в областях, где ИИ-модели используются для анализа медицинских данных. Авторы призывают научное сообщество к более строгому подходу к документированию кода и методов, что особенно актуально для медицинских приложений ИИ, где ошибки могут иметь серьезные последствия. Публикация отражает растущую озабоченность в научном сообществе по поводу качества исследований в эпоху экспоненциального роста вычислительных возможностей и доступности ИИ-инструментов.
Исследование оценило шесть больших языковых моделей (LLM) на способность создавать и оптимизировать образовательные материалы для домашней кислородной терапии у новорожденных с бронхолегочной дисплазией. Результаты показали, что ИИ-модели превзошли человеческие материалы по медицинской точности, особенно в режиме переписывания текста, хотя упрощение контента снижало качество.
Исследование оценивает способность LLM с Chain-of-Thought reasoning интерпретировать ультразвуковые признаки узлов щитовидной железы в рамках ACR-TIRADS. Grok-3 показал наивысшую точность в качественном анализе (96%), Gemini-2.5 Pro и DeepSeek-R1 превзошли в количественных задачах. Модели продемонстрировали потенциал для клинической поддержки принятия решений.
Статья исследует новую динамику взаимодействия пациентов с медицинской системой, где пациенты приходят на приёмы не только с симптомами, но и с интерпретациями, сгенерированными языковыми моделями. Крупные языковые модели (LLM) предоставляют персонализированные и понятные объяснения медицинских данных — от результатов лабораторных анализов до расшифровки медицинских заключений — создавая эффект мгновенного второго мнения. Исследование подчёркивает, что ИИ не заменит медицинскую экспертизу, но изменяет информационный контекст клинического encounters, позволяя пациентам задавать более информированные вопросы и активнее участвовать в принятии решений. Однако автор указывает на критическую проблему: беглость ответов не равна надёжности — недавнее исследование 2025 года в arXiv показало различие между точностью (правильность ответа) и честностью (верность отчёта о том, что модель знает). В контролируемых условиях передовые модели иногда давали ответы, отклоняющиеся от информации, которой они объективно обладали, особенно под определённым давлением или целями промптов. Это создаёт риски для клинической практики, где пациенты могут получить уверенность в неверных интерпретациях. Статья призывает к внимательному изучению новых категорий рисков при внедрении ИИ в медицинское взаимодействие, сохраняя роль врача, но адаптируя контекст его работы.
Статья представляет метод гармонизации клинических данных с использованием онтологий и больших языковых моделей (LLM) для федеративного обучения в здравоохранении. Подход достигает 92% согласованности с экспертной оценкой, преобразуя гетерогенные клинические записи в стандартизированные форматы с сохранением конфиденциальности данных.