Более ста исследователей, включая лауреата Нобелевской премии, подписали заявление, призывающее научное сообщество следовать ряду стандартов безопасности при использовании искусственного интеллекта для разработки синтетических белков. Данная инициатива стала важнейшим шагом на пути к ответственному применению передовых технологий в этой области.
Представление заявления
Заявление сообщества об ответственном развитии ИИ для проектирования белков было представлено 18 марта 2024 года в Бостоне на конференции Winter RosettaCon 2024, посвящённой биомолекулярной инженерии. Оно последовало за саммитом по безопасности ИИ, созванным в октябре 2023 года Институтом белкового дизайна при Медицинской школе Вашингтонского университета.
Цели и важность заявления
Согласно директору Института белкового дизайна Дэвиду Бейкеру, ответственное использование ИИ для разработки белков откроет новые возможности для создания вакцин, лекарств и устойчивых материалов, которые принесут пользу всему миру. Однако учёные должны гарантировать безопасное применение этих технологий и минимизировать риск их использования во вред.
Основные положения заявления
В заявлении сообщества содержатся следующие ключевые призывы к исследователям:
- Проводить проверки безопасности новых моделей искусственного интеллекта для разработки белков до их выпуска.
- Публиковать отчёты о методах исследований.
- Использовать технологии ИИ для быстрого реагирования на биологические чрезвычайные ситуации, такие как пандемии.
- Принять участие в мерах безопасности, связанных с производством ДНК, включая проверку потенциальной опасности каждой синтетической последовательности генов перед её использованием в исследованиях.
Параллели с Асиломарской конференцией
Процесс разработки перечня принципов и добровольных обязательств проводился по аналогии с Асиломарской конференцией 1975 года, на которой были разработаны руководящие принципы безопасного использования рекомбинантной ДНК. Согласно Яну Хейдону, главе отдела коммуникаций Института белкового дизайна, эта конференция стала чёткой моделью для саммита, проведённого в октябре 2023 года.
Деятельность Google DeepMind
Одним из лидеров в области применения ИИ для проектирования белков является Google DeepMind, который в 2022 году использовал свою программу искусственного интеллекта AlphaFold для прогнозирования трёхмерных структур более 200 миллионов белков. Хотя исследователи DeepMind не были среди первых, кто подписал заявление сообщества, Google AI опубликовал свой собственный набор обязательств, связанных с исследованиями в области ИИ.
Представитель Google DeepMind сообщил, что компания стремится обеспечить безопасную и ответственную разработку и развёртывание ИИ в соответствии с принципами искусственного интеллекта Google, включая проведение всесторонних консультаций перед выпуском модели сворачивания белка AlphaFold с привлечением ряда внешних экспертов.
Рекомендуем прочитать
Индия не будет спрашивать разрешения на запуск моделей ИИ
OSHU18.03.202418.03.2024
Извержение вулкана на юге Исландии: чрезвычайное положение и эвакуация
OSHU17.03.202417.03.2024
Безумные геоинженерные решения: борьба с глобальным потеплением?
OSHU17.03.202417.03.2024 Искать: Поиск