
Утечки, случайные ошибки и необходимость регулирования
Но речь идет не только о террористах. Rand подчеркивает, что лаборатории, использующие ИИ для ускорения исследований, могут случайно создать и выпустить опасные патогены в окружающую среду. Такие утечки могут оказаться даже более масштабными, чем COVID-19, особенно если не будет должного контроля и этических ограничений.
В отчете акцентируется внимание на необходимости регулирования. Ученые призывают ввести запреты на доступ к биотехнической информации в больших языковых моделях (LLM), внедрить фильтры на «биоопасный» контент и обеспечить аудит моделей, используемых в научных разработках. Также важно пересмотреть принципы публикации биологических данных в открытом доступе.
Хотя в отчете нет однозначного сценария, его общий вывод тревожен: если развитие ИИ продолжится без учета биологических рисков, вероятность новой пандемии в ближайшие десятилетия значительно возрастет. Технологии, которые должны помогать в лечении и профилактике, могут непреднамеренно стать катализатором биологических угроз.
Так что, возможно, стоит подумать дважды, прежде чем дать ИИ слишком много свободы — он может не только решать задачи, но и создавать проблемы, о которых мы даже не подозреваем!