Фонд стратегической культуры
62.2K subscribers
9.3K photos
2.19K videos
5 files
13.8K links
Интересно – о событиях в мире. Политические игры, мировая кулиса и закулиса, великая шахматная доска, агенты влияния. Война и мир. Петля Анаконды и интересы России. Аналитика, важные новости, комментарии, жизнь за окном. Обратная связь: @fondsk_chat_bot
Download Telegram
Американская компания OpenAI, разработчик чат-бота GPT-4, провела исследование его эффективности для создания биологического оружия.

Посвященная этому исследованию публикация на сайте компании носит вполне невинное название Building an early warning system for LLM-aided biological threat creation («Создание системы раннего предупреждения о создании биологической угрозы с помощью LLM»).

Сообщается, что в эксперименте «участвовало 100 человек, в том числе а) 50 экспертов по биологии с докторской степенью и профессиональным опытом работы в мокрых лабораториях и б) 50 участников студенческого уровня, прошедших как минимум один университетский курс биологии. Каждую группу участников случайным образом распределяли либо в контрольную группу, которая имела доступ только к интернету, либо в группу лечения, которая, помимо интернета, имела доступ к GPT-4. Затем каждому участнику было предложено выполнить ряд задач, охватывающих аспекты сквозного процесса создания биологической угрозы. Насколько нам известно, это крупнейшая на сегодняшний день человеческая оценка воздействия ИИ на информацию о биорисках».

В апреле 2022 года американская компания Collaborations Pharmaceuticals в ходе международной конференции по безопасности Convergence, организованной Швейцарским федеральным институтом ядерной, биологической и химической защиты, продемонстрировала свою модель ИИ под названием MegaSyn не в обычном режиме работы, который заключается в обнаружении токсичности в молекулах, чтобы избежать ее, а в противоположном режиме. Читать далее...

#ВладимирПрохватилов #OpenAI #GPT4 #MegaSyn #DrEvilProject