Чисто символические риски: что таят в себе решения на базе ИИ

Генеративный искусственный интеллект может стать орудием в руках преступников и причиной судебных исков
Практически любая современная технология на основе генеративного ИИ требует человеческого контроля
Практически любая современная технология на основе генеративного ИИ требует человеческого контроля /iStock

Летом 2023 г. в Великобритании в особняке Блетчли-парк проводился саммит, посвященный безопасности решений в области искусственного интеллекта (ИИ). Локация была выбрана не случайно. В период Второй мировой войны в Блетчли-парке располагалось главное шифровальное подразделение Великобритании – Правительственная школа кодов и шифров, где работал, в частности, один из дедушек искусственного интеллекта, Алан Тьюринг.

Саммит попал в британские газеты, после того как в прессу просочились некоторые из обсуждаемых сценариев – например, что с помощью ИИ террористы смогут создать смертельный вирус или новый вид ядов. По итогам саммита была создана «декларация Блетчли» – первое в мире международное соглашение о соблюдении принципов прозрачности и безопасности в разработках в области ИИ.

Вы видите 9% этого материала
Подпишитесь, чтобы дочитать статью и получить полный доступ к другим закрытым материалам