Терминаторы не страшны

Если раньше люди жаловались, что идея искусственного интеллекта (ИИ) провалилась, то теперь ужасаются, что ИИ шагнул так далеко вперед
Если раньше люди жаловались, что идея искусственного интеллекта (ИИ) провалилась, то теперь ужасаются, что ИИ шагнул так далеко вперед / AP

"Если раньше люди жаловались, что идея искусственного интеллекта (ИИ) провалилась, то теперь ужасаются, что ИИ шагнул так далеко вперед", – говорит Мустафа Сулейман, глава подразделения прикладных систем ИИ в лондонской компании Google DeepMind, купленной Google в прошлом году за $400 млн.

Компания DeepMind привлекла к себе всеобщее внимание в прошлом году – ее специалисты напечатали в Nature статью о том, как компьютер может научиться играть в видеоигры лучше людей. Приложения ИИ долгое время оставались не слишком убедительными, но DeepMind сделала важный шаг вперед: вместо того чтобы обучать машину каждой игре по отдельности, можно сделать так, чтобы она использовала знания, накопленные в предыдущих играх, для самообучения новым.

Сулейман называет этот прорыв в области ИИ наиболее значительным за очень долгий период. Но достигнутый успех пробудил у многих беспокойство по поводу потенциальных рисков от развития ИИ. В числе прочих свою озабоченность высказали такие видные фигуры, как астрофизик Стивен Хокинг, основатель Microsoft Билл Гейтс и глава компании Tesla Илон Маск, бывший одним из первых инвесторов DeepMind.

Разговоры об этих рисках заняли слишком большое место, они только отвлекают людей от подлинных этических проблем, проблем с безопасностью, говорит Сулейман. DeepMind смотрит на ИИ по-другому: это будет чрезвычайно мощный инструмент, который мы сможем контролировать и направлять. В нашей власти будет ограничить возможности этого инструмента так же, как мы делаем это с любым другим инструментом, будь то стиральная машина или трактор.

Сейчас в DeepMind работает около 140 исследователей из разных стран. Технологии машинного обучения широко применяются в Google. Так, в мае корпорация представила новую функцию своего фотографического сервиса, позволяющую пользователю искать изображения с помощью текстовых меток типа «кровать», «ребенок», «праздник» и т. п., даже если в исходном снимке таких меток нет.

Впрочем, DeepMind трезво оценивает риски. Одним из условий сделки с Google было создание в компании совета по этике и безопасности. Кроме того, оговаривалось, что Google не имеет права использовать какие-либо разработки DeepMind в области ИИ для военных или разведывательных целей. Правда, спустя год после поглощения известий о создании такого совета нет, несмотря на неоднократные запросы ученых и СМИ. Зато был организован экспертный совет по проблеме «права на забвение», активно обсуждаемой в Европе.

WSJ, 8.06.2015, Александр Силонов