Терминаторы не страшны
"Если раньше люди жаловались, что идея искусственного интеллекта (ИИ) провалилась, то теперь ужасаются, что ИИ шагнул так далеко вперед", – говорит Мустафа Сулейман, глава подразделения прикладных систем ИИ в лондонской компании Google DeepMind, купленной Google в прошлом году за $400 млн.
Компания DeepMind привлекла к себе всеобщее внимание в прошлом году – ее специалисты напечатали в Nature статью о том, как компьютер может научиться играть в видеоигры лучше людей. Приложения ИИ долгое время оставались не слишком убедительными, но DeepMind сделала важный шаг вперед: вместо того чтобы обучать машину каждой игре по отдельности, можно сделать так, чтобы она использовала знания, накопленные в предыдущих играх, для самообучения новым.
Сулейман называет этот прорыв в области ИИ наиболее значительным за очень долгий период. Но достигнутый успех пробудил у многих беспокойство по поводу потенциальных рисков от развития ИИ. В числе прочих свою озабоченность высказали такие видные фигуры, как астрофизик Стивен Хокинг, основатель Microsoft Билл Гейтс и глава компании Tesla Илон Маск, бывший одним из первых инвесторов DeepMind.
Разговоры об этих рисках заняли слишком большое место, они только отвлекают людей от подлинных этических проблем, проблем с безопасностью, говорит Сулейман. DeepMind смотрит на ИИ по-другому: это будет чрезвычайно мощный инструмент, который мы сможем контролировать и направлять. В нашей власти будет ограничить возможности этого инструмента так же, как мы делаем это с любым другим инструментом, будь то стиральная машина или трактор.
Сейчас в DeepMind работает около 140 исследователей из разных стран. Технологии машинного обучения широко применяются в Google. Так, в мае корпорация представила новую функцию своего фотографического сервиса, позволяющую пользователю искать изображения с помощью текстовых меток типа «кровать», «ребенок», «праздник» и т. п., даже если в исходном снимке таких меток нет.
Впрочем, DeepMind трезво оценивает риски. Одним из условий сделки с Google было создание в компании совета по этике и безопасности. Кроме того, оговаривалось, что Google не имеет права использовать какие-либо разработки DeepMind в области ИИ для военных или разведывательных целей. Правда, спустя год после поглощения известий о создании такого совета нет, несмотря на неоднократные запросы ученых и СМИ. Зато был организован экспертный совет по проблеме «права на забвение», активно обсуждаемой в Европе.
WSJ, 8.06.2015, Александр Силонов