Искусственный интеллект применяют 60% крупных и средних компаний
Но бизнес по-прежнему с большим недоверием относится к системам ИИИскусственный интеллект (ИИ) активно применяют 12% и тестируют 48% компаний крупного и среднего бизнеса по всему миру. Об этом говорится в исследовании Dentons, опубликованном 11 января. Данные получены по итогам онлайн-опроса в сентябре 2021 г. В нем участвовали 209 представителей бизнеса, в том числе из России.
Респонденты сообщили, что используют ИИ в системах взаимоотношений с клиентами, при администрировании процессов и в продажах. Но готовую стратегию или дорожную карту развития ИИ в своей организации имеют лишь 19% компаний.
Участники опроса также указали на проблемы ИИ, создающие риски для бизнеса. Наибольшую тревогу вызвала высокая стоимость систем ИИ – об этом сообщили 83% опрошенных. Также участники опроса выразили обеспокоенность защитой персональных данных (81%), уровнем контроля процесса принятия решений системой ИИ со стороны человека (81%), неопределенностью с тем, кто несет ответственность за действия или ошибки ИИ (80%), недоверием к ИИ и другими проблемами.
Полученная по итогам глобального опроса картина близка к российской действительности, сообщил «Ведомостям» Виктор Наумов, руководитель российской практики в области интеллектуальной собственности, информационных технологий и телекоммуникаций и соруководитель европейской практики в области регулирования интернета и технологий в компании Dentons. «Хотя можно выявить и отличия, например, обусловленные тем, что стоимость разработки решений ИИ у нас может быть ниже, чем за рубежом. Могут иметь значение и культурные отличия, восприятие, что считать более общественно опасным, а что – менее, а также где важнее общественные интересы, а где – частные», – поясняет Наумов. Полученный усредненный ответ о том, что интеллектуальная собственность, созданная ИИ, должна находиться в общественном достоянии, в России мог бы набрать больше, чем получившиеся для мира 4%, отметил эксперт.
В России сейчас многих беспокоит риск нарушений неприкосновенности частной жизни за счет использования технологий ИИ, рассказывает Наумов. В ближайшей перспективе остро встанет вопрос ответственности, и не только уголовной, за вред, причиненный при использовании этих технологий, ожидает он. «Конфликты в этой сфере имели место, но публичными и тем более хоть сколько-нибудь видимыми для рынка и общества их считать нельзя, – отметил Наумов. – Но можно ожидать появления публичных прецедентов в сфере идентификации лиц за счет обработки технологиями ИИ больших и персональных данных».
Результаты исследования демонстрируют высокий уровень недоверия респондентов к некоторым аспектам работы технологий ИИ, констатирует Алексей Рябов, советник президента Центра стратегических разработок. Больше половины из перечисленных респондентами главных проблем, создающих для них риски, связаны с этикой использования ИИ, отмечает первый заместитель председателя правления Сбербанка Александр Ведяхин. «Искусственный интеллект должен быть объективен, справедлив в принятии того или иного решения, контролируем человеком. Например, принимая решение о выдаче кредита, ИИ не должен опираться на характеристики о поле человека, его расовой и национальной принадлежности», – считает Алексей Сидорюк, директор по направлению «Искусственный интеллект» АНО «Цифровая экономика».
Особого внимания также заслуживает вопрос работы технологий ИИ в экосистемных компаниях и маркетплейсах в связи со значительной долей рынка, занимаемой такими компаниями, и количеством внутренних зависимых компаний-участников, считает Рябов. «Любое юридически или экономически невыверенное решение может существенно повлиять на выручку компаний, находящихся внутри бизнес-моделей экосистемных компаний или маркетплейсов, – например, в случае непрозрачной работы алгоритмов поисковой системы на интернет-ресурсах таких компаний и алгоритмов формирования цифровых профилей клиентов», – предупреждает он. Необходимо определить круг вопросов, решение по которым не может быть принято ИИ без участия человека, полагает эксперт. Бизнес-модели, где решение принимается ИИ автономно, должны быть построены на прозрачных алгоритмах, когда бы каждому участнику отношений были гарантированы универсальные правила работы, уверен он.
Главный барьер для развития технологий ИИ – это дефицит и высокая стоимость профильных специалистов Data Science, AI инженеров, руководителей проектов и продуктов ИИ и др., считает Сидорюк. «Остаются нерешенными вопросы обмена деперсонализированных датасетов для обучения ИИ-решений, естественно, с соблюдением всех норм закона и защиты данных граждан», – указывает он. Не менее важно, по его словам, наличие доверенной инфраструктуры, на которой проходит обучение ИИ-решений и их эксплуатация.
Политика цифровизации в России направлена на демократизацию и удешевление доступности ИИ для бизнеса, полагает директор Центра исследования цифровых технологий Финансового университета при правительстве РФ Антон Лосев. С появлением дешевых коробочных или open source решений и библиотек возможно создавать недорогие рекомендательные сервисы и системы принятия решений, считает он.