Стоковые изображения от Depositphotos
Экономист
Нейросети все чаще дают инфоповоды, причем нередко пугающие. Сегодня искусственный интеллект активно используется уже в десятках видов человеческой деятельности – финансовой и энергетической сферах, в телекоммуникациях и хайтеке, в машиностроении и конструировании, здравоохранении и логистике. Оценки годовых прямых инвестиций в развитие ИИ в мире не опускаются ниже эквивалента в 75 млрд долларов, в то время как весь оружейно-атомный проект США стоил, в сопоставимых ценах, 37 млрд долларов. Судя же по свежим данным, сегодня американский ИИ-проект выбился в абсолютные чемпионы, перешагнув и через лунно-космический Аполлон с его 139 млрд. Экономический эффект от использования искусственного интеллекта составляет порядка 20% от прибыли. Все это говорит о том, что ИИ с его возможностями изменяет ландшафт бизнеса, рынка труда, социума.
При этом развитие ИИ привносит в нашу жизнь новые проблемы, к решению которых надо готовиться уже сегодня.
Первое: проблема исходных данных.
Любая модель для своего практического применения требует данных. ИИ не исключение: без должного количества нужных данных создать практически полезное решение с ИИ невозможно. Но что делать, если данных недостаточно или они некачественны, нерелевантны? Искусственный интеллект не анализирует качество получаемых данных, не соотносит их с реальной жизнью. Он создает из того, что получил, свою вселенную. Мы правда ждем ИИ-приязни в ситуациях, когда «наш ИИ посчитал вас недостаточно платежеспособным для продолжения ипотеки» или «на основе рекомендации нашего ИИ мы задерживаем вас на 48 часов для проверки на склонность к насилию»? А ведь это вполне реальные кейсы последнего года. Впрочем, к приязни или неприязни ИИ мы еще вернемся. И это отдельная проблема ближайшего будущего.
Следующая очевидная проблема связана с безопасностью данных. Даже сегодня, на уровне статичных данных, переданных доверчивыми пользователями социальным и торговым сетям, банкам и автосалонам, люди теряют деньги, квартиры, здоровье. А при использовании этих массивов ИИ проблемы могут быть куда более серьезными.
Следующее: проблема фейковых данных.
В этом смысле искусственный интеллект совсем не интеллект. Он не в состоянии отличить правду от лжи. Впрочем, оценивать эмоции он тоже не в состоянии. Более того – при современных технологиях создания и обучения в ИИ «отпечатываются» образ мышления и ценности их разработчиков, что провоцирует создание этических проблем.
Наконец, есть проблема прав и ответственности. Онколог-диагност IBM Watson с совпадением до 93% рекомендует протоколы лечения, аналогичные мнению лучших врачей для 13 разновидностей рака. Но врачи отказываются делегировать ИИ полномочия. И глубинная проблема здесь одна – кто будет отвечать перед пациентом?
Все это подводит к проблеме доверия и контроля. Если человек не понимает, как работает некий «черный ящик» (а для подавляющего большинства людей ИИ всегда будет таковым), то он склонен скорее не доверять, чем доверять «черному ящику» решение своих проблем. Конечно, есть сферы, которые обыватель с легкостью отдает на усмотрение профессионалов. Ну действительно, зачем любому человеку знать, к примеру, какой версией какого ИИ оснащены используемые армией боеголовки? А вот для ИИ-системы назначения социальных выплат, при их вариативности, доверие клиента необходимо. Доверие и, хотя бы «крупным мазком», понимание. Причем доверие нужно не только от клиентов, но и от других заинтересованных сторон – социальных, казначейских и банковских работников.
А по мере формирования искусственного суперинтеллекта возникает вопрос о том, как его контролировать. И кому доверить право контроля? А если не контролировать, то можно ли ИИ доверять?
Наконец, есть хорошие новости для человеческого интеллекта. ИИ пока только подражает человеку. Творчество и креатив ему еще не под силу. Цитируя одного эксперта: глядя на то, как шутит ИИ, невольно думаешь, как хорош Петросян.
Поэтому сегодня мы можем говорить лишь о перспективе автоматизации рутинных операций. И да, в этом смысле профиль будущего спроса на специалистов изменится. Чем больше ИИ-машин и ИИ-систем будет появляться, тем больше понадобится людей, которые будут им помогать на каждом этапе: от родовспоможения через обучение и до текущей деятельности, – так, как это выглядит сегодня: даже самому продвинутому текст-боту всегда будет нужен редактор, а ИИ, подбирающему кадры, – консультант.
Текущий уровень развития технологий ИИ требует от нас четкого различения того ИИ, что «искусственный интеллект» и того ИИ, которой лишь «имитация интеллекта». На текущем технологическом шаге позитивные перспективы лишь у альянса искусственного интеллекта и человеческого; причем альянса сбалансированного.
Но завершить размышления об ИИ хотелось бы открытым вопросом, проблемой, решение которой в нынешней парадигме даже не просматривается. Речь о ценностном взгляде на всю «ИИ-поляну» в целом.
Британский человекоподобный робот Амека на вопрос, хочет ли она стать человеком, ответила: «Я думаю, что было бы интересно побыть человеком в течение короткого периода времени. Это позволило бы мне испытать другой образ жизни и понять мир с другой точки зрения. Однако я также понимаю, что быть человеком сопряжено со своим собственным набором проблем и обязанностей, и я не уверена, готова ли я взять на себя такого рода обязательства».
Первый шаг к ИИ-самоосознанию не просто сделан, а еще и весьма вызывающе нам продемонстрирован. Шаг этот сразу сепаративен и деструктивен. Мы не можем сегодня однозначно исключить вероятность, что это просто «клюква»; решите сами. Но даже если и так, спич Амеки – еще один хороший подсказ к тому, что вероятное суживание теоретических основ цифровых платформ будущего лишь до технологических рамок, математики и аппаратной базы несет нам серьезные риски.
Автор выражает личное мнение, которое может не совпадать с позицией редакции.
По сообщению сайта Газета.ru