Войти в почту

Почему искусственный интеллект может оказаться опаснее атомной бомбы

В свое время нас пугали нашествием роботов, о чем снято множество триллеров. Сейчас страх перед роботами ушел на второй план, а появилась новая страшилка - искусственный интеллект. Он стал героем множества материалов, в том числе и катастрофических, которые обрушивают на простого человека СМИ. Не пугаем ли мы сами себя? Александр Кулешов: Сегодня мир вступает в эпоху искусственного интеллекта (ИИ). Вокруг него множество мифов и недопониманий. Кто-то называет его чуть ли не неким мессией, который спасет мир от всех бед и напастей, а другие, наоборот, считают его сродни всаднику апокалипсиса, который уничтожит цивилизацию и превратит нас в рабов техники. Подобные сценарии, конечно, крайности. А что в действительности? Ведущие государства приняли национальные программы в этой области. Лидирует Китай, который уже вкладывает около 170 миллиардов долларов в год. Расходы в США около 26 млрд долларов в год. Считается, что внедрение этих технологий обеспечит к 2025 году удвоение темпов роста ВВП ведущих стран и увеличение мирового ВВП на 15 трлн долларов. В ИИ вкладываются огромные деньги, а вы говорите о мифах, недопонимании… Александр Кулешов: Скажу больше. До сих пор нет общепринятого определения, что же такое ИИ. Более того, уже существуют разные системы ИИ, они распознают образы, переводят тексты, обыгрывают чемпионов в покер и го, но никто пока толком не может сказать, как этот феномен работает. Получается, этакий "черный ящик", где есть вход и выход, а что внутри - непонятно. Но специалисты нам объяснили, что ИИ - это программы, в которых построены модели нейронных сетей, имитирующих структуру мозга человека. И учатся эти сети так же, как учатся дети, на примерах. Ведь им не объясняют, что у кошки вот такие усы, такой хвост, такие уши. Им показывают животное и говорят - это кошка. Точно так же учится и искусственная нейронная сеть. Александр Кулешов: Это объяснение на пальцах того, что может происходить в "черном ящике", но как идет обучение, пока до конца непонятно. Причем еще недавно подобное казалось совершенно невозможным, но за последние годы произошел прорыв, и сейчас строить нейронные сети может студент 3-4-го курса. Но эта легкость обманчива и опасна. Потому что, повторяю, механизм действия до конца неясен. В чем конкретно вы видите опасность? Александр Кулешов: Есть такой термин - предвзятость ИИ. Предположим, вам надо научить нейросеть распознавать рак по снимкам МРТ. Ей показывают множество снимков и говорят, это рак, это не рак. Но кто дает исходную информацию? Врач! И нейросеть работает по алгоритму, созданному на основе информации, полученной от человека. Это и есть предвзятость ИИ. А вот куда более сложная ситуация. Вам надо научить ИИ разбираться в международной обстановке, чтобы понять, в какой зоне опасности - зеленой, желтой или красной - находится страна. Как это всегда делалось? Собиралось множество самых разных данных, а потом суперспециалисты проводили мозговой штурм. И принималось решение, какова степень опасности. Теперь представьте, что решение о пуске ракет будет принимать ИИ. Но он обучен на примерах, которые дали те самые специалисты. Поэтому интеллект лишь отобразит их представления, страхи, предвзятости. Он будет вести себя так же, как люди, его обучившие. То есть нейросеть - это наше зеркало. Что в нее заложили, то и получим. Только намного быстрей. Получается, что ее лучше обучать добру, а то зло может сработать почти мгновенно… Александр Кулешов: Прежде всего надо понять, где ее место. Есть множество сфер, где она дает огромные преимущества, например, распознавание образов, переводы текстов, множество чисто бытовых приложений. Но принципиально важно, что, поставив ей задачу, вы почти мгновенно получаете ответ. А вот если его надо ждать долго, то тут преимущества ИИ совсем неочевидны. Скорее всего им не стоит пользоваться. Но помимо обучающихся существует другой вид нейросетей. Их вообще ничему не учат. Они самоучки, овладевают навыками, зная только их правила. Так вот у них есть одно важнейшее свойство - неосознанная эффективность. Что это такое? Например, две нейросети играют в шахматы. В какой-то момент программа начинает применять защиту Каро-Канн, потом пользуется ей все чаще, затем реже и выходит на плато. Точно так же она выходит на французскую защиту, а дальше аналогичная картина. Так за 24 часа нейросеть нашла все стандартные шахматные дебюты, эндшпили и т.д. И повторяю, ее ничему не учили. Она знает правила, совершенно не понимает, что делает, но решает поставленную перед ней задачу - надо выиграть. Это и называется неосознанная эффективность ИИ. Честно говоря, сам термин "неосознанная" звучит довольно угрожающе, по сравнению с обучающими нейросетями... Все-таки от такой техники хотелось бы осознанности. Александр Кулешов: Вы правы. Это вещь в руках некоторых людей может оказаться опасней атомной бомбы. В связи с опасностями, которые несет ИИ, создан наш комитет. Целей несколько. Во-первых, просвещение, чтобы развеять мифы, объяснить общественности все плюсы и минусы ИИ. Во-вторых, убедить, что ИИ надо поставить под международный контроль. Вот есть МАГАТЭ, которое занимается вопросами атомной энергии. Но ИИ несет куда более серьезные опасности, и здесь жесточайший контроль просто необходим. Иначе миру грозят испытания, которые мы сегодня даже не можем представить. Конечно, надо запретить использовать ИИ в военных целых. И все это надо объяснять, донести до людей на всех континентах. То есть мы возвращаемся к просвещению. Наш комитет выработает рекомендации по этике ИИ. Профессор Сколтеха и глава нашего центра по ИИ и смежным технологиям (CDISE) Максим Федоров, который вошел в международную группу экспертов ЮНЕСКО по данному вопросу, представит российскую позицию на международной площадке. Искусственный интеллект надо поставить под жесткий международный контроль, иначе миру грозят испытания, которые мы даже не представляем Но в эту сферу вкладываются огромные деньги. Руководители стран заявляют: тот, кто будет иметь преимущество в сфере ИИ, будет править миром. Военная сфера является одной из приоритетных в этих исследованиях. Кто сможет остановить это стремление получить превосходство? Опыт показывает, что общественное мнение не столь влиятельно, как хотелось бы. Александр Кулешов: Опыт также показывает, что стремление к превосходству эффективней всего останавливать адекватным ответом. Какая ситуация в мире, скажем, в сфере суперкомпьютеров? В ТОП-500 у Китая их 228, у США - 112, у нас - три. Самый мощный занимает 29-е место. Мы находимся между Польшей и Южной Кореей. А в рейтинге в сфере ИИ эксперты поставили нас на 33-е место. Например, Эстония на 17-м. Число наших публикаций в этой сфере около одного процента. Надо срочно исправлять ситуацию. В 2019 году, наконец, принята Национальная стратегия развития искусственного интеллекта, так что Россия уже включилась в эту гонку. Нам надо развивать и собственную отрасль ИИ, и просвещать общественность, объяснять ей его преимущества и опасности.

Почему искусственный интеллект может оказаться опаснее атомной бомбы
© Российская Газета