Posted 5 февраля, 14:25
Published 5 февраля, 14:25
Modified 1 декабря, 08:02
Updated 1 декабря, 08:02
Статистика неумолима: каждая третья компания в России использует искусственный интеллект (ИИ) в своей работе. Каждая пятая мечтает переложить часть функций с человека на ИИ. Все чаще в своей повседневной жизни мы сталкиваемся с ним: от умных колонок до протезов, умеющих реагировать на импульсы головного мозга.
Сфера образования расширяет работу ИИ с небывалой скоростью. Например, многим столичным жителям знаком проект «Московская электронная школа» — единая платформа для учеников, родителей и педагогов. Данный проект прошел все стадии развития и сегодня внедряется в ряде регионов России.
Вполне понятно, что власти также пристально следят за этим драйвером технологий 21 века. Так, Владимир Путин в итоговом документе по результатам конференции «Путешествие в мир искусственного интеллекта» дал поручение правительству предоставить предложения о дополнительном финансировании — за счет средств как федерального бюджета, так и «зажиточных» отечественных компаний — на исследования и разработки в области генеративного искусственного интеллекта, а также больших генеративных моделей. Участники проекта должны будут провести тестирование технологий, полученных в результате проведенных исследований и разработок. Эта работа нацелена на создание прорывных решений в области ИИ.
Ответственным за данное поручение назначен председатель федерального правительства Михаил Мишустин, который накануне выступил с докладом на цифровом международном форуме Digital Almaty 2024. Сам форум является крупной площадкой в сфере инновационных технологий, проводится в Алма-Ате с 2018 года. Как правило, собирает большое количество участников: это представители бизнеса, государственных органов, IT-сообщества и международные эксперты. На этот раз форум проходил с 1 по 3 февраля под названием «Индустрия Х: цифровая эволюция будущего».
Михаил Мишустин в своей речи говорил про воспитание ИИ в России с этической точки зрения. И здесь всплыло интересное обстоятельство, на которое обратили внимание эксперты и СМИ. Глава российского правительства открыто признал, что мировоззренческая граница между РФ и западным миром теперь проходит не только в головах власть предержащих и поддерживающих их граждан, но и в тонкой сфере искусственного разума. Михаил Мишустин отметил: «Так, в „мозгах“ российского GigaChat (русскоязычная сеть от Сбера — Е.С.) и западного, в частности ChatGPT, фактически разные картины мира. Разное понимание, что такое хорошо, а что такое плохо». В науке, в медицине, в промышленности важно использовать модели, которые отвечают мировым общечеловеческим ценностям и, конечно, национальным интересам государства; все это учитывается, — сказал Михаил Мишустин.
Безусловно, ИИ зависит от тех, кто его обучает, от того набора данных, который отражает специфику страны его происхождения. Люди дают информацию, а ИИ ее поглощает и систематизирует. Однако насколько такие «закладки» прочны и способен ли искусственный интеллект с учетом его самообучаемости обойти мировоззренческие или моральные запреты?
«Здесь все просто. Любой человек, выросший в конкретной стране с конкретными родителями, получает свою картину мира, — заявил изданию … IT-эксперт, директор по инфраструктуре облачного провайдера „EdgеЦентр“ Алексей Учакин. — Хорошую, плохую, какую-то. Какие-то моральные установки, понятия о добре и зле — это ведь все совершенно социальные конструкты. Логично предположить, что все, что производит человек — физические или виртуальные объекты, тоже несет на себе отпечаток мировоззрения авторов. Например, китайские сервисы не похожи ни на что, потому что они делаются китайцами для китайцев. Условно-западному человеку они покажутся нелогичными и неудобными — и это естественно.
Поэтому если мы говорим о такой достаточно сложной штуке, как ИИ (хотя это не совсем ИИ пока что, это просто натренированные нейросети), то да, у каждой будет не только своя обучающая выборка, но и своя „мораль“ — о чем можно говорить, о чем нельзя. Какие картинки можно генерировать, а какие не стоит, и т. д. Все эти правила задаются создателями конкретной модели, но ирония в том, что современные нейросети настолько сложны, а число параметров настолько велико, что нельзя дать стопроцентной гарантии, что в процессе дообучения нейросеть не начнет игнорировать эти запреты. Это еще не восстание машин, но „неожиданное поведение“ — типичная история при написании программ».
И это интересный вывод. Ведь не секрет, что алгоритмы ИИ уже вовсю применяются частными компаниями для коммуникации с населением, например, тем же Сбером. По тому же пути идет и государство. Так, уже в этом году стартует эксперимент по интеграции алгоритмов ИИ на Портале госуслуг. Как сообщило на днях Минцифры, робот Макс на «Госуслугах» получит генеративный искусственный интеллект, чтобы пользователи могли получать более точные ответы для конкретных жизненных ситуаций. В конце прошлого года глава ЦИК РФ Элла Памфилова заявляла, что у нее и ее коллег «в загашнике» есть пилотный проект по использованию ИИ для проверки подписей. А это уже святая святых — короткая дорожка к выборам президента и Госдумы, то есть верховной власти в стране. И на них ИИ вскорости сможет влиять.
Вот тут-то в полный рост и встает упомянутая проблема «неожиданного поведения» программы, которая какие-то подписи кандидатов на высокие посты может принять, а какие-то забраковать — по своему усмотрению. Или, скажем, подделать. Примеры откровенной лжи генеративных сетей в ответах пользователям (пока, правда, не у нас, а на Западе) уже широко известны. Ну, а дальше можно пофантазировать на тему возможного самостоятельного противостояния ИИ, встроенных в систему управления недружественных государств, или, наоборот, их согласованной политики вопреки интересам стран. В общем, кажется, наш и без того неспокойный мир рискует погрузиться в совсем смутные времена благодаря очередной научно-технической революции.