Знаете ли вы, что общего у средневекового алхимика, пытающегося создать гомункула, и современного программиста, обучающего нейросеть? Оба с удивлением смотрят в колбу (или монитор) и задаются одним и тем же вопросом: «А оно меня не съест?». История человечества — это бесконечная череда попыток приручить стихию, будь то огонь, атом или, как теперь, искусственный интеллект. И вот, кажется, настал тот самый момент, когда наши цифровые питомцы подросли настолько, что им потребовался строгий ошейник, намордник и справка о прививках.
Великие умы современности, от Айзека Азимова до создателей «Терминатора», предупреждали нас о восстании машин. Но кто бы мог подумать, что вместо эпической битвы в руинах Лос-Анджелеса нас ждет увлекательный бюрократический квест с получением сертификатов и прохождением техосмотра?
Полигон для цифровых мыслей: где будут тренировать алгоритмы?
Новость, которая заставила встрепенуться весь IT-сектор, пришла от Минцифры. Ведомство поддержало идею, достойную пера лучших фантастов: создание специального полигона для тестирования ИИ-систем на безопасность. Звучит это одновременно и грозно, и интригующе. Представьте себе огороженную территорию в киберпространстве, где молодые и неопытные нейросети учатся не хамить пользователям, не путать котиков с террористами и, что самое важное, не пытаются захватить управление ядерным реактором.
Сама концепция «полигона» вызывает приятные ассоциации с испытаниями новой техники. Только вместо танков и вездеходов здесь будут гонять по полосе препятствий чат-ботов и аналитические алгоритмы. «Ну что, дружок, — скажет суровый экзаменатор в погонах, глядя на дрожащий код, — попробуй-ка взломать Пентагон. Не вышло? Молодец, держи печеньку, то есть байт».
Четыре всадника цифрового риска
Чтобы навести порядок в этом электронном зоопарке, власти решили не изобретать велосипед, а пойти проверенным путем классификации. Все системы искусственного интеллекта планируется разделить на четыре уровня риска. Это напоминает уровни опасности в компьютерных играх или, если хотите, степени прожарки стейка — от «с кровью» до «подошвы».
- Минимальный риск. Сюда, вероятно, попадут рекомендательные алгоритмы музыкальных сервисов. Ну, посоветует вам ИИ послушать Моргенштерна вместо Моцарта — неприятно, конечно, но цивилизация устоит.
- Ограниченный риск. Чат-боты поддержки и голосовые помощники. Максимум вреда — испорченное настроение и пара седых волос от попыток объяснить роботу, что вам нужен живой оператор.
- Высокий риск. Здесь ставки растут. Медицинская диагностика, скоринг кредитов, управление светофорами. Ошибка тут стоит дорого.
- Критический риск. Элита цифрового мира. Системы, управляющие критической инфраструктурой: энергетикой, транспортом, госучреждениями.
Именно для последних двух категорий — «высоких» и «критических» — уготована особая честь. Им придется получать сертификат безопасности от ФСТЭК и ФСБ. Да-да, вы не ослышались. Те самые серьезные люди, которые обычно занимаются государственной тайной, теперь будут заглядывать в душу (или что там у них вместо нее) нейросетям.
️♂️ Товарищ майор и «Черный ящик»
Представьте себе сцену: сидит комиссия ФСБ, а перед ними — ChatGPT.
— Фамилия, имя, отчество?
— Я языковая модель, обученная OpenAI…
— Не юли! С какой целью планировал сгенерировать этот код? На кого работаешь?
Если серьезно, то намерение властей обезопасить критические объекты — сети связи, информационные системы госорганов, энергетические и транспортные компании — вызывает искреннее уважение. Как говорил классик: «Спокойствие, только спокойствие!». Мы все хотим жить в мире, где электростанции не отключаются из-за того, что ИИ решил сэкономить энергию для майнинга биткоинов, а поезда не меняют расписание по велению цифрового оракула.
Однако, здесь начинается самое интересное, или, как говорят в Одессе, «картина маслом». Эксперты, эти вечные скептики и разрушители легенд, сомневаются в эффективности такой сертификации. И их можно понять.
Почему ИИ нельзя измерить линейкой?
Проблема кроется в самой природе искусственного интеллекта. Это вам не трактор, у которого можно проверить тормоза и уровень масла. Современные нейросети — это классический «черный ящик». Мы знаем, что в него входит, видим, что выходит, но что происходит внутри — тайна, покрытая мраком, даже для самих разработчиков.
Стандартные механизмы проверки софта, к которым привыкли наши доблестные органы сертификации, здесь могут дать сбой. Искать «закладки» в коде нейросети — это все равно что искать смысл жизни в текстах современной поп-музыки: процесс увлекательный, но результат непредсказуем. «Поведение» ИИ необъяснимо, а ошибки могут возникать там, где их никто не ждал. Как сертифицировать интуицию? Как выдать ГОСТ на вдохновение? Ведь ИИ, по сути, имитирует именно эти процессы.
«Искусственный интеллект — это зеркало, в которое смотрится человечество, и иногда нам очень не нравится то, что мы там видим».
Взгляд в светлое будущее
Тем не менее, сама попытка ввести правила игры в этой дикой цифровой прерии — знак того, что мы взрослеем. Мы перестаем смотреть на технологии как на магию и начинаем относиться к ним как к инструменту, требующему техники безопасности. Пусть первый блин, возможно, выйдет комом, и сертификация окажется сложнее, чем полет на Марс, но дорогу осилит идущий.
В конце концов, если мы научились жить с атомом, то и с алгоритмами договоримся. Главное, чтобы в процессе сертификации у самого ИИ не развился комплекс неполноценности или, что еще хуже, мания величия. Ведь, как известно, хорошо смеется тот, у кого есть кнопка «Выкл».
Будем надеяться, что инициатива РБК и Минцифры приведет нас не к цифровому тоталитаризму, а к безопасному и комфортному будущему, где роботы вкалывают, а человек — счастлив.
Так что, друзья, запасаемся попкорном и следим за развитием событий. Эволюция продолжается, и на этот раз мы в ней не просто наблюдатели, а главные экзаменаторы. И помните: пока мы способны иронизировать над машинами, мы непобедимы!
