«Чем более доверенный интеллект создают, тем это опаснее для общества, потому что мы сознательно, с огромным удовольствием отдаем в руки ИИ принятие решений. Это грандиозное изменение человеческой сущности», — бьют тревогу российские академики. В числе рисков — дипфейки, попытки заменить человеческий мозг, сохранность персональных данных и многое другое. О том, какую альтернативу мощным суперкомпьютерам без высокой микроэлектроники сможет создать Россия, почему ИИ — новый атомный проект, а в казанской декларации БРИКС отразят вопросы искусственного интеллекта, — в материале «БИЗНЕС Online».
Сергей Рыбаков: «10 лет назад лучшие системы искусственного интеллекта в мире не могли классифицировать объекты на человеческом уровне. <…> Сегодня они по стандартным критериям регулярно превосходят человеческие возможности»
«ИИ регулярно превосходит человеческие возможности»
«10 лет назад лучшие системы искусственного интеллекта в мире не могли классифицировать объекты на человеческом уровне. <…> Сегодня они по стандартным критериям регулярно превосходят человеческие возможности», — открывал накануне заседание дискуссионного клуба Ecumene его программный директор Сергей Рыбаков. Для разговора о будущем стремительно развивающейся технологии он собрал ведущих российских академиков, представителей бизнеса и власти. И на фоне новостей о колоссальных инвестициях в ИИ, которые почти ежедневно поступают от мировых гигантов, тезисы, озвученные спикерами, обрисовали расклад сил довольно отрезвляюще.
Тон задал замглавы минцифры РФ, президент Академии криптографии РФ Александр Шойтов. По его словам, если в течение пяти лет в России не внедрить большинство технологий вроде интернета вещей, сетей 5G и 6G, искусственный интеллект и прочее, то страна сильно отстанет в мировом масштабе. Но сделать это не так-то просто. Первая сложность — санкции, которые отрезали страну от поставок и взаимодействия с научным сообществом. Вторая — отсутствие собственной электронной компонентной базы. «К сожалению, этого у нас нет, и создавать подобное крайне сложно и в России, и в кооперации с нашими дружественными странами», — признал он.
А в случае с искусственным интеллектом есть еще один нюанс — это вопросы доверия (надежно ли функционирует ИИ) и информационной безопасности. Шойтов убежден, что конкретные риски должны быть определены по стандартной схеме в кибербезе, но по самой сложной модели. Например, если ИИ управляет ядерным реактором, с помощью которого обрабатываются данные, содержащие гостайну, и в этом реакторе есть внутренний нарушитель, а сами атаки осуществляют иностранные спецслужбы.
«В Кодексе этики искусственного интеллекта прямо прописано: мы будем обеспечивать информационную безопасность самыми современными средствами. И в то же время есть пять видов известных атак на искусственный интеллект! Никто из тех, кто присоединился к [кодексу], к сожалению, не реализовал методы противодействия этим атакам. Я не знаю ни одного», — констатировал замглавы минцифры РФ.
Александр Сергеев попытался объяснить, как через благо, которое несет научно-технический прогресс, автоматически появляется зло. По его словам, развитие искусственного интеллекта похоже по своему объему влияния и последствиям на атомный проект
ИИ — новый атомный проект, а кумир создателя Сhat GPT — Оппенгеймер
Научный руководитель национального центра физики и математики, академик РАН Александр Сергеев пошел еще дальше и попытался объяснить, как через благо, которое несет научно-технический прогресс, автоматически появляется зло. По его словам, развитие искусственного интеллекта похоже по своему объему влияния и последствиям на атомный проект. «Здесь очень интересно привести пример Сэма Альтмана, создателя и директора Open AI, который считает Роберта Оппенгеймера, руководителя Манхэттенского проекта, своим идеалом, кумиром. Что интересно, они родились в один и тот же день — 22 апреля. В тот же день родился Владимир Ильич Ленин. Вот такой очень интересный день есть у нас в году», — рассказал Сергеев.
Одно из основных применений искусственного интеллекта — цифровые двойники, которые должны отличаться предиктивностью, считает ученый. И даже в этом вопросе пример снова нашли из атомной отрасли. «Одна из важнейших задач атомной отрасли — сделать цифровой двойник атомной станции. То есть не просто систему, которая описывает, что сейчас происходит с подсистемами, теплопередачей, генератором электричества, а [работает] предиктивно. Другими словами, алгоритм подсказывает оператору атомной станции, как дальше будет вести себя система, и помогает ему в случае возникновения сложных ситуаций быстро их купировать. Если подобное будет сделано в атомной отрасли, это [станет] грандиознейшим прогрессом. И это одна из задач, над которой сейчас работает „Росатом“. Если нам удастся смоделировать управление атомными станциями, то в других гораздо более простых ситуациях, конечно, мы с этим справимся».
Чем более доверенным становится искусственный интеллект, тем больше люди опираются на него в плане принятия решений, опасается Сергеев. «Если он начинает за нас принимать решения, точнее и лучше, чем мы сами, мы говорим: „Ну супер, пускай он принимает решения“. А мы передадим ему все наши персональные данные, потому что он дает нам великолепные советы. <.> К сожалению, человеческая натура такова, что большинство с этим согласится. Передача принятия решений искусственному интеллекту — это грандиозное изменение человеческой сущности, устройства человеческого общества. И чем более доверенный интеллект создают, тем это опаснее для общества, потому что мы сознательно, с огромным удовольствием отдаем в руки ИИ принятие решений», — считает он.
Еще академика беспокоит развитие общества постправды, к которому ведет ИИ, и сохранность персональных данных. «Это три основные угрозы, которые несет неизбежное развитие искусственного интеллекта и к решению которых нам надо быть готовыми, ведь общество через 10–15 лет будет совсем другим», — резюмировал он.
Языковая модель ChatGPT включает в себя более 170 млрд варьируемых параметров и была обучена на более чем 400 гигабайтов обучающих текстов, напомнил сопредседатель научных направлений национального центра физики и математики, академик РАН Игорь Каляев
Российский ответ суперкомпьютерам
Языковая модель ChatGPT включает в себя более 170 млрд варьируемых параметров и была обучена на более чем 400 гигабайтов обучающих текстов, напомнил сопредседатель научных направлений национального центра физики и математики, академик РАН Игорь Каляев: «Для сравнения: все произведения Шекспира весят всего 5,5 мегабайта. И если вы будете читать по одной странице текста в минуту, 24 часа в сутки, для того чтобы повысить свой уровень до ChatGPT, вам нужно 400 лет», — привел наглядный пример он.
«Наши попытки создания ИИ, который заменил бы наш мозг с помощью стандартных компьютерных технологий, с моей точки зрения, это путь в никуда», — продолжил академик. Кроме того, обеспечить эффективное использование больших суперкомпьютеров крайне сложно, по его словам, человеческий мозг «уже с этим не справляется». А вот искусственный интеллект помочь может.
В качестве отечественной альтернативы в НЦФМ развивают в том числе нейроморфные вычислительные системы — они функционируют по принципам, присущим мозгу человека. Работают они на базе мемристоров — нового типа проводников с эффектом памяти, сопротивление которого меняется в зависимости от того, какое действие с ним проводили до этого. «Чем больше вы через него пропускаете электрического заряда, тем у него более меняется его сопротивление. И это свойство напоминает свойство нейронов человека, в частности синапсов», — объяснял Каляев, подчеркивая, что эти системы не требуют высоких микроэлектронных технологий. «Не нужно [достигать топологии чипов] 7 или 10 нанометров. Те микроэлектронные технологии, которые есть у нас в стране, позволяют нам такую элементную базу создавать», — рассказал ученый.
Арутюн Аветисян: «Мы не стремимся в ближайшие сроки создать технологии, как у NVIDIA, нам важнее обеспечить безопасность данных с репозиторием доверенных решений, в которых аккумулируются знания ученых из дружественных стран»
«…и к 2030 году все поймут, что мы великая айтишная держава»
Кроме технологической составляющей, есть и гуманитарная, указал директор Института системного программирования им. Иванникова, академик РАН Арутюн Аветисян. В качестве иллюстрации он привел историю с одним гонконгским банкиром, которого в феврале этого года вызвали на «встречу в формате ВКС с головным офисом». Но видео псевдо-ВКС было сгенерировано искусственным интеллектом, и в результате банкир перевел мошенникам $25 миллионов.
Это только одна из причин, по которой многие страны стремятся зарегулировать работу ИИ. Например, в США было подписано соглашение, в рамках которого американские техногиганты разработают и внедрят систему водяных знаков для визуального и аудиоконтента. Фактически это означает криминализацию ИИ, указал он. В России помочь обеспечить безопасность может помочь репозиторий проверенного искусственного интеллекта.
«Мы не стремимся в ближайшие сроки создать технологии, как у NVIDIA, нам важнее обеспечить безопасность данных с репозиторием доверенных решений, в которых аккумулируются знания ученых из дружественных стран. Все будет хорошо. И к 2030 году все поймут, что мы великая айтишная держава», — психотерапевтически заверил академик Аветисян.
Под занавес внезапно всплыла новость, касающаяся Татарстана. В декларации, которую страны БРИКС примут по итогам 16-го саммита в Казани, собираются отразить вопросы, связанные с искусственным интеллектом, сообщил Рыбаков.
«Я бы хотел сказать спасибо МГИМО, что поддержали нас в рамках декларации казанского [саммита] БРИКС, подготовили и вопросы, связанные с искусственным интеллектом, которые уже можно было включить в эту декларацию. Потому что, к нашему удивлению, в рамках предыдущей декларации стран БРИКС слова „искусственный интеллект“ не были упомянуты ни разу. И мы надеемся, что сейчас в рамках казанской декларации это определение наконец туда войдет», — заключил он.
Внимание!
Комментирование временно доступно только для зарегистрированных пользователей.
Подробнее
Комментарии 7
Редакция оставляет за собой право отказать в публикации вашего комментария.
Правила модерирования.