Круглый стол «Безопасность операционных систем в контексте искусственного интеллекта» (OSDAY-2025)
Материал из 0x1.tv
- Ведущий
- Андрей Духвалов — вице-президент, директор департамента перспективных технологий, Лаборатория Касперского
- Эксперты
- Сергей Аносов — руководитель отдела продуктовой экспертизы «Открытая мобильная платформа»
- Егор Васин — специалист отдела технологий защиты вычислительных сетей НПП «Криптософт»
- Николай Костригин — руководитель отдела безопасности разработки ПО, «Базальт СПО»
- Михаил Новоселов — ведущий системный инженер-программист, НТЦ IT РОСА
- Екатерина Свиридова — «Газпромбанк», РЭУ им. Плеханова
- Егор Смирнов — руководитель проектов по внедрению искусственного интеллекта «Ред Софт»
- Константин Сорокин — руководитель исследовательской группы «ИИ в программной инженерии», ИСП РАН
- Павел Мозгов — заместитель директора дирекции внедрения и сопровождения, группа «Астра»
- Пересечение трендов
- ОС, ИИ и программирование. Выделили три взаимосвязанных технологических тренда: операционные системы (70 лет развития), искусственный интеллект (быстрый рост) и программирование (эволюция методологий). Ключевой вопрос — как они взаимодействуют, особенно в контексте безопасности. ИИ трансформирует процессы: например, «вайб-кодинг» смещает роль разработчика от написания кода к управлению ИИ через промты, что напоминает менеджерские функции.
- Практика применения ИИ
- ИИ эффективен в рутинных задачах — миграция кода между СУБД, адаптация legacy-кода, генерация простых скриптов. Однако для сложных задач (архитектура, низкоуровневая оптимизация) ИИ требует глубокого контроля из-за риска галлюцинаций. Внедрение в ОС пока ограничено интерфейсным уровнем («помощники»), но в перспективе может затронуть ядро (оптимизация планировщика, изоляция драйверов).
- Угрозы безопасности и управление доверием
- Основные риски:
- Отравление данных и уязвимости к промт-инъекциям.
- Недостоверность результатов: галлюцинации ИИ требуют верификации кода.
- Утечки контекста: корпоративные секреты при использовании облачных ИИ-сервисов.
Решения включают гибридные подходы: комбинация ИИ с классическими методами (статический анализ, sandbox), изоляция критических компонентов ОС, разработка стандартов для ИИ-агентов.
- Организационные и кадровые вызовы
- Квалификация: ИИ не заменяет инженеров, но меняет навыки — акцент смещается на архитектуру, промт-инженерию и валидацию результатов.
- Подготовка кадров: риск «пропуска» junior-стадии при использовании ИИ требует пересмотра обучения (фокус на проектной работе, этике взаимодействия с ИИ).
- Культура разработки: важность код-ревью и CI/CD-пайплайнов для контроля сгенерированного кода.
ИИ — мощный инструмент, но его интеграция в ОС и критическую инфраструктуру требует сбалансированного подхода: сочетания инноваций с «конструктивной безопасностью» (изоляция, верификация), адаптации процессов и сохранения человеческого контроля над сложными решениями.
Видео
Стенограмма
Андрей Духвалов: Так, еще раз спасибо. Меня зовут Андрей Духвалов. Я вице-президент лаборатории Касперского. Отвечаю за перспективные технологии 💻🦾⚛🔬.
Приходится сталкиваться с такими вещами, как искусственный интеллект 🤖🧠🦾. Куда деваться? И хотелось бы поговорить сегодня, как эти два тренда, мощнейших тренда…, я имею в виду операционные системы 🖥💻 и искусственный интеллект 🤖🧠, как явление в жизни, как явление в нашей социальной жизни, технологической жизни и вообще общественной, и вообще везде.
Если говорить про операционные системы, этот тренд начался в 1955 году. 70 лет. IBM — первая электронная вычислительная машина в том виде, как мы это привыкли понимать. Она, хотя, конечно, раньше другая была, но она в 45-м году появилась, IBM. И 10 лет они жили без операционных систем. Мнение ученых, историков сходится в то, первая операционная система, как операционная система, появилась в 55-м году. И кто бы, вы думаете, её изобрёл? General Motors. У них была IBM-овская машина IBM-овская, и там софт назывался «Монитор обращений». Они решили, что этого мало, и над этим монитором нарисовали какой-то слой вместе с North American Aviation. Две компании участвовали. И вот это считается первой ОС GM-NAA I/O. Система ввода-вывода.
Это один тренд. Чем он характеризуется? Ему уже сейчас 70 лет. И я могу смело дать прогноз — ещё 50 лет вперёд операционная система будет по-прежнему развиваться. Они не быстрые — срок жизни операционной системы, «как молния прилетела», 20 лет. Те, которые успешные, да. А те, которые более успешные, они побольше. То есть они все развиваются очень медленно.
А что касается искусственного интеллекта? Теоретическая база, ей тоже уже лет достаточно. Искусственный интеллект появился быстро и настолько быстро занял вообще, думы миллионов людей, общественное пространство и всё остальное. И те технологии, которые живут внутри этого тренда, они их характеристическое время иногда бывает два-три месяца, иногда полгода.
Иногда технологии вспыхивают и устаревают, а в течение года одного, я имею в виду внутри искусственного интеллекта, совершенно полностью по характеристикам, отличаются от операционных систем.
Но, тем не менее, по своей мощности, по своему воздействию на окружающую среду, этот тренд не менее мощный, чем операционная система. И наша задача сегодня — посмотреть, как они пересекаются. Где у них пересечение у этих трендов? И как они пересекаются? И что нам… Какие выводы мы сможем сделать из этого? И что нам теперь делать?
И, я считаю, еще более мощный тренд, чем операционные системы. Это программирование itself. Сам подход, методологии, языки программирования. Бизнес-процессы даже. Программирование, как вы понимаете, родилось ещё раньше, чем операционные системы. Нет оснований полагать, что оно когда-то закончится. Хотя с искусственным интеллектом это уже не так однозначно. Там все эти, не буду их пересчитывать, но всяких «программирований» у нас сотни разных.
Например, low-code, типа мышкой нащелкал, и это, тоже программирование. А сейчас с искусственным интеллектом… Это в качестве примера, как искусственный интеллект пересекается и модифицирует те процессы, которые там до него были. Сейчас это называется вайб-кодинг, «Кодирование от души» 🎧🧘💻🌀🤖👌. Тут прямо важно принципиально, что программисты теперь не кодируют, а управляют процессом создания. Кидаешь какой-то промпт, получаешь результат, посмотрел, потестировал, внес изменения, потом уточняющий промпт. И этот процесс схож с менеджментом. То есть сам девелопер становится человеком, который управляет кодированием. Сам не кодирует, а управляет кодированием. Наша задача — посмотреть, как это всё пересекается. Я намерен и эту тему добавить, усложнил нашу задачу сегодня. Пересекаться у нас теперь будет три темы.
И давайте попробуем, как пойдёт.
Выступать будем коротко, потому что нас сегодня очень много. И я хотел бы не по одному вопросу вам задать, и еще хотел бы послушать, как на наше высказывание реагирует аудитория, задает вопросы и так далее.
Хочу представить.
-
Сергей Аносов: руководитель отдела продуктовой экспертизы «Открытая мобильная платформа». -
Егор Васин: специалист отдела технологий защиты вычислительных сетей НПП «Криптософт». - Анна Кан, которая к нам скоро подойдёт (так и не подошла 🤷♀️), заместитель генерального директора в ВНИИТУ.
-
Николай Костригин: базальт СПО, руководитель отдела безопасности разработки ПО.
Кстати, да, ещё тут безопасность 🗿🐙 приплетается. Это вообще просто жуть какая-то 👹👺
-
Михаил Новоселов: ведущий системный инженер-программист в НТЦ IT РОСА. -
Екатерина Свиридова: руководитель экспертизы по сопровождению СУБД Департамента развития платформы данных «Газпромбанк». Также представляет РЭУ Плеханова, базовую кафедру цифровой экономики Института развития информационного общества. -
Егор Смирнов: руководитель проектов по внедрению искусственного интеллекта «Ред Софт». -
Константин Сорокин: руководитель исследовательской группы по разработке и применению инструментов искусственного интеллекта в программной инженерии.
Хорошо, я постараюсь задать вопросы в рамках предметных интересов. Но тем не менее, там, если у выступающих будут желания, так, общие, философские, назовём его так, вопросы обсудить, конечно, всегда пожалуйста. Процесс разработки программных продуктов сейчас сильно изменяется. Так вот, какие задачи в области информационных технологий и информационной безопасности уже сейчас можно делегировать искусственному интеллекту и какая квалификация человека при этом требуется. Попрошу на этот вопрос ответить Михаила Новоселова.
Михаил Новоселов: Здравствуйте. По моим наблюдениям, сейчас так называемый вайб-кодинг, он не совсем работает. Может быть, я просто не умею им пользоваться. Но когда я прошу искусственный интеллект написать что-то сложное, он обычно пишет что-то такое, что сложно заставить работать. То есть, с ним нужно очень долго общаться, и, может быть, он что-то напишет. Если ему делегировать какую-то простую задачу, которая имеет максимально конкретные входные данные, конкретный алгоритм, конкретные выходные данные, то вполне себе.
Например, мне недавно нужно было написать довольно простую программу, которая считывала CSV-файл с логом, немного его преобразовывала. Там дату переставляла из последней колонки в первую и меняла формат даты. И там ещё некоторое преобразование делала. Я попросил «Искусственный интеллект», причём наш российский, Гигачат сбербанковский, написать такую программу на Go. Она и написала. С первой попытки. Простой компактный код, использовала встроенный в Go импорт CSV. Оно всё заработало. Но когда пробую написать что-то более сложное, то обычно с первого раза не получается, с второго, с третьего обычно тоже.
И здесь я бы сказал, что мы, программисты как были инженерами, так ими и остаёмся, потому что искусственный интеллект за нас всё, по крайней мере, на его текущем этапе развития, не продумает.
Архитектуру он может… какие-то типовые архитектурные решения подсказать, о которых он, там, в интернете прочитал? Но не факт, что эти решения нам хорошо подходит. Поэтому мы как проектировали программу, так и продолжим проектировать. А если мы какой-то кусок кода, там, какую-то функцию, какой-то модуль отдадим написать «ИИ», то от этого, мне кажется, пока что плюс-минус ничего не меняется. Потому что если человек совсем не умеет программировать, он не сможет нормально пользоваться результатами ИИ-труда, и им управлять вообще. А если человек умеет программировать, то ему, в принципе, плюс-минус всё равно, какое за программирование он при необходимости разберётся. То есть, сейчас ИИ хорошо справляется с ускорением решения типовых задач. Он же что-то принципиально новое не изобретает, он пересказывает то, что он знает. Поэтому, на мой взгляд, его использование с умом вполне уместно, оно вполне может ускорять работу, но человека полностью не заменяет.
И ещё, хорошо подходит там, где у человека вступает в силу человеческий фактор, например, обработка больших данных, там какая-нибудь большая табличка, человек её глазом смотрит, может что-то не заметить. И ему в этом может помочь. Но поскольку вероятность галлюцинаций, что ИИ что-то покажется, что не соответствует реальности высока, то, скорее всего, будет уместно всё равно вручную проверить его результаты. Но, тем не менее, он всё равно может помочь. Вот такие задачи сейчас, на мой взгляд, неплохо можно ему делегировать. А дальше поживём, посмотрим, как он будет развиваться.
Андрей Духвалов: Да, интересно. То есть, даёшь задание как разработчику, если это в обычной жизни, и проверяешь, не галлюцинирует ли он. Да, хорошая задача для менеджеров.
Коллеги, прошу прощения, я, по-моему, не всех представил. Павел Мозгов, заместитель директора дирекции внедрения и сопровождения группы «Астра». Прошу прощения.
Искусственный интеллект во все стороны претендует на то, чтобы быть представленным вообще во всех направлениях деятельности, где присутствует человек, и даже там, где он не присутствует. В частности, cистемы искусственного интеллекта… — я не ожидал этого, но они начинают присутствовать даже в ответственных информационных системах, промышленных системах. Я хотел бы задать Екатерине вопрос — А что вы думаете по поводу использования искусственного интеллекта при миграции систем, использование искусственного интеллекта при миграции информационных систем в АСУ-ТП на системы отечественного производства?
Екатерина Свиридова: Нет, он работает. Когда мы говорим, например, о больших корпоративных системах хранения данных, в большинстве наших случаев в банковской системе, и не только в ней, вся эта система построена на проприетарных западных системах, и последние тренды, в том числе и в законодательстве – это переход на российское импортозамещение. Наши российские вендоры, на самом деле, в этом направлении достаточно сильно преуспели. И помимо того, что они предоставляют полноценный функционал тех систем, которые мы импортозамещаем, они ещё и развиваются. В том числе это внедрение искусственного интеллекта в свои продукты. Когда мы говорим о импортозамещении, мы понимаем, что это не только огромный массив данных, который измеряется в петабайтами, которые нужно перенести, это ещё и вся бизнес-логика, которая была на старой промышленной системе. Это процедуры, это функции, которые написаны на например, на синтаксисе языка с СУБД Oracle. Когда мы переносим это на GreenPlum, это уже становится несколько тысяч функций, которые написаны на другом языке, на другом синтаксисе. И у нас стоит высокая и сложная задача. Нам необходимо перенести весь этот код с одного языка на другой, и причём так, чтобы у нас не поменялась наша бизнес-функция. Результаты, которые у нас были на старой системе, у нас должны быть такие же на новой, без каких-либо изменений. Поэтому это огромная тяжёлая задача, и здесь достаточно сильно приходит на помощь тот же самый искусственный интеллект.
У вендоров сейчас, на самом деле, «проработки». Это ещё не промышленное решение, но оно достаточно быстро развивается, и на него возложены большие надежды. Когда на вход мы подаём наш старый код, наши старые функции процедуры, и он помогает нам, только на текущий момент помогает, не полностью снимает ответственность, но носит существенный вклад в эту работу. И, соответственно, у нас уже не десятки программистов и не тысячи часов на эту работу, а всё переходит в единицы и сотни. Спасибо.
Андрей Духвалов: А сейчас только что обсуждали вопрос с галлюцинациями. Как вы представляете, боретесь ли вы как-то, предвидите, что…
Екатерина Свиридова: Сейчас системы искусственного интеллекта… уже все знают, что они галлюцинируют. А тот код, который они генерируют, может быть, он начнёт галлюцинировать? Вполне. Поэтому я и говорю, что мы не можем полностью положить ответственность на искусственный интеллект, но он существенно облегчает нам задачу. Могу, например, ещё немножко привести пример. Он немножко от того, о чём мы разговаривали. Например, практическая задача.
Как всегда, если мы говорим про, банковскую сферу, у нас есть ограничение вендора, у нас есть ограничение службы безопасности на те продукты, которые мы используем. Например, у меня стоит задача. Мне необходимо протестировать механизм Clickhouse, использование пользовательских функций. Так как у нас установлено вендорское решение, у нас стоит там Zookeeper, Python, версия которого 2.7.5. Синтаксис которого, я знаю только в версии после трёх. Стоит такая задача, которой даже не хочется заниматься. Мне нужно переработать свой код на версию 2.7. И каково было моё удивление и счастье, когда, в принципе, это можно было всё скормить искусственному интеллекту. Отличная задача для искусственного интеллекта. Да. Он предоставил мне, в принципе, очень достаточно работоспособный вариант, и мне необходимо было только его проверить, и убедиться, что он всё выдал без галлюцинаций. Ну то есть в прошлой жизни это было 20 джунов, да? Да. Да, но учёт и контроль. Учёт и контроль. Спасибо.
Андрей Духвалов: Спасибо. Раз уж мы затронули такую тему, как какие-то проблемы с использованием, я хочу у Егора спросить про функциональные угрозы, характерные для искусственного интеллекта. Как относиться к этой проблеме?
Егор Васин: Да, всем добрый день. Всех приветствую. Угрозы, безусловно, есть. В первую очередь, это угрозы, связанные с отравлением данных. То есть известная проблема, когда злоумышленник может внедриться в обучающий датасет и расставить, например, недоброжелательные метки. То есть одно изображение, которое будет скармливаться искусственному интеллекту, может… одно изображение, которое относится к одному классу, ранее установленному, может быть отнесено к какому-то другому. И уже в ходе работы, соответственно, на модели искусственного интеллекта, наш датасет может быть воспринят неверно.
Это, действительно, даёт широкие возможности для злоумышленника. И, наверное, в настоящее время каких-то готовых решений, которые могут позволить эту проблему предотвратить, не существует. Есть соответствующие рекомендации, какого-то такого методического плана, они, еще не зарегистрированы, которые касаются перекрестной проверки обучающих данных перед к началом обучения модели искусственного интеллекта. Есть какие-то эксперты предметной области, непосредственно разбирающиеся в данных вопросах, они должны просмотреть датасет, проверить корректность соотношения соответствующих объектов с соответствующим метком класса и убедиться, что предоставленные данные не отравлены.
Также здесь, наверное, стоит помнить о том, что искусственный интеллект решает ту задачу, которую ему поставили, и не всегда эта задача может быть корректно поставлена. То есть искусственный интеллект, он решает какую-то конкретную задачу. Задачу классификации, задачу кластеризации, задачу регрессии, он способен общаться только в этом контексте. И очень многое, на самом деле, зависит именно от того, насколько именно корректно поставлена исходная задача, насколько верно даны входные данные.
Такой мой ответ на ваш вопрос. Да, надо теперь контролировать не только качество кода, но и качество задачи, которые ты ставишь, качество промтов. И хорошая фраза ещё вчера прозвучала — понравилась мысль от одного из выступающих, то, что нужно контролировать, так называемую контролируемую зону, то есть не пускать злоумышленника в тот сектор, где происходит разметка данных.
Наверное, это такое действительно порядочное, грамотное и громоздкое решение.
Егор Смирнов: Хотел что-то добавить. Да. Вы попросили высказаться Егору, но не уточнили, какого, поэтому я тоже вкину.
Андрей Духвалов: А, я извиняюсь.
Егор Смирнов: Да, я просто хотел привести интересный пример, который я услышал на другой конференции, например, с нейросетями, которые распознают изображение. Нам коллега показывал. Он пришёл на конференцию в футболке с очень странным каким-то абстрактным принтом. И после этого он сказал, что это была на самом деле пасхалка.
Картинка, которая обманывает определённые алгоритмы. То есть, я просто хочу подсветить, насколько могут быть серьёзные последствия. Например, если у вас, там, алгоритм, например, должен распознавать людей, чтобы, например, автономные автомобили мог объехать, то, знаете, злоумышленник, подарив такую футболку кому-нибудь, может натворить много чего нехорошего.
Ну, я такой уже прям совсем уже страшный пример привёл. К чему? Если мы имеем дело не с классическими алгоритмами машинного обучения, например, с нейросетями, внутри которых мы не можем заглянуть и посмотреть, каким признакам какие веса были приданы и так далее, то есть которые работают по признаку чёрного ящика, мы здесь в ближайшее время пока, мне кажется, не сможем обойтись без человеческого надзора в той или иной форме.
Андрей Духвалов: Спасибо. Да, это точно. Эта мысль у нас должна красной нитью проходить через все наши… наши обсуждения, мне кажется. Что учёт и контроль.
И я бы хотел у Николая… У нас один Николай Констригин. А какие инструменты должны быть? Каковы правильные инструменты должны быть, во-первых, для использования искусственного интеллекта в разработке, и какие инструменты должны контролировать искусственный интеллект? Как-то не слишком ли я тот самый умный? Такой вопрос.
Николай Костригин: Понятно, что софт проник уже во все сферы жизни, доверие к нему, как в медицинском, банковском, в технологическом секторе должно быть обеспечена путём проведения определённого вида исследований, известных как S-DLC или по российской устоявшейся практике РБПО. Соответственно, софт, участвующий и в разработке моделей и в управлении ими, тоже должен подвергаться таким же исследованиям.
В принципе, сейчас эту проблему уже осознали. Месяц назад проходила конференция, посвященная безопасности искусственного интеллекта. В России уже обозначен «Вектор развития программы развития технологий искусственного интеллекта 2030 года». Создана рабочая группа по разработке критериев и инструментов исследования искусственного интеллекта. Здесь присутствует коллега из ИСПРАН. Я думаю, не отнимать у них хлеб. Наверное, они лучше об этом расскажут. Но в своей практике исследования кода, который входят в состав операционной системы, мы уже не можем игнорировать наличие инструментов искусственного интеллекта, поскольку исследуем это поле и пытаемся внедрять какие-то наработки.
Андрей Духвалов: Спасибо. То есть статический динамический анализ кода теперь будет осуществлять искусственный интеллект.
Николай Костригин: Нет, здесь статический анализ, насколько мне известно, он достаточно как раз из-за галлюцинирования плохо осуществляет. Доверять этим результатам довольно сложно. А «дедуплицировать сработки», наверное, можно.
Андрей Духвалов: То есть выявлять плохое… Кластеризировать… Похожее, да. Это задача для искусственного интеллекта, классическая задача для искусственного интеллекта, да. Хорошо. Раз уже заговорили про ИСПРАН и инструменты разработки, Константин, подскажите, тогда, как… чего нас ждёт?
Константин Сорокин: Спасибо за слово. Во-первых, на фоне предыдущих вопросов хочется немножко добавить контекста.
Сейчас, как мне кажется, важно подразделять два направления. Изначально мы все смотрели на проблемы безопасности, доверия и участия алгоритмов машинного обучения в повседневной разработке и так далее с точки зрения именно классических подходов, то есть до появления масштабных языковых моделей, которые сейчас есть. И, соответственно, за последние годы, там, все понимают, что откуда растет, промпт-инженерия вся, чатGPT, квоты, открытые модели, там, появляются от коллег и, соответственно, наших собственные, там, Сберский и Яндекс.
У них совершенно другие проблемы безопасности. И тут важно понимать, что на самом деле в инструментах разработки или, там, при разработке ассистентов, которых мы используем для программирования, в том числе в контексте, которые помогают разработчикам писать код или ревьюить код, или, не знаю, писать тесты, или, может быть, даже в каком-то смысле проводить дебаггинг — они все построены и более-менее хорошо приемлемо работают и действительно помогают, там, в повседневной жизни программистам. Это инструменты, построенные на больших языковых моделях, по моему субъективному опыту.
Смотреть на проблемы доверия надо в двух разных направлениях. Есть большой пласт скажем так, проблем, которые связаны именно с классическими алгоритмами и подходами, которые там работают. Уже упоминали сегодня, проблемы, которые связаны с отравлением обучающих данных. Там есть классические подходы, по тому, как это делать и так далее. А есть совершенно другие классы проблем, которые связаны именно с большими языковыми моделями. Там проблемы, связанные с промпт-инъекциями, с использованием подходов, когда мы пытаемся пытаемся спрашивать у моделей, просим её сгенерировать эксплойты по каким-то примерам известным и так далее.
Мой первый пункт — что надо проводить такое разграничение, и понимать, что на самом деле все текущие и будущие инструменты помощи для разработчиков, они будут построены именно на больших языковых моделях, соответственно, обладающих своими проблемами безопасности и так далее.
А второе, я очень хочу согласиться с тем пунктом по поводу того, нас, как программистов, в ближайшее время, скорее всего, никто из виртуальных ассистентов не заменит, по крайней мере, на горизонте пару лет. Точно. Потому что уже правильно сказали, что существует класс задач, которыми искусственный интеллект справляется хорошо даже у большей языковой модели.
Это, допустим, если взять какие-то простые задачи, которые способны что-то генерировать, и так, что человек в этом не должен принимать участие. Как Екатерина сказала, такое вот все. То есть когда, не нужно вообще принимать никакого… не выполнять никакой верификации. Либо, там, нужно какое-то частичное участие разработчика. А существует второй класс задач, где всё-таки требуется эксперт, полноценный эксперт, на какой-то субъективной практике. Если вы занимаетесь анализом проблем, которые были найдены, статическим анализом или динамическим анализом, например, в том же самом коде ядра.
Проблемы бывают иногда нетривиальные, и как понять, где корень зла, и как эту проблему решить, как её правильно исправить, как правильно пофиксить — бывает нетривиально. Соответственно, вы можете использовать ассистента, который с вами вместе будет, по сути, что называется, брейнштормить эту проблему.
Надо понимать, что всё не заканчивается стандартными подходами на уровне «А давайте мы попробуем сейчас…». Сделали один промт, там, посмотрели на ответ, там, продолжили общение в чате и что-то там… Как-то так итеративно движемся.
Нужно понимать, что сейчас появляются ещё такие страшные штуки, как агенты-мультиагенты, которые, по сути, представляют собой буквально виртуальных ассистентов, когда есть модель, у неё есть какой-то набор инструментов, тот же самый статический анализ, динамический анализ, возможность генерировать код и исполнять его в sandbox-окружении.
Это тоже совершенно отдельный класс проблем, но мы все туда идём.
Я имею в виду проблемы безопасности. Резюмирую этот пункт по поводу того, что эксперты, которые занимаются, по крайней мере, написанием кода в критически важной инфраструктуре или в критически важных областях, или, там, просто системным программированием, наверное, в целом, в ближайшее время точно никто никого не заменит, и там инструменты разработки нужны именно в качестве ассистентов. Это какое-то, «парное программирование» виртуальное, которое помогает именно анализировать какие-то проблемы, брейнштормить и, соответственно, как-то правильно направлять.
И одновременно с этим появляется это направление агентов, которые, ну как по сути … тут было тоже правильно сказано, что не надо пытаться решать искусственным интеллектом задачи, которыми он решает плохо, или когда существуют классические инструменты, которые его решают хорошо.
Если у нас есть статический анализ и есть динамический анализ, не надо пытаться нейронками его заменять. Надо пытаться эти инструменты объединять. И это то, за что мы всегда, внутри команды или там внутри института, может быть, там, где-то на каких-то выступлениях тоже мы всегда пытались эту идею доносить, что мы должны создавать комплементарные инструменты, которые позволят друг друга усиливать.
Если мы говорим, например, про статический анализ или динамический анализ, там есть определённые проблемы. Например, генерация фаззинг-таргетов. Есть статический анализ или динамический анализ, когда мы не можем понять, в чём суть ошибки. Мы можем подключить сюда, искусственный интеллект в качестве ассистента и попробовать помочь как-то решить эти проблемы, используя разные данные. Историю разработки, историю предыдущих проблем и так далее.
А с другой стороны, мы можем пытаться усиливать искусственный интеллект классическими инструментами — статическим анализом и динамическим анализом.
Если мы, например, генерируем какой-то код, поскольку все модели большие обучаются на данных из интернета, никто не застрахован от того, что оно сгенерирует вам уязвимый код или код, который при добавлении в операционную систему приведет к каким-то уязвимостям на более высоком уровне проекта.
И тогда нужно подключать сюда статический динамический анализ, чтобы верифицировать тот код, который сгенерировался языковыми моделями или искусственным интеллектом.
Это, наверное, третий основной пункт, о котором я хотел сказать.
На самом деле, у меня есть там ещё разные мысли, но я боюсь, что я слишком долго говорю, поэтому да…
Андрей Духвалов: Мы ещё один круг сделаем, я уверен. Правда, очень интересно. И пока вы говорили, у меня ещё один вопрос появился. Но я вам задам его всем на следующей итерации. Прям, мне кажется, очень серьёзный вопрос. Я его в первый раз только осознал.
Но пока хочу вернуться сейчас обратно в контекст операционных систем. Мы всё-таки про операционные системы. Сейчас мы говорили про общие такие подходы к программированию. Что, собственно, я с самого начала понимал, что мы этого вопроса никак не избежим.
Тем не менее, к Сергею вопрос. А как, собственно, влиять на безопасность ОСБУ и искусственный интеллект? С каких сторон? Обозначить проблемы, и потом, что делать с этими проблемами.
Сергей Аносов: Доброе утро, коллеги! Всех рад видеть. Андрей Петрович, перед тем, как ответить на этот вопрос… В принципе, все участники дискуссии, они так или иначе, в ответе на ваши вопросы, затрагивали проблему доверия к искусственному интеллекту. Что искусственный интеллект глючит, «он не может решить проблему», «ему нельзя доверять».
Если посмотреть, не с точки зрения безопасности, возьмём классическую задачу статического анализа — это не самая интересная задача для разработчика. Будем честны, для разработчика ОС — это не самая интересная задача.
Андрей Духвалов: В этом и кайф — сгрузить всю рутину на ИИ.
Сергей Аносов: Я как раз и веду к этому, что очень часто на эту задачу берут или назначают людей, которые, студенты, условно, стажёры…
Не такое дорогое, как время разработчиков более опытных, да. И возникает вопрос. Вот искусственный интеллект сказал, сам он говорит, «Сделай разметку, сделай определённый вывод». У нас есть какая-то степень доверия к нему, да, или недоверия.
Условно, и Джун, или студент. Он тоже это… он тоже сделал. Насколько мы ему верим?
Получается, что всё равно, там, кто-то будет проверять. Но первичный вот этот разбор, оценку сделает человек. И может возникнуть ситуация, когда, условно, людям мы верим, а искусственному интеллекту не верим. И человек тоже совершает ошибки. И получается так, что мы, немножко не доверяя ИИ, но веря людям, «не будем двигаться так быстро вперед, как могли бы». Это первая такая мысль. Но на самом деле, если немножко развить, то, получается, мы сейчас… практически все здесь сидящие, я не хочу никого обидеть. Сейчас посмотрю. Мы, наверное, относимся к поколению Y. Это люди, которые родились, там, в 84-й, в 2000-й год. Я не хочу никого обидеть. Очень плохо у меня с определением возраста по лицам.
Андрей Духвалов: Да, у всех кто сидят 👶, а кто стоит, нет 👴.
Сергей Аносов: Андрей Петрович, у меня плохо с определением возраста. Характерно для людей этого поколения — это как раз, некая критичность мышления 🤔🤨. Критичность мышления, [не]доверие к экспертам 😤 и желание разобраться во всём самому🧐.
Следующее поколение – это, там, Z, Alpha – это люди, которые уже отродились после. Я могу по своим детям 👦👧 судить. Вот они… задаешь им какой-то вопрос, они пошли, там, через три минуты приходят, говорят — есть ответ. Начинают рассказывать, я говорю — а где ты это нашел? — «YouTube включил, какой-то блогер 🤡 мне что-то рассказал» — я говорю «это же просто какой-то бред 💩, вот смотри, вот здесь вот так, вот так… куда пошел?» — «🤸Пойду другого блогера 🤹 посмотрю, который, правильный ответ даст». То есть они начинают доверять каким-то инфлюенсерам и прочим 🎭🎪. А есть ещё следующее поколение, которые родились в 25-м году, начиная с этого года, это поколение бета 👶🐸👶🍭. Это люди, которые будут расти уже вместе с агентами, вместе с агентами искусственного интеллекта. И для них то, что говорит искусственный интеллект, это будет абсолютное… 🤩🤩 Сейчас мы перейдём потихоньку как раз к операционным системам и как они будут меняться. Но люди, дети, которые родились относительно недавно, для них, там, смартфоны, искусственный интеллект — нечто, что-то абсолютное✅🤩, абсолютное доверие💯💖, да. То есть задал вопрос, и он не может ошибиться. И с этим тоже надо… Истина в последней инстанции. «Я задал вопрос, куда-то, и получил ответ. И этот ответ верный». И это, наверное, тоже проблема, с которой надо… Это безопасность данных. Там можно много интересных тем поднять 🤔 — А кто данные забирает? А какой ответ правильный? А на какую целевую аудиторию? А в какой момент времени? И получается очень и очень… сложная тема именно для будущих поколений. Искусственный интеллект и доверие к нему 🤩🙏🤖👼. А нам надо что-то с этой проблемой будет делать, безусловно. Если рассмотреть с этой точки зрения, возвращаясь к теме операционных систем, то, наверное, можно выделить в краткосрочной перспективе — сейчас, в принципе, операционные системы готовы к внедрению искусственного интеллекта на уровне API. Голосовой помощник — «Алиса, включи…», «Включи погоду, сколько времени» и прочее — это некое API, которая позволяет, там, «Поставь встречу в календаре» и прочее. Это то, что мы имеем сейчас, и на краткосроке это уже работает, интегрируется, много где появляется.
На среднесрочной перспективе у нас появятся прямо уже интегрированные, уже искусственные агенты, которые смогут, с точки зрения безопасности… будут обучаться, будут смотреть на модель поведения пользователя и пытаться что-то предсказать. Условно говоря, я оказался в магазине и с радостью бы этим пользовался. Всегда, в каком-то магазине приходишь, вдруг начинаешь искать карточку в телефоне, и я думаю «блин, кто бы мне сейчас раз по местоположению определил и сказал — вот, карточка, не ищи, бери и пользуй». Такие вещи появятся. С точки зрения безопасности искусственный интеллект и устройство будет вас запоминать, предугадывать, реагировать на «как вы держите телефон?», «как вы набираете?». И у нас ребята делали курсовой проект — моделька обучалась, и когда телефон передавали другим людям, соответственно, по углу наклона, по скорости нажатия телефон блокировался. То есть, телефон у вас украли, вырвали – всё, он заблокировался. Это вторая история.
И третья, в долгосрочной перспективе, вы говорили здесь про вайб-кодинг. Представьте, что у вас есть устройство. Я говорю с точки зрения мобильных устройств, мне это ближе. Но с точки зрения десктопа, в принципе, всё то же самое. У вас есть единое окно, в котором вы начинаете промтом генерировать для себя программы. Вы сейчас вы там можете картинку сгенерировать вместо дизайнеров, там, ещё что-то. А сможете сказать, условно, «Сделай мне программу» или «Выведи все заголовки газет». И искусственный интеллект, модельки, сгенерируют код, скомпилируют его под текущую, под нужную тебе архитектуру и разработают приложение. Это долгосрочные перспективы. Нужно работать с промтами и вообще качество восприятия промтов должно увеличиться. И проблема, что сейчас искусственный интеллект может решить качественную задачу, переводы с одной версии Python на другую или ещё что-то. А в долгосрочной перспективе будет «А напиши мне ПО». И там какой-то набор требований «я хочу, чтобы было». «Красная кнопка, чтобы мне было хорошо», «нажать на эту кнопку должно вот это происходить». Старинная мечта — «большая красная кнопка», да? И получается, что мы как бы к этому движемся.
Мы об этом у себя внутри заговорили где-то год назад. И я вижу, сейчас глава Microsoft говорит примерно то же самое, что появится искусственное… Вообще, всё взаимодействие будет через искусственный интеллект, через агентов. И буквально вчера вышло…
Андрей Духвалов: И всё это на уровне операционной системы.
И всё это на уровне операционной системы. Нет, это косвенно затрагивает, что там файзинг, статику. Это, наверное, мы там чуть попозже поговорим, про угрозы именно с точки зрения безопасности, векторов атак и прочего. Но именно с точки зрения архитектуры, разработки, там, в долгосрочной перспективе у вас будет входное окно, которое позволит вам генерировать приложение для себя, под ваши нужды. И всё ваше взаимодействие будет, так, условно …
Андрей Духвалов: Персонализированное? 🫕🧘👌
Сергей Аносов: Да. Типа, сделал анализ ДНК 🧬🧪🔬, и под тебя пишут приложение 🤖📱.
Андрей Духвалов: Да, в общем-то, да. Примерно так и есть.
Андрей Духвалов: Да, спасибо. Всё-таки если говорить…, мы уже сейчас говорили… я Павла хочу спросить, заговорили про операционные системы и заговорили про мультиагентные системы. И вот теперь я знаю, что Павел хочет поделиться. Как это можно вообще совместить? Что это такое? Как мы это должны понимать?
Павел Мозгов: Перед тем, как я буду рассказывать про мультиагентные системы, я скажу, что у меня нет таких высоких требований сейчас к искусственному интеллекту. Мы просто хотим от него всё и сразу, и сейчас, и как в том мультике, «оно что, и есть за меня будет, да»?
Я хотел поговорить с точки зрения пользовательского опыта, что здесь происходит. Та же компания «Микрософт», которая тут упоминалась… почти чуть ли не каждую неделю выходят всё новые и новые какие-то-то… Что они делают?
Тестируют новый пользовательский опыт операционной системы на всём мире и смотрят, что на самом деле будет востребовано. Да, весь мир в качестве тестеров. Что можно перенести из каких-то рутинных задач или задач, с которыми, мы не хотим соприкасаться, там, при настройке операционной системы. При каких-то использованиях каких-то приложений, при установке приложений, например, и так далее. То есть они смотрят, что можно в итоге перенести на copilot-ы. И я думаю, что в конечном итоге это отразится на изменении интерфейса. Они просто будут убирать эти ненужные, окошечки-пунктики и так далее из этой истории. Или, например, они будут понимать, что поиск в в файловой системе будет в один клик, а не бегая по этой истории. А дальше больше. Когда мы начнём привыкать к такому новому пользовательскому опыту, где нам проще воспользоваться «копайлотом» и решить какие-то такие рутинные задачи, мы захотим, чтобы это происходило и в приложениях тоже. И здесь есть такой момент, что «а как, в общем-то, обеспечить это совмещение контекста?» Потому что всё это будет строиться на ИИ-агентах, естественно. Есть заложенный функционал в «копайлот»-операционной системе, например, но есть ИИ-агенты в различных приложениях, которые свою логику имеют. И как передать этот контекст? Как из «копайлота» выполнить свою задачу и в операционной системе и в каком-то приложении? Закрыть и свою задачу в разработке, и какую-то даже бизнес-задачу?
И здесь cоздание каких-то стандартов для агентов, для разметки, для того, чтобы мы жили, в каком-то общем поле при написании этих ИИ-агентов — это очень важная история. Чтобы мы могли в итоге передавать этот контекст, был этот прозрачный путь и пользовательский опыт на всех этапах.
Я думаю, что эта история нас ещё впереди ждёт, от появления этих правил, стандартов и так далее.
Андрей Духвалов: Ну, извините, такая модель, она уже не новая. Это как с мобильными телефонами, когда есть там App Store, центральный узел, который собирает всю информацию, а приложение распределяет, деплоится на мобилу, и… они всё время связаны, и они там, в App Store, анализируют наше поведение и этим тестируют. Эта модель-то примерно такая же получается, да? — Co-Pilot сидит на серваке в дата-центре где-то, к нему, там, миллион запросов. Он, ага, так, теперь вот эти запросы редкие, а эти более актуальные. Давай мы сейчас функцию такую…
Павел Мозгов: Да, как он поймёт, кому это передать? Как он поймёт, что эту задачу нужно выполнить на стороне, именно этого ИИ-агента? Как он с ним свяжется и так далее?
Андрей Духвалов: Да, понятно. Так, смотрите, у нас сейчас прошёл один круг. Все, там, сказали, что хотели. А, ты ещё не…
Михаил Новоселов: Я бы хотел добавить про искусственный интеллект в операционных системах. Мы сейчас много чего сказали, но это, по сути дела, скорее прикладной уровень с точки зрения операционной системы. То есть, голосовые помощники и прочие — это прикладной уровень. От операционной системы, возможно, потребуются какие-то интерфейсы для взаимодействия этих вот АИ-агентов между собой. В случае Linux это, наверное, будет D-BUS.
А если смотреть немного вглубь операционной системы, мне кажется, там тоже можно попробовать искусственный интеллект применить. Например, есть такая проблема, что в разных операционных системах, скажем так, немного разные алгоритмы распределения процессорного времени. То есть у нас в операционной системе запущено много процессов разных — там, одна программа, вторая, третья. В одной программе поток, в первой, в второй, в третьей. А ресурсы процесса ограничены, и планировщик в ядре операционной системы постоянно принимают решение, какому процессу сколько времени выделить? Он работает примерно так — «этому процессу дам столько-то, там, миллисекунд, потом чуть-чуть на паузу поставлю, дам другому поработать». И существуют разные алгоритмы распределения процессов на времени. Вот в ядре Linux планировщик CFQ по умолчанию, он в целом пытается честно распределить время между всеми процессами.
Это часто хорошо, но иногда имеет негативные последствия в отзывчивости приложений. Когда система сильно нагружена, а за ней работает человек, то хорошо было бы, чтобы реакция, например, на нажатие мышью человеком какую-то кнопку, не была замедлена, потому что в фоне выполняется какая-то другая операция. И у ядра операционной системы стоит задача определить, какую задачу выполнять более приоритетно, какую менее приоритетно, какую первую, какую вторую, кому сколько времени дать. Например, здесь можно было бы попробовать применить искусственный интеллект, то есть собрать какую-то телеметрию, большой объём данных, по тому, какие задачи выполняют пользователи, и попытаться на основе этого как-то улучшить интерактивность системы. То есть, поработать в сторону того, чтобы планировщик процессного времени принимал решение исходя из предугадывания задач пользователя или каких-то других обстоятельств. И, возможно, это я сходу сейчас придумал…
На таком низком уровне в операционной системе можно где-то еще попытаться променить искусственный интеллект, но каких-то прорывных результатов, я думаю, не стоит ожидать. Но если в одном месте сделать микрооптимизацию, в другом месте микрооптимизацию, то, возможно, суммарный эффект будет весьма неплохим. И это, наверное, было бы неплохой исследовательской такой задачей для студентов.
Андрей Духвалов: То есть искусственный интеллект в качестве… используется для оптимизации планировщика? Да. Почему нет, например? Хорошая тема, мне кажется.
Михаил Новоселов: Да. Искусственному интеллекту есть над чем… . Там большой объём данных, собственно, искусственный интеллект смог бы как-то анализировать и потом научить его применять решения. Но здесь нужно будет попытаться весь этот алгоритм настолько оптимизировать, чтобы он работал настолько же быстро, насколько сейчас планировщик, операционная система принимает решение. Не, надо, чтобы быстрее. Если так, как сейчас, так зачем это, тогда, извините, оно уже отлажено. Да, поэтому я и говорю, что здесь каких-то сверхрезультатов не стоит ожидать, но в целом, это вопрос небольшой какой-то языковой модели мощных вычислителей. Это такое, скажем так, маленькая модель, которая должна работать без видеокарты, без множества ядер процессорных и максимально быстро.
Андрей Духвалов: Я бы здесь поспорил. Может быть, здесь нужна большая языковая модель, но не на железке, здесь только inference. А большая языковая модель должна обучаться на каких-то многих… Давайте не будем сейчас спорить. Я имею в виду модель, которая будет принимать решения в режиме реального времени. А обучать, да, это уже, там, другой вопрос, как обучать на основе собранной телеметрии.
Андрей Духвалов: Коллеги, смотрите, я хочу сейчас дать возможность людям задать вопрос. Только, смотрите, буду жёстко, жёстко пресекать. Я вас прошу, потому что у нас ещё второй круг. Я хочу задать экспертам, на мой взгляд, интересный вопрос, и хочу, чтобы у нас было время пообсуждать. Давайте таком, в режиме телеграфном. Короткий вопрос — короткий ответ.
Александр Певзнер:: Хотел продолжить Мишину мысль. А зачем, там, в реальном времени, чтобы дипсик какой-нибудь шедулил задачи? У нас есть четыре алгоритма шедулинга в Линуксе, да? Ещё, пара десятков экспериментальных алгоритмов. Они, правда, самые оптимальные? Они оптимальны для каких-то условий, но мы не знаем, какой лучше. Пусть нам искусственный интеллект выберет тот алгоритм, который хорош сейчас, а в реальном времени этот алгоритм будет переключать следующие две минуты, а потом искусственный интеллект посмотрит, что получается, и подберет другой.
Андрей Духвалов: И то же самое с пауэр-сейвингом, и то же самое сетями, потому что существует много алгоритмов. То же самое с освобождением памяти, то же самое с виртуальным распределением памяти…
Александр Певзнер:: И вот, господа учёные изобретают алгоритмы шедулинга. Господа программисты их реализуют, а искусственный интеллект подбирает под задачу, какой лучше подходит. По-моему, отличная кооперация случилась.
Андрей Духвалов: Господа учёные разработали эти алгоритмы исходя из условий того времени, старого времени. И там были другие задачи, другое железо и так далее.
Александр Певзнер:: Я не спорю. Но наука придумала алгоритмы так, чтобы они подходили под большинство задач. А у нас сейчас есть возможность под конкретную задачу выбрать.
Артём Проскурнёв: У меня вопрос по поводу взаимодействия самого искусственного интеллекта над системой, мне не очень понятно, с какой целью обсуждались технические детали, как это будет устраиваться. Почему нельзя рассмотреть искусственный интеллект как некая такая вещь, как надсистема, как просто пользователь, работающий за компьютером?
Андрей Духвалов: Это кому-то конкретно вопрос, или…
Артём Проскурнёв: Нет, я вообще… Просто я от нескольких коллег услышал, что, задеваются некие технические моменты, как именно строить и как именно заставить. Почему нельзя? Может быть, кто-то сможет ответить? Или, может быть, можно, вы это не рассматривали?
Использовать искусственный интеллект с операционной системой как пользователя. То есть посадите его, по сути, как пользователя. У него есть глаза, он видит, что на мониторе.
Андрей Духвалов: С какими правами? С админскими?
Артём Проскурнёв: У нее есть клавиатура, у нее есть мышка. Это раз. Я не услышал, на самом деле, такого важного. Вы не рассматривали вариант…
Алексей Хорошилов: А обед 🥗🍜🍝🥂 будет у этого пользователя, предусмотрен, искусственного? 🤔😊
Артём Проскурнёв: Короткий вопрос, собственно. Драйвера для устройств — это самая большая беда, в том числе в Линуксе. Почему искусственный интеллект 🤖 нельзя использовать как драйвер для устройств, которые сам опросит, сам найдёт способ, сам начнёт взаимодействовать с тем устройством, для которого, например, под Linux 🐧 нет драйвера, а только под Windows 🪟 есть.
Андрей Духвалов: «Большая красная кнопка» 🔴.
Артём Проскурнёв: По сути, да. «Сделать всё хорошо 😌💯😍👌». Коллеги, может, кто-то прокомментировать?
Павел Мозгов: Давайте я попробую. Про пользователя. По сути, мы говорим про роботизацию 🤖, которая уже существует, на самом деле, когда определенные действия выполняются… Если говорить именно, опять, про пользовательский опыт, да, представьте, если искусственный интеллект перехватит у вас мышку-клавиатуру 🖱⌨🎮 и начнет за все делать. Вы в это время, будете сидеть за этим наблюдать, либо куда-то пойдёте, оставите эту всю историю 🧘💆, вдруг всё получится 🤷. Мне кажется, это такой не очень правильный пользовательский опыт 🤔.
Хорошо, когда всё это происходит там где-то, пользователь с этим не соприкасается, он дальше продолжает выполнять свои задачи, а искусственный интеллект помогает ему, какие-то эти задачи автоматизировать.
Иван Татарчук: Меня как представителя Сбертеха очень радует, что упомянули продукт «Gigachat» и его использование в реальной работе. Хотел спросить экспертов, а вот прямо сейчас вы какие нейросети 🦾🧠 используете? Вот действительно интересно. И придём ли мы к тому, что каждая компания будет свою изолируемую разворачивать, чтобы обеспечивать безопасность данных 🤔?
Андрей Духвалов: Да, Гигачат неплохо расшифровку аудиозаписей 🎧📝 делает, но там ограничение, по-моему, в 50 мегабайт или в 30. Не любую запись можно в него засунуть. Коллеги, кто хочет ответить? Честно скажите, какую сетку используете?
Константин Сорокин: Естественно, для стандартных задач используются классические openapi-шные модели, там, вроде ChatGPT или это Anthropic Plot-овские, если мы говорим про проприетарные модели. Потому что они всё-таки пока относительно непобедимы. Но к вопросу о том, что хочется разворачивать какие-то свои модели, которые в приватном режиме работают, и если есть такие задачи, там, например, по закрытым каким-то проектам, то это всегда открытые модели. И пока что это модели от китайских коллег, Квены последней версии, дипсики, которые с поддержкой резонинга, и дистиллированные версии дипсиков, и, соответственно, какие-то более узкоспециализированные модели, открытые, в зависимости от задачи.
Зритель МЕОБ на OSDAY-2025:: Спасибо за дискуссию. Я слышал, что есть скептики AI, которые говорят, что… вот здесь среди собравшихся, что пока мы не доверяем разработку AI, мы должны его очень хорошо контролировать. В нашей отрасли и за рубежом известны, например, примеры разработки инфраструктурных библиотек 💻📚 с помощью AI 🔮 от и до, где элементами версионного контроля являются промпты. Например, библиотека аутентификации. Известны ли вам какие-то библиотеки, разработанные с помощью AI на более низком уровне, на уровне ОС? Кто-нибудь знает такие проекты 🤔?
Андрей Духвалов: Вопрос со звёздочкой ❓🌟🧐.
Стас Фомин: Ну если никто не знает, то вообще-то сейчас народ смотрит код open-source-ный NET-стэка, микрософтовского, и там видно, что он нам написан почти весь AI, и поэтому разработчики бегут из .NET-а. Надеюсь пока, пока не пришел туда нормальный ИИ.
Андрей Духвалов: Всё, тогда я к экспертам 🤓🎓 обращусь. А может быть, у вас есть вопросы к аудиторию?
Константин Сорокин: У меня вопрос. Хочется, чтобы люди подняли руки, кто, в принципе, в повседневной жизни используют АИ как ассистента, какие-нибудь модели (🙌🙌🙌🙌🙌 много рук) И… Так, отлично, вижу.
А теперь второй вопрос. Кто использует неклассический стиль взаимодействия? Грубо говоря, у нас есть стандартная схема с «промотованием», когда вы в режиме чата общаетесь. А кто занимается тем, что пытается как-то правильно подкладывать контекст в разработке? (🙌🙌 3-4 руки)
Я имею в виду, что если вы занимаетесь каким-то большим проектом, то как, на уровне конкретного, файла или модификации понять, что нужно ещё, чтобы было меньше галлюцинаций и так далее? Как расширить правильный контекст? Люди, поднимите руку, кто этим занимается (🙌 две руки). Ага, этих людей сильно меньше. А те, кто поднимал до этого руки, наверное, ну…
Стас Фомин: Занимается этим прямо сейчас? Прямо сейчас у меня ИИ пишет стенограмму встречи и придумывает вопросы к докладчикам конференции (😂🤣😆 смех в зале, видимо думают что шутка — нет 😁).
Константин Сорокин: Если вы не удовлетворены качеством того, как вы сейчас взаимодействуете с моделью, она часто галлюцинирует. Попробуйте правильным образом подкладывать контекст и посмотреть, что сейчас существует, условно говоря, на рынке, или из open-source-инструментов, которые вам помогут в этом.
Николай Костригин: Существует известное выражение «нет никаких облаков, есть чужие компьютеры». Хотелось бы задать аудитории вопрос, все ли осознают, что данные, с которыми вы обращаетесь к нейросети, в основном утекают 🚰📰🌐 куда-то в сеть. А нам обещают, что они приватные, каждому человеку обещают, что его контекст приватный для него 🔏 🤫.
Стас Фомин: Нет, никто не обещал ¯\_(ツ)_/¯. Более того, известно, что DeepSeek хранил промпты в открытым Clickhouse с дефолтным пользователем с пустым паролем. И оттуда там за первый год всё слили 🚨😨🚰.
Андрей Духвалов: Вот еще кейс, по-моему, он 18-го аж года или 19-го. В Самсунге начали применять искусственный интеллект для коммерческих своих задач, повседневных, естественных задач, ещё тогда, ещё, когда мало кто применял. И выяснилось, модель в процессе обучения, та модель, к которой они обращались со своими промпами, в процессе обучения меняла веса таким образом, что кто-то другой мог получить ответ, конфиденциальный, коммерческую тайну. И таким образом, там утекло достаточно большое количество их корпоративных секретов.
Артём Проскурнёв: Это как раз и беда корпоративной разработки. Поэтому мы и выбираем свободную разработку 🗽🆓🔓📖🤝🐧. Нам скрывать особо нечего.
И когда используем искусственный интеллект, мы используем его в свободной разработке, открытые исходные коды, всё остальное. Для коммерческих организаций, да, это прямо беда, и, наверное, пусть не пользуются. Пусть преимущество будет у тех, кто свободно … 🤘🚀
Андрей Духвалов: Мы локальные сервера поднимаем под…
Стас Фомин: Угроза опенсорсникам все равно есть. Ты пишешь свой гениальный код, он утекает в сеть и через промты. Там получают код, они его патентуют и всё такое 💡🧾®📝📜👮. И дальше «наезд Оракла»©.
Андрей Духвалов: Ну, это уже проблема авторских прав. Мы… это, сам… она очень важная, но я боюсь её поднимать. Мы её, это… Не осилим 🪨😩.
Александр Попов: Ещё один вопрос. Дорогие эксперты, как известно, исследователи безопасности 🥷 находят уязвимость 👾👾 в коде, когда они понимают код лучше, чем его разработчик 🥵. Если у нас весь код, ну или там, подавляющее его количество пишется с помощью ассистентов 🤖🤖, значит, всё меньше людей живых, которые понимают тот или иной код. Поэтому, как вы думаете, вопрос короткий, станет у нас больше уязвимостей 👾👾👾👾 в системном ПО или меньше 👾 с ростом вовлеченности ИИ.
Андрей Духвалов: Экспертная оценка?
Михаил Новоселов: Скорее станет больше логических ошибок, потому что очень многие уязвимости 👾👾 — это не из разряда, там, «забыл освободить память» ⚙️🤯📉, а из разряда «просто допустил логическую ошибку».
Александр Попов: Логические ошибки, да, самые вкусные, конечно, но, по-моему, и освобождение памяти тоже остается большой проблемой. Ещё мысли?
Николай Костригин: Здесь ещё есть проблема того, что при использовании ассистентов в написании кода очень многие однотипные функции могут быть реализованы чуть-чуть по-другому. Происходит дублирование кода. И здесь проблема, серьезная проблема, я думаю.
Кодовая база может содержать реализацию… То, что раньше делалось с библиотеками, которые постепенно, условно, вылизывались, да, из них извлекались баги по чуть-чуть, сейчас, наоборот, идет накопление кода, который реализует одно и то же разными словами.
Андрей Духвалов: То есть это проблема копипасты в другой реинкарнация, да? Copilot пишет код, запоминает этот результат. Потом другой человек пишет промп, который частично использует этот код. Офигеть!
Сергей Аносов: Да, Александр, наверное, известный тебе проект OpenSSL писался без использования искусственного интеллекта, но это не мешало находить в нём, там, уязвимости, логические бомбы, которые десятки лет жили, существовали и которые, там, долго-долго никто не мог отыскать, хотя много исследователем занималось[1]. И, там, те уязвимости, которые ты в ядре находишь, наверное, тоже люди писали. Наверное, стоит рассмотреть, что с другой немножко стороны, что стоимость взлома будет гораздо ниже. Мы недавно общались, там, с компанией одной, и они говорят следующее — «мы рассматриваем различные уязвимости применительно к нашей системе и исправляем те, стоимость эксплуатации которых больше, чем, там, 600 тысяч евро». Вот у них есть такая некая магическая сумма в 600 тысяч евро. Если атака стоит больше, то они считают, что для их системы это не релевантно, или этим можно пренебречь, что таких атак не будет.
Так вот, с развитием искусственного интеллекта, как бы, как на стороне защиты, помощи, там в файзинге, статике, написании кода, наверное, будет снижаться стоимость подготовки атаки. И вот то, что сейчас, там, стоит 600 тысяч долларов, через пять лет будет стоить, пять, а через 10 лет вообще ничего не будет стоить. И там просто исходный код, который будет проанализирован, у него будут найдены эксплойты. Вернее, так, будут найдены уязвимости, и искусственный интеллект, с помощью человека, если с минимальной помощью человека, будет писать эксплойты. Потому что сейчас, мне кажется, там 90% атак заканчиваются на уровне «а я не смог написать эксплойт, или я его в открытом интернете не нашёл, и только там определённые люди с высокой компетенцией доводят это до конца». Искусственный интеллект, будет вот этот порог, стоимость атаки, очень сильно снижать.
Андрей Духвалов: Да, спасибо. Этот вопрос удивительным образом послужил таким прологом к тому, что я хотел сказать. Я придумал вопрос на первой итерации и он немножко даже подводит шаг к этому вопросу, который вы сделали. Вопрос у меня такой. Мы все согласились, можно назвать таким общим местом, что искусственный интеллект сейчас выполняет хорошо достаточно простые, рутинные задачи, не требующие, глубины погружения, архитектурных способностей и всего прочего.
Вот если давать искусственному интеллекту такие задачи, то мы в какой-то мере будем доверять ему больше, чем… нежели он будет решать какие-то более сложные задачи. Такого рода задачи в нашей прошлой жизни адресовали джунам. Поскольку это рутинные задачи, поскольку они достаточно повторяемые, не надо особых, там, знаний, квалификаций — даём джуну, и он выполняет. Ты смотришь, конечно, контролируешь за ним, что он, что он там делает. Это с одной стороны. А с другой стороны, для джунов это конкретный опыт в конкретном приложении. На этом опыте джуны учатся, приобретают свои квалификации, из джунов «мидлы» и так далее. Но чтобы стать «мидлом», ему надо выполнить это. Это такой общий подход. Так у меня вопрос теперь. Сейчас мы все научимся эти джуновые задачи адресовать к искусственному интеллекту, а джуны учиться перестанут.
И где нам брать мидлов после этого, из которых потом будут вырастать эти джуны? А все джуны — они со своей стороны тоже так же. Фигня вопрос, сейчас промп напишем, и всё будет. То есть у них будет появляться опыт промышленный опыт разработки промышленных систем методом «как выбрать подходящую ЛЛМ-ку и сделать ей правильный промт?». Отрыв от действительности, на мой взгляд, будет существенный. Что думают эксперты по этому поводу? Где брать… где брать «миддлов»?
Егор Смирнов: Очень много над этим вопросом думал, и у меня есть пара траекторий, по которым можно на этот вопрос ответить. С одной стороны, я представляю, поскольку я занимаю управленческую должность, но мне время от времени самому что-то нужно кодить, например, данные проанализировать, извлечь. Но опыт программирования у меня довольно узкий, и я хотел бы его получить. Но, банально, нету времени. То есть когда за тебя делает всё это искусственный интеллект, у тебя нету времени получить эти навыки, если… Но это мой случай. То есть, я понимаю, что такими темпами я не дойду до того, чтобы, прямо сесть и, там, на уровне, там, «миддла» доучить этот язык. То есть, у меня банально не хватает времени, и я так и буду пользоваться искусственным интеллектом. Да, я приобретаю навыки, например, архитектора. То есть я учусь, если мне что-то нужно более сложное сделать, я дроблю код на «чанки», чтобы он был более простой, и уровень успеха всё повышался, чтобы он меньше ошибок мне давал. Но с другой стороны, давайте посмотрим на какого-нибудь человека, который хочет стать джуном, а потом и «миддлом». У него же это основная работа, ему ничего не мешает. И здесь он получает возможность вместо того, чтобы тратить много времени на какой-нибудь стек-оверфлоу, на прочтение документации, если это человек ответственный, если это человек добросовестный, он будет использовать это не как замену своему труду, а как… в идеальном мире, как мы себя представляем, это как такого «копайлота»-помощника. То есть здесь на первый план выходит этика, с какой он…
Андрей Духвалов: Ой, этику мы ещё не трогали.
Егор Смирнов: Да, с какой он взаимодействует с искусственным интеллектом. Если он говорит «Ну, напиши за меня это, проверил — вроде работает». Такой подход, очевидно, не взлетит, и человек до миддла, возможно, не дорастёт. В то время как если ты используешь его, чтобы быстрее искать документацию, чтобы он тебе объяснял, например, переменные аргументы и так далее, это уже другой вопрос. Ты просто ускоряешь своё обучение.
Андрей Духвалов: Это понятно, передача знаний быстрее происходит.
Егор Смирнов: Да. Через это вывести к тому, что, возможно, скоро у нас собеседования будут выглядеть совершенно по-другому на должность, там, джуна или миддла. Возможно, мы теперь будем смотреть на то, как человек пользуется этими инструментами, а не на то, как он, например, умеет программировать, хорошо вольётся в компанию. То есть если человек добросовестно этим пользуется, добросовестно ищет, и у него есть такая внутренняя этика, то, значит, он будет и дальше расти, даже в этом расслабляющем мире ИИ-помощников.
Андрей Духвалов: Вот вы говорите, «разбиваю код на чанки». Мне представляется, что это уже такая… это из серии архитектурных задач. То есть, этот, джун, ему нужен весь предыдущий опыт, чтобы научиться делать это.
Егор Смирнов: Я не соглашусь. И у меня, наверное, даже такого, не знаю, наверное, и джуновского опыта нету. Ну то есть я умею какие-то решать задачки, но…
Андрей Духвалов: То есть сразу архитектором вырос?
Егор Смирнов: Да, я сразу…
Андрей Духвалов: Может быть, это и есть ответ — «растить джунов-архитектором».
Егор Смирнов: Сейчас, одну секунду. Вы же представляете логически, что вы хотите от программы? И если вы умеете логически это всё разбивать на подзадачи, умеете таким образом мыслить, вы даже с текущим уровнем развития искусственного интеллекта можете закрывать довольно несложные, даже такие средненькие задачи, прям, не то чтобы простые. Тут уже даже не промпт-инжиниринг, а уже частично архитектура.
Андрей Духвалов: Именно архитектура, наверное, это важнее. Сергей!
Сергей Аносов: Да, давайте такой неожиданный ответ, наверное, на ваш вопрос. У меня есть знакомый, он работает на одного из лидеров в развитии искусственного интеллекта, естественно, западного. И он говорит — «Задача моя и моей команды – это научить искусственный интеллект писать код, как человек». То есть писать, как человек пишет. Обычно это…
Андрей Духвалов: То есть с багами?
Егор Смирнов: Не без этого, конечно. Как человек обычно пишет? То есть, пишет название функции, открывает скобочки, открывающие, закрывающие, ставит. А, там, фигурные скобки, соответственно, которые тело, функции выделяют и прочее. И он говорит, я чувствую себя, как будто я, как обезьянка, грубо говоря, учу искусственный интеллект думать, как человек. Так вот, где выбрать Джунов? Отдать искусственному интеллекту, когда он научится писать так, как человек, он будет обучать обучать Джунов на простеньких задачах проверять ответы и растить из них миддлов.
Андрей Духвалов: Наверное, это не совсем про то, что я думал…
Андрей Духвалов: Джуны учатся не в аудиториях, не на учебных задачах. Они учатся после этого, когда приходят на… Это мое мнение. Приходят на работу, им ставят конкретную задачу, и он такой сидит и думает «Блин, я эту лекцию пропустил, чего же делать?» Что-то ему приходится делать. Если он справляется с этим, то он и растет в это время.
Павел Мозгов: Знаете, я бы так посмотрел. Я бы вообще посмотрел на культуру разработки в команде. Почему искусственный интеллект не может быть как бы вторым мнением? Когда Джун не использует его для написания кода, а пишет код и проверяет, да, с помощью искусственного интеллекта, насколько он там корректен. И после этого уже, конечно же, идет, там, на код-ревью дальше, там, к синьору и так далее. То есть, как второе мнение, мне кажется, это хорошая история, чтобы «джун» рос в «миддла», но при этом у него всегда была возможность, получить такое мнение со стороны, с помощью искусственного интеллекта.
Андрей Духвалов: А вот, Константин?
Константин Сорокин: Я согласен с предыдущим пунктом тоже по поводу того, что, действительно, искусственный интеллект, поможет упростить в некотором смысле воспитание джунов и наверное, даже процесс анбординга. Это если с одной стороны посмотреть. Но с другой стороны, у меня, наверное, есть такое мнение, и не только у меня, то есть у ряда тоже, там, известных людей, которые работают в области, которая связана с применением искусственного интеллекта, в той же программной инженерии. Скажем так, круг навыков, то множество навыков, которые сейчас необходимы при приёме на работу, если ты нигде до этого не работал, оно очень сильно меняется. Соответственно, процессы, которые будут в компаниях для онбординга новых сотрудников, особенно молодых, они тоже будут меняться. С одной стороны, на самом деле, все джуны будут страдать, потому что им гораздо сложнее будет найти работу, потому что все эти простые задачи, которые мы сейчас обсудили, они будут, скорее всего, бизнесам отдаваться просто по экономическим соображениям просто на откуп, по сути, машине, потому что она за гораздо меньшее количество денег может решать, те же самые задачи. Соответственно, это первая проблема, которую, вижу я, как мне кажется.
Второй момент — это то, что… при этом, компаниям всё равно необходимы будут миддлы и, соответственно, сеньоры и дальше. То есть у нас действительно появляется это, некоторое смещение навыков, в сторону того, что, джунам, необходимо будет уже на старте после выпуска, из университетов или, может быть, какие-то прикладные курсы, которые сейчас вводятся в компании, они должны будут учить этим вот навыкам. Умениям параллельного проектирования кода, каким-то более тяжеловесным задачам. То есть усложняется эта история. Это с одной стороны. Это должны быть, наверное, даже какие-то менеджерские навыки, потому что, как мы до этого обсуждали, если все сведется к созданию каких-то команд виртуальных программных ассистентов, то мы должны будет уметь с ними как-то взаимодействовать, ими управлять. Поэтому это тоже важный пункт, для тех же джунов в том числе. И именно из экономических соображений, как мы знаем, никто не будет говорить «мы будем набирать джунов, и все будет в порядке».
Андрей Духвалов: Конечно, так бизнес делать не будет, Ирина может подтвердить.
Константин Сорокин: О том и речь, да. Придется немножко менять, наверное, профиль подготовки. Будет сложнее, находить себе работу с точки зрения стартовых позиций. Но при этом компаниям надо будет самим думать о том, как сделать так, чтобы появились сильные сотрудники, которые смогут грамотно всем этим управлять и вырастать в миддлов и сеньоров. А это именно их задача, наверное, будет придумать, как правильно совместить наличие этих новых, современных инструментов, с подготовкой молодых кадров, которые смогут правильные вещи делать. И правильно там сказали, действительно, собеседования поменяются в корне. Действительно, будут эти этические моменты с тем, что «покажи, как ты применяешь инструменты на практике, и как ты будешь это делать». И важный момент, который тоже отметили, — это культура разработки в команде. Потому что если вы когда-то видели код, который генерится LLM-ками, даже хорошими LLM-ками вы, скорее всего, не захотите пускать большую часть этого кода в production без какой-то переработки. Я искренне надеюсь на то, что культура разработки в команде возрастет. То есть больше команд будут соблюдать, там, правильный код-ревью, больше команд будут встраивать какие-то правильные, там, continuous integration пайплайны, потому что просто так заливать код автосгенерированный мы, скорее всего, не захотим. Ну или, по крайней мере, если это будет код, в котором надо проводить какое-то… Нужно иметь глубокое понимание, скажем так. Особенно это если касается операционных систем.
Андрей Духвалов: У меня что-то появилась мысль больше работать в команде в стиле вайб-кодинг, когда у тебя команда мультиагентов. И ты такой, командуешь фронтами. Екатерина, смотрите, сейчас Константин сказал, что, корпорации должны задумываться о том, как они будут себе растить смену. Мне кажется, корпорации так не задумываются.
Екатерина Свиридова: Задумываются. Пройдя по стенам РЭУ имени Плеханова, вы можете увидеть на кабинетах надписи «Лаборатория Газпромбанка», «Лаборатория Росатом» и так далее. Поэтому корпорации об этом очень хорошо думают и вкладываются в образование. Так же, помимо того, что я представитель бизнеса, я и представитель РЭУ имени Плеханова, и я веду занятия у студентов. Я именно преподаватель, поэтому я могу сказать, как обучаем джунов. И я могу сказать, что те джуны, которых я обучала, я же взяла на работу, и они у меня успешно работают. И искусственный интеллект в плане обучения джунов играет здесь даже отрицательную роль, потому что
так как у меня большая аудитория, я не могу сидеть над каждым и контролировать, как они делают. То есть у меня есть какие-то контрольные материалы, и мы их сдаём. И они просто используют искусственный интеллект, сдают мне эти лабораторные, и мне приходится каждого спрашивать «что значит это слово». И не каждый из них может это ответить.
Мне кажется, что развитие джунов – первое, это как раз-таки то, что компании уже сейчас создают свои лаборатории.
По поводу преподавательского опыта. Так как я имею большой промышленный опыт, я понимаю, что нужно компании, и на своих занятиях я именно это точно передаю. Поэтому те ребята, которые пришли на те позиции, они уже, в принципе, имели релевантный опыт, и им нужно просто его наложить на те задачи, которые я им даю. И самая большая проблема, которая у нас встречается, это то, что они имеют знания, их просто нужно подтолкнуть, им нужно сказать, что «Мы вот это вот делали. Иди, сделай вот так». И дальше у нас нет проблем. Спасибо.
Андрей Духвалов: Ты ещё хотел сказать, да?
Николай Костригин: Я хотел прокомментировать. Этот полученный опыт, я думаю, он со течением времени будет меняться. Как раз, когда Сергей говорил про разные поколения, доверие к искусственному интеллекту у всех поколений, которые будут идти следом, будет всё повышаться и повышаться. И учить будут уже следующие поколения, еще более следующее поколения. Текущий опыт нужно будет очень сильно менять.
Константин Сорокин: Если мы меняться не будет, то тогда это «Технологии бегут вперёд, а мы останемся сзади».
Николай Костригин: Когда-то нас заставляли считать в уме, отнимали калькуляторы. В наше время уже были калькуляторы, но нам их не разрешали.
Андрей Духвалов: Да, Екатерина, а вы сказали, что вы своим студентам при обучении говорят «объясни мне, что значит это слово». А он этот, из Co-Pilot-а получил этот код 10 килобайт. И что, вы думаете, он ответит вам, что это за функция и что она делает?
Екатерина Свиридова: Да, именно это я от них… Давайте так, в рамках обучения у нас нет какого-то огромного кода. Наш код занимает, там, 100 строчек, допустим. Это какая-то функция, которая выполняет одно конкретное действие.
Андрей Духвалов: Это как раз в целях обучения?
Екатерина Свиридова: Да. Если мы говорим про СУБД, как я и говорила в своём первом выступлении, у нас есть там несколько десятков тысяч процедур и функций, которые ведут какую-то бизнес-логику. И они на самом деле не все огромные. Есть достаточно компактные, но они взаимосвязаны друг с другом, и строится такая логика между ними.
Поэтому, да, в рамках обучения у студентов у меня там есть 100 строчек кода, и я не спрашиваю какие-то такие каверзные вопросы. Я спрашиваю, что такое «from», что оно значит, и что после него должно идти. То есть такие вопросы…
По смыслу, да. То есть я должна понимать, что студент осознанно подходил к этому заданию, что он даже если он использовал какой-то искусственный интеллект, что он хотя бы понимает, что здесь есть.
Андрей Духвалов: Понятно.
Александр Певзнер: Вопрос, который вы задали, он на самом деле очень интересный. Я совсем недавно, там, буквально неделю назад, обсуждал очень похожий вопрос со своим знакомым, доцентом из Астрахани, который тоже занимается подготовкой студентов, программистов. Я думаю, это на самом деле вы сейчас подсветили системную проблему. Искусственный интеллект подсветил системную проблему — как люди приходят в профессию. Ведь сейчас человек приходит, джун приходит в корпорацию, ему дают простые задачи. Перевести, там, «100 строк кода, с три-пятого-питона».
Андрей Духвалов: Как Екатерина сказала. Была версия такая, перевели её на, там, версию…
Александр Певзнер: Найти простую ошибку в большой системе, ошибку из серии «промах по буферу» то есть, простую. Такого рода вещи. И Джун этого делает-делает-делает. Чему он на этом учится? Он ничему на этом не учится. Если он чему-то учится, он учится мимо этого. То есть он смотрит вокруг, он читает литературу, он интересуется. На этом он учится. На своей работе он не учится. На своей работе он учится только, тщательно исполнять маленькие порученные задачи и стремиться увеличивать свой КПИ, там, делать это за три дня, за неделю.
Андрей Духвалов: Я бы поспорил.
Александр Певзнер: Сейчас я договорю. Как мне кажется, люди, которые достигли высокого профессионализма, их путь был другой. Это люди, которые с самого начала были вовлечены в какой-то самостоятельный проект, пусть не очень масштабный, но самостоятельный, в котором они, какую-то задачу решали, какую-то тему вели. Я уверен, что это ваш путь. Я насколько понимаю, вы хакеры с 80-х. Я уверен, что это путь Евгения Касперского, это мой путь. Это путь многих людей, которые достигли высокого профессионализма. Это люди, которые с самого начала вели какую-то тему. И постепенно тема усложнялась, кругозор увеличивался, опыт увеличился, и эти люди достигли высокого профессионализма. Может быть, надо корпорациям двигаться в эту сторону. Значит, это существует в природе. В Google это понимают и проводят ежегодно такое мероприятие «Google Summer of Code», где студенты, все желающие, фактически, могут участвовать в таких самостоятельных опен-сорсных проектах. И это именно что «кисточки мыть художнику и пиццу приносить» — а это именно своя собственная какая-то тема, о которой люди договариваются.
Андрей Духвалов: «Кисточки мыть» — это японский путь. Когда подмастерье у мастера, 15 лет точит карандаши.
Александр Певзнер: Там ещё есть важный момент. Там бьют бамбуковой палкой, чего мы не можем делать, к сожалению, поэтому нам этот путь не сработает.
Андрей Духвалов: Я здесь согласен с вами. И, наоборот, даже хотел бы усилить. Там я у Егора услышал, он сам первый выступал, и услышал у него, может, не явно… По крайней мере, у меня родилась мысль такая, что на самом деле искусственный интеллект нам поможет растить джунов-архитекторов. Это, примерно то, про что вы сейчас сказали, чтобы не «кисточки мыть», а свой проект.
Нет, пускай он выполняет коммерческие задачи, но не в качестве… выполнения рутинной работы, которую, там, не знаю, прошу прощения, не очень умный человек может выполнить. А именно с точки зрения, выполнения каких-то конструктивных архитектурных задач. И искусственный интеллект ему будет помогать эту всю рутину исправлять. Егор.
Егор Васин: Можно ещё раз вопрос повторить?
Андрей Духвалов: Я это… Я Егору задавал. Я не Егору, я Егору задавал вопрос. 😁🤭
Егор Смирнов: Я здесь, да, скорее соглашусь. Опять же, если человек не из-под палки делает, а у него какой-то душевный порыв, он какой-то своей темой как правильно занимается, да, вот отсюда растут самые классные кадры. И, действительно, это, опять же, из опыта человека, который в программировании относительно «Человек новый» я могу сказать, что вот есть определённая дисгармония между состоянием фрустрации от того, что ты хочешь уже что-то сделать. Ты хочешь какую-то логику сделать, чтобы для тебя твой код уже что-то делал, но ты очень долгое время застреваешь на каких-то простых…
Андрей Духвалов: На выполнении рутинных задач, которые у тебя нет опыта выполнять.
Егор Смирнов: Совершенно верно, совершенно верно. А здесь ты… насколько ты нетерпелив? Ты будешь потом разбираться в том, что тебе нейронка нагенерила… сперва вот это вот всё, как-то впитаешь в себя, и только потом двигаешься дальше? Или ты так на этом уровне и останешься, и пойдёшь дальше свою логику вот этими маленькими кусочками пилить, и забудешь про вникание в дело?
Андрей Духвалов: В том-то и дело, что сейчас искусственный интеллект приводит к тому, что за этими мелочами, пусть они будут и важные, но они, скажем так, важные с точки зрения, там, плавности, правильности выполнения кода, отсутствие багов, уязвимостей — они могут быть правильные. Но такие высокоуровнево-логические архитектурные задачи, искусственный интеллект же за нас не сделает, правильно?
Егор Смирнов: Нет, не сделает. И я думаю, это может быть такая потенциальная развилка, с которой студент уходит либо на какую-нибудь тропу «Продакта»[2], говорит, ладно, неинтересно, мне интересно придумывать фичи-продукты и так далее, да. А другой говорит, нет, вот у меня вот эта вот вся внутренняя красота, как он устроен, красота этой логики, как данные преобразуются, она мне больше устраивает.
Андрей Духвалов: Красоту-то как раз понимают архитекторы.
Егор Смирнов: Поэтому я на этом уровне останусь. И буду, не знаю, там несколько раз функцию переписывать, чтобы она, там, работала ещё эффективнее, чтобы она занимала вообще две строчки кода, чтобы потом её, например, там в учебниках в качестве примера вставляли.
Андрей Духвалов: Этот стимул, конечно, там двигает, но только это 3% из всех студентов. А что делать с остальными?
Егор Смирнов: А может быть, в новых реалиях нам 3% и хватит? Учитывая, что это будут 3% на стироль. Сейчас тут уже социальные задачи. Не про то, что нам хватит для генерации кода. Нет, здесь проблем индустрии, этических проблем много. Да, я не говорю, что это всё будет очень просто решаться. Но для людей увлечённых это… То есть они, безусловно, найдут новый способ.
Андрей Духвалов: То есть искусственный интеллект нам поможет селектировать творцов?
Егор Смирнов: Уже сейчас это будет какой-то маркер, который мы на собеседованиях будем узнавать.
Петр Черников: Здравствуйте. Черников Петр, компания «Ядро». У меня еще более философский вопрос на ваш вопрос. А чем глобально различается, а сможет ли заменить «джуниор искусственный интеллект» «джуниора естественного интеллекта» от ранее заданного глобального вопроса «А сможет ли заменить искусственный интеллект естественный интеллект?»
Андрей Духвалов: Да, в принципе, ничем не отличаются. Мне кажется, искусственный интеллект несколько меняет правила игры. На мой взгляд, сейчас, по крайней мере, я так отношусь, может, я не прав, искусственный интеллект — это некоторый инструмент. Он более сильный, чем те инструменты, которые мы применяли раньше. Я не говорю, что мы отказаться должны, там, от статического анализа или от файзинга, или от чего-нибудь ещё. В дополнение к этому мы получаем ещё один мощный инструмент. Человек на на гужевой повозке ездил, а теперь он на самолёте летает через океаны. Просто новые возможности появляются, и теперь нам надо понять, как этими возможностями правильно использовать так, чтобы не навредить. Так, чтобы получить максимум эффективности, первое, и так, чтобы не разрушить что-нибудь, что было до этого.
Петр Черников: Я подуточню. Ваш вопрос я свёл к тому, типа, что есть проблематика, что у нас искусственный джуниор-интеллект может заменить естественный джуниор-интеллект, и как нам тогда растить «middle естественный интеллект» и так далее.
Андрей Духвалов: Не совсем так. Я задал вопрос так: откуда появятся сеньоры и архитекторы, если они не прошли стадию «Джун» и «Мидл».
Они её пролетели, эту стадию. Им не надо было никаких умственных усилий прикладывать. Они использовали искусственный интеллект, и он им код нагенерил в «Копайлоте» или… или ещё как-нибудь.
Петр Черников: То есть, ваш вопрос был про верификацию, а честным ли способом он прошёл стадию джуна?
Андрей Духвалов: Нет, нет. Мой вопрос был про то, что они пропустили стадию обучения.
Стас Фомин: Звучит это «как он может стать мужчиной, если он не служил в армии»
Андрей Духвалов: Типа этого.
Стас Фомин: Это классическая дедовщина, и неудивительно что этот вопрос задает … 😜🙄
Андрей Духвалов: Вот спасибо! 😏😬
Стас Фомин: Небольшая реклама. Если кто-то преподает и сталкивается с теми же проблемами, что студенты порешали с помощью чат-ЖПТ все задачи-экзамены и ничего не получаются. Посмотрите доклад «Flip Classroom One More Time…». Это как раз подход, как на базе open-source уйти от книг-тестов и прочего старья, перейти к практико-ориентированному исследовательскому преподаванию в браузере различных курсов, а ИИ будет только помогать. Кстати, я уже выложил видео вчерашних докладов, они там тоже уже лежат. Так, есть ли ещё вопросы?
Николай Костригин: У меня есть вброс. Уже в одном шаге от проблемы и курицы, и яйца. Что первичнее? Что первичнее будет потом, в дальнейшем? То есть, когда поколение синьоров и мидлов уйдет на пенсию 👴👵👴💀? То есть будет ли это вырождение, или это будет всё-таки…
Андрей Духвалов: Будут промпт-мидлы, промпт-синьоры. 🤖👾
Михаил Новоселов: Здесь проблематика, конечно, правильная, но я бы ещё хотел сказать, что… все равно человек, если столкнется с такими задачами серьезными, он их, скорее всего, не сможет решить с помощью искусственного интеллекта, по крайней мере, на его текущем этапе развития. И он так или иначе будет вынужден разобраться во всем этом, то и сам себя научит многому. А если у компании задачи стоят такие, что у человека не возникает необходимости самому обучиться, то, может быть, стоит подумать об оптимизации этих задач, потому что ИИ, он хорошо пишет то, что уже много людей много раз написали. Соответственно, далеко не всегда, но, возможно, в ряде случаев, если такая проблема станет очень остро, что «Джуну не на чем учиться», то, возможно, просто стоит смириться с тем, что вы изобретаете велосипед, и искусственный интеллект может вполне хорошо это делать. Понятное дело, что далеко не всегда, но, я думаю, об этом не стоит забывать.
Андрей Духвалов: Да, понятно. Хорошо, ладно, давайте эту тему … мы её так обсудили, я не знаю … Я для себя как-то ответ получил, но не уверен, что многие его разделяют. Хорошо, ладно. Я хочу ещё другой вопрос, на мой взгляд, не менее важный, поднять.
Соотношение искусственного интеллекта и информационной безопасности. Даже, может быть, шире. Не обязательно информационная, просто безопасность. Я понимаю, что искусственный интеллект будет все больше и больше использоваться в том числе и в операционных системах. Почему в операционных системах? Потому что операционные системы аккумулируют в себе наиболее часто используемые функционалы и сервисы. Она для этого и нужна, чтобы предоставить наиболее востребованные инструменты. Сейчас вот появился искусственный интеллект. Мы уже немножко там затронули этот вопрос.
Я не знаю, как, но в каком-то ближайшем будущем операционные системы будут содержать в себя сервисы искусственного интеллекта. Там, в телефоне, там, уже эти, там, где-то «Алисы» завелись, где-то ещё что-то такое. Это пока внешние приложения, но скоро скоро они будут нативной частью операционной системы. И, не побоюсь этого слова, даже ядра. А все мы знаем,
у искусственного интеллекта есть проблемы. Мы их уже перечисляли. И самая большая проблема — это доверие. То есть операционная система — это такого рода софт, которому, если ты не доверяешь, то как дальше жить? И мне хочется услышать мнение экспертов об этом. Постулат такой, база, от которой я хотел бы, чтобы вы оттолкнулись — что искусственный интеллект уже находится в ядре операционной системы. Мы это как данность давайте примем. И теперь давайте попробуем обсудить, а какие из этого вытекают следствия, с точки зрения использования его, информационной безопасности? Меня больше всего это интересует. Вопрос — что теперь делать? Искусственный интеллект уже пришёл, он уже в операционной системе. Не знаю, в каком виде.
Николай Костригин: Не пользоваться устройствами. Есть довольно популярные уже промты, когда он отказывается из каких-то, своих ограничений рассказывать, как сделать танк, как сделать оружие, и как делать его элементарными увещеваниями, там, «как бы мне случайно не сделать танк?», «как мне случайно не сделать?», заставляют обходить собственные ограничения.
Кто запретит хакеру 😎🖤 сказать «Я случайно забыл свой SSH-ключ»😈?
Андрей Духвалов: Мне кажется, эта проблема, она решится так или иначе. То есть этот промп-то предварительно обрабатывается, и выдача тоже обрабатывается какими-то системами, которые там что-то… не знаю уж, вряд ли искусственный интеллект, но, может быть, тоже искусственный интеллект, который выдачу, чат-джи-пити на, там, противоправные действия, там, насилие, наркотики, они…
Модераторы, скажем так.
Николай Костригин: А здесь мы говорим о локальном искусственном интеллекте или… Ну, операционная система. …облачном искусственном интеллекте. То есть, устройство станет для нас терминалом к какому-то вычислителю, или всё-таки оно будет самостоятельным?
Андрей Духвалов: А я, честно говоря, не знаю. Операционная система сейчас в разных… в разных ипостасях выступает. И это и локальная операционная система, и одновременный терминал туда куда-нибудь. Егор?
Егор Смирнов: Да, у меня было такое предложение рассматривать текущую ситуацию как какой-то временный «Дикий Запад», потому что внезапно взорвались в использовании искусственные ассистенты, агенты и так далее. Причём всё это на непонятно каких данных, которые были чуть ли не украдены или из серой зоны интернета взяты. И мы сейчас действуем на таком, на хайпе, на воодушевлении. Это можно сравнить с каким-то цунами, которое нас накрыло. И сейчас, как только как только оно схлынет, у нас останутся там озёра, лужи. Это те места, в которых искусственный интеллект закрепится. И та же история будет происходить, мне кажется, с безопасностью и с каким-то доверием. Потому что сейчас у нас нету, почти нету никаких организаций, методов, подходов, для увеличения доверия.
Андрей Духвалов: ИСПРАН? Лаборатория Касперского, без ложной скромности. Скажи, мы как раз этим занимаемся.
Егор Смирнов: Но давно ли мы начали этим заниматься?
Андрей Духвалов: Нет.
Егор Смирнов: В том-то и дело, что пока сейчас никто, мне кажется, не готов просто так без надзора оставить искусственный интеллект. По прошествии времени, я уверен, мы обрастем методами, которые сделают искусственный интеллект более доверенными хотя бы.
Хотя бы, наверное, начать с простой проверки данных, на которых он учился.
Андрей Духвалов: Ничего себе! Простой проверки данных! Вы представляете, как там этот самый, там, не знаю, 500 петабайт данных, как… Давайте-ка мы их проверим! А на какой предмет, кстати, проверить? Сейчас Сергей.
Сергей Аносов: Да, Андрей Петрович, мне кажется, задали такой очень философский вопрос. Он, наверное, схож на с тем, а есть ли вообще там приватность, да? Мы живём в эпоху камер, где за каждым можно проследить. Там цифровые профили, цифровые двойники, которые… Всю информацию о вас можно купить, продать. И в целом это, не какая-то проблема, ни для государства, ни для крупной компании. Что будет, когда у нас искусственный интеллект появится в ядре? То есть, у вас в ядре есть, условно говоря, система, которая работает по принципу чёрного ящика. Как и на основе чего будут приниматься решения? Это мы не всегда будем знать и понимать, и, наверное…
Андрей Духвалов: Сергей, прошу прощения, а сейчас ядро по принципу белого ящика работает?
Сергей Аносов: Не, ну хотя бы у вас есть… Оно работает на основе алгоритмов, которые вы явно задали и прописали. А как бы что будет, когда там появятся искусственный интеллект, и какие решения он будет принимать? Мы, наверное, этим не сможем управлять. И как бы как одно из решений, наверное, появится что-то на уровне выше ядра, как сейчас есть там. На уровне, если брать современные мобильные операционные системы ТЕ и контроллеры, которые выше ядра, и которые будут иметь условный стоп-кран, чтобы этот промпт, там, вообще никак нельзя выполнять и прочее.
Андрей Духвалов: Выше или ниже?
Сергей Аносов: Я имею в виду, более значимая проверка будет. Да, то есть кто-то, кто ещё стоит над ядром, и вот механизмы… И там никакого искусственного интеллекта.
Александр Певзнер: Касательно этого вопроса, мне кажется, сегодня на ассемблере мало кто пишет код, только в каких-то там супергорячих каких-то частях операционной системы или там в низкоуровневом взаимодействии с устройствами, но при этом мы пишем на более высокоуровневых языках программирования. Я думаю, что здесь, если говорить про искусственный интеллект, примерно произойдёт то же самое, когда мы разрабатываем взаимодействие с системой уже через другие языки, другие примитивы, но в любой момент, мне кажется, останется необходимость в отрасли, в людях, хакерах, в правильном смысле этого слова, которые творчески умеют подходить к технологиям и видеть немножко выше и дальше, чем то, что видно на первый взгляд.
Андрей Духвалов: С точки зрения параноика?
Александр Певзнер: Нет, с точки зрения безопасности. Мы говорим про вопрос безопасности.
Андрей Духвалов: Это одно и то же.
Александр Певзнер: А, нет. Уязвимость — это какая-то ошибка, которую видит исследователь, но не увидел автор. Значит, от исследователя требуется большее проникновение, большее понимание этого кода. По той же самой причине, там, будут всё равно нужны люди, эксперты и их методы, которые позволяют увидеть
глубже, чем увидели, например, АИ-ассистенты. Найти те уязвимости, которые ещё не нашли Co-Pilot, агенты, статические анализы, другие методы. Просто будет всё равно граница между теми багами, которые уже найдены, и теми, которые нет, и там нужен будет человек с творческим подходом к технологиям. Поэтому мне кажется, там, резюмируя — думать, анализировать и хакерски подходить к технологиям — это конкурентное преимущество, которое нужно сохранять.
👏👏👏 😊 🙏
Андрей Духвалов: Хорошо, я тоже поаплодирую. Но тем не менее, я всё-таки не согласен. Смотрите, по поводу квалификации. Тот программист, который написал код, и тот, кто его анализирует… — он должен быть выше, да. Я с чем не согласен? Что для того, чтобы найти багу… Вернее, не багу, а уязвимость, так скажем, более правильно, нужно на другую точку зрения встать. Уж поверьте мне, я, там, этим занимаюсь, в смысле, я вижу этих ребят. Я сам-то тоже, ну… не творец, ладно. Конструктор, скажем так. А рядом со мной работают ребята, которые на этот же код смотрят по-другому. Я смотрю на то, как сделать так, чтобы он работал. Они смотрят так, как сделать так, чтобы он не работал. Это другая точка зрения. Это паранойя. Это профессиональная деформация. Вот реально. Это профессиональная деформация. Ресерчеры на одни и те же вещи смотрят с другой стороны. Смотрят, где у них слабое место, как они… как их можно заставить не работать. Всегда и абсолютно. А может быть, это не люди будут? Может быть, это два искусственных интеллекта?
Один, типа, такой, другой такой…
Павел Мозгов: Когда мы говорим про доверие сейчас к искусственному интеллекту, ну давайте согласимся, доверять не нужно. Причём даже больше… Да, конечно, я с этим согласен. Да, да, доверять не нужно, да. Причём можно повернуть искусственный интеллект в этом вопросе тоже во благо, да, создавая инструменты для детектирования аномалий с использованием искусственного интеллекта и дообучать модели, да, причём, может быть, даже динамически, да, обучать модели, да, для того, чтобы, в общем, детектировать подобные аномалии. С одной стороны, вроде как боимся, а что будет, но при этом не говорим, а как мы можем использовать искусственный интеллект, чтобы повысить этот уровень доверия. К нему же.
Андрей Духвалов: Наверное, это про то, что я сказал. То есть два искусственных интеллекта. Один Copilot пишет код в продакшен, а другой, не знаю, как его… «Co-Researcher», да? Который смотрит за этим и говорит, там у тебя, типа, бага.
Павел Мозгов: Да, ну мы же видели, была история, когда там Алиса со Салютом между собой спорили, они там до такого договорились, что…
Александр Певзнер: Вчера у нас была такая, низкоуровневая сессия. Мы услышали много про изоляцию на уровне, виртуальных машин, про все эти низкоуровневые штуки. И даже про статическое распределение памяти в системе, которая, там, даёт гарантию, что память не кончится в момент взлёта самолёта. Это же было, я думаю, там, про авиа, про авионику. То есть такой очень низкоуровневый взгляд на вещи. Понятно, там, системному программисту всегда хочется, чтобы решить какие-нибудь проблемы, написать какой-нибудь ядерный код. Это понятно.
Звучало много слов про конструкционную безопасность. И я, насколько понимаю, то же самое, что «Secure by Design», которое там Касперский любит, это слоган.
Андрей Духвалов: … ну, не очень…
Александр Певзнер: Да, не очень понятно, что это такое, вызывает впечатление, что не хватает какой-то методологии отношения к проблемам информационной безопасности, потому что, новая область, на самом деле, не очень понятно, что делать, чтобы оказываться в безопасности. Нужна какая-то методология. И конструкционная безопасность — это не набор конкретных паттернов, а именно попытка даже подступиться к вопросам выработки этой методологии.
Следующая мысль. Значит, очень низкоуровневая вещь, но смотрите, мне, как пользователю, мне всё равно, взломают ядро или нет. Но, например, если я предприятие, и у меня могут посмотреть документы, которые бухгалтер напечатал на принтере, у меня проблема. Это можно сделать, не обходя ничего. Современные принтеры много чего отдают про напечатанные документы. Например, заголовки можно посмотреть, а если там написано «Премирование Петрова», «Приказ об увольнении Иванова», много информации может уйти, без нарушения единого, там, чего бы то ни было низкоуровневого. Все протоколы соблюдены, а данные утекают. Значит, у нас нету видения такого более высокоуровневого, что такое компьютер, что такое информационная безопасность для человека с точки зрения его жизни, а не взлома драйвера. Этот переход, он как… как-то совсем не звучит на этом уровне.
Значит, добавляя искусственный интеллект в эту конструкцию, мы повышаем эту планку. Мы как бы переходим на этот высокий уровень. Опять же, искусственный интеллект ничего не добавляет проблем. Ну он даже… он подсвечивает те проблемы, которые и так уже есть. Они и так уже есть. Но когда мы добавляем в эту конструкцию какого-то ИИ-ассистента, мы их проявляем, потому что через ИИ-ассистента могут утекать данные. И может быть, тут вопрос…
Андрей Духвалов: Прошу прощения, у нас очень мало времени осталось.
Александр Певзнер: Я буквально закончу мысль, и всё. И может быть, тут правильный ответ,заключается не в этом, поиске под микробами, под микроскопом, а в выработке каких-то гигиенических правил. Мы сейчас знаем, что надо мыть руки, и мы не умираем от инфекционных болезней. А раньше, сто лет назад, люди умирали в основном от инфекций!
Андрей Духвалов: Мы не умираем от инфекционных болезней ещё по причине фармацевтики. Петр Николаевич!
Петр Девянин: Коллеги, базовый ответ на вопрос, находится на поверхности по этой тематике. Опять вспоминаем — конструктивная информационная безопасность. О безопасности надо думать до, а не после. Некорректно ставить вопрос «давайте сначала запихнем технологии искусственного интеллекта в ядро, а потом подумаем, как это сделать безопасно». Опять-таки, вспоминаем наименование конференции «Изоляция». Очевидно, что эти компоненты должны должным образом изолироваться от других компонентов операционной системы, таким образом, чтобы какие-то проблемы, связанные именно с технологиями искусственного интеллекта, как с программным обеспечением, не сказывались на безопасности систем. Далее, искусственному интеллекту, если, опять-таки, мы говорим о безопасности, необходимо поручать ровно те функции, которые ему соответствует и которые не нарушат принципиально безопасность системы. Например, в науке известен такой подход — МЛБ[3], управление доступом — такая страшная вещь, что-то не базовый механизм защиты на основе искусственного интеллекта.
Если вы делаете операционную систему из соображений, там, удобства, как у нас часто говорят, делаете это единственным механизмом защиты операционной системы, как механизмом управления доступом. Скорее всего, ваша операционная система будет сплошной дырой, и вы никогда не докажете, что очень важно, что она безопасна. А если, условно, я фантазирую на основе того, что мне ближе, строите операционную систему, где базовую функцию управления доступом реализует мандатный контроль целостности и замкнутая программная среда, а ИИ, как такой бантик, как элемент, дополняющий, может быть, какие-то функции ролевого управления доступом… На уровне сервиса. Да, на уровне сервиса улучшает управление доступом некритичных для безопасности систем. То есть, у вас есть стена защиты из основных фундаментальных механизмов, а MLB улучшает, то, что ему и положено улучшать. Если идти таким образом, мы решим стоящие перед применением искусственного интеллекта в операционных системах вопросы. Спасибо.
Андрей Духвалов: Я бы сказал, академический подход. Наверное, это то, к чему мы должны были сегодня прийти, мне так кажется.
Это действительно правда. Много раз, много раз, там, индустрия проходила через подобного рода вопросы.
Я имею в виду, какие-то появляются новые технологии, а как их адресовать к вопросам безопасности? Вернее, вопросы безопасности к ним. Вот изоляция, да. Не только изоляция, конечно, адресуясь к вашим словам. Это не только изоляция, это, в целом, базовый механизм. Почему мне понравился ваш комментарий? Потому что, собственно, он отвечает на вопрос. Да нет, жить не страшно. Мы справимся. Мы уже много раз проходили через это. У нас есть отработанный механизм, и появится искусственный интеллект, и, дай Бог, ещё что-нибудь появится. мы его в этот… в рамки поставим и будем его контролировать. Это самое главное.
Николай Костригин: На конференции, которая проходила по безопасности искусственного интеллекта, отмечалось, что развитие искусственного интеллекта и вообще его эволюция происходят взрывными темпами. То есть если там паровозы, пароходы, даже IT-отрасль эволюционировали десятки лет, то здесь речь идёт о годах, месяцах и даже неделях. Неделя проходит, выходит новость о существенном улучшении характеристик ИИ. И здесь проблема как раз в том, что в этой гонке
в милитаристском, что ли, плане может быть принято решение где-то доверить, эту изоляцию приоткрыть, как в известном фильме.
Стас Фомин: В каком известном?
Николай Костригин: «Терминатор 2». «Один, два, три, пять». 🤖🤖🤖🤖🤖💀💀💀💀💀
Андрей Духвалов: В смысле, в милитаристском смысле приказном порядке 🪖🫡? Да, не работает. Я объясню, почему. Потому что если технология ☢🚀 позволяет добиться каких-то существенных преимуществ, но она опасна, то насильное запрещение её 👮 приведёт к тому, что она переходит в теневую эту сферу 🥷☣💣☢. Но она развивается всё равно 🚀🚀. Если ж мы понимаем опасность, которая связана с искусственным интеллектом, но одновременно с этим понимаем, что он всё равно независимо ни от нашего, ни от президента желания, ни от «весь мир соберется, его запретит искусственный интеллект», он все равно будет развиваться. Вон, год назад, наверное, было письмо, Маска, кого-то ещё 🤡. Они сказали, надо к искусству, к развитию искусственного интеллекта, надо, там, как-то сильно его ограничить 🚧🧠🚧. И чего? Кто ограничил?
Стас Фомин: Зато вдруг внезапно Маск стал непопулярным, пропал от СМИ, его компании стали разорятся. И кроме того, сейчас некие «Коалиции стран 🗽✡» пытаются одной стране 🕌 запретить ☄ технологию ☢ 100-летней давности…
Андрей Духвалов: Невозможно ✋. Искусственный интеллект запретить невозможно🚫🤖🦾. Это базовый постулат 🕋🕌. От этого надо исходить. Другое дело, что мы с вами сможем сделать, чтобы искусственный интеллект безопасным образом использовать 🤗🦺💰. И то, что Пётр Николаевич говорил, это тот самый способ — использовать наш собственный опыт для того, как мы раньше решали вопросы безопасности 🗿📜🪶? И посмотреть, как эти методы, которые мы раньше решали, адаптировать к новым, изменившимся ситуациям 🚒🚒🚑🚑. Только так 💪🦾.
Хорошо, коллеги. Мне кажется, мы тут подвели такую прям хорошую… Мне очень понравилась позитивная коннотация этого «Всё, беда, беда, никому не доверяем» 😱😰🚨😳😭🆘🙏 — а в конце концов вышли на правильную такую…. Всё, мы справимся!👌🤟 Спасибо большое за участие!
👏👏👏👏
Примечания и ссылки
- ↑ До взрыва 2015 с POODLE и прочим, наоборот, мало кто занимался, грантов на разработку было всего $200, в коде сидели криптографы и гоняли всех, кто что-то пытался рефакторить (что частично было оправдано, после убивания энтропии в 2008 году дебиановским мантейнером, который хотел «улучшить проблему неинициализированной памяти»)
- ↑ Product Owner
- ↑ Скорее всего имелось в виду МБЛ









