Разделы

ПО Искусственный интеллект axenix

В НИУ ВШЭ предложили системный план для безопасного и эффективного использования ИИ в вузах

Исследователь Андрей Терников из НИУ ВШЭ в Санкт-Петербурге предложил пошаговую схему безопасного внедрения больших языковых моделей в университетах. Она учитывает типичные причины сбоев и помогает выстроить работу так, чтобы снизить риски. Такой подход позволяет вузам заранее выявлять уязвимости и безопасно запускать ИИ в обучении. Статья опубликована в журнале Computer. Об этом CNews сообщили представители ВШЭ.

За последние два года большие языковые модели заметно изменили то, как в вузах учатся и оценивают знания. Студенты и преподаватели теперь активно используют искусственный интеллект. По последним данным, около 87% студентов применяют ИИ в учебе. Исследователи отмечают, что мы вошли в «постплагиатную» эпоху — время, когда привычная схема «сам написал или списал» больше не работает, в связи с чем важно описать допустимую помощь от ИИ и границы ответственности студента. При этом регламенты и инфраструктура не всегда успевают за практикой, особенно в дистанционном формате с его ограничениями онлайн-контроля и высокими требованиями к конфиденциальности.

С ростом интереса к технологии выросли и риски. Модели могут «галлюцинировать» и выдавать неточные ответы, а масштабирование использования ИИ-инструментов в университетской среде добавляет технических и организационных задач. Примечательно, что анализ университетских политик в США показывает дисбаланс: более 90% вузов уже выпустили рекомендации по использованию генеративного ИИ для преподавателей и студентов, но менее 20% — для исследователей, сотрудников и администраторов. Это указывает на разрыв между практиками «на витрине» и внутренними регламентами исследовательских учреждений. Нужна понятная системная политика с четкими рекомендациями для преподавателей, студентов и администраторов.

Доцент Санкт-Петербургской школы экономики и менеджмента НИУ ВШЭ Андрей Терников проанализировал причины сбоев LLM (больших языковых моделей) в вузах — ситуаций, когда модель дает неточные ответы, спотыкается на формулировках, опирается на сомнительные данные, а проверить результат и честно оценить ее работу трудно из-за расплывчатых политик применения технологии.

Исследователь использовал диаграмму Исикавы — причинно-следственную схему анализа проблем, которую еще называют «рыбьей костью»: она помогает разложить одну сложную проблему на группы подпроблем. В исследовании выделены шесть ветвей факторов: «Материалы», «Методы», «Машины», «Среда», «Люди», «Измерения».

Для каждой ветви автор описал типичные сбои, их влияние на учебный процесс и управленческие практики, а также предложил меры профилактики и интеграционные стратегии для университетских команд — от администраторов и ИТ-подразделений до преподавателей. Подход охватывает весь цикл: университетские регламенты, инфраструктуру, обучение персонала и вовлечение студентов. При этом он не требует значительных ресурсов и может внедряться поэтапно.

Как выбрать онлайн-доску для бизнеса и не ошибиться: 5 критериев, о которых часто забывают
Веб-сервисы

«Так, проблемы с приватностью данных можно решить, внедрив надежные протоколы безопасности и методы анонимизации. Технические ограничения частично решаются за счет облачных сервисов или открытых решений, а трудности во взаимодействии людей с ИИ — за счет внедрения понятных правил и обучения», — Андрей Терников, доцент Санкт-Петербургской школы экономики и менеджмента НИУ ВШЭ.

Практическая логика внедрения строится на основе четырех последовательных шагов. Сначала университет проводит быстрый аудит текущей точки: где и как ИИ уже используется, какие данные попадают в модели, какие курсы и формы контроля уязвимы, где отсутствуют правила. Затем вводятся минимальные стандарты — короткие положения в учебных программах о допустимой помощи ИИ, протоколы работы с персональными данными и базовые требования к журналированию. После этого запускаются ограниченные пилоты на типовых курсах: настраивается «песочница», проверяются рубрики, собирается обратная связь от преподавателей и студентов. Наконец, успешные практики масштабируются: закрепляются роли академических руководителей, ИТ-подразделений и наставников, проводятся плановые обзоры версий моделей и регулярное обновление правил с опорой на накопленные данные.

«Мы переводим разговор об ИИ из общих слов в понятный план, определяя приоритеты, роли и точки контроля. Если им следовать, вузы снижают риски и получают понятный эффект для студентов и преподавателей. Подход поэтапный и управляемый, его можно адаптировать под разные программы и масштабы. Он помогает выстроить прозрачные правила, укрепить доверие к оцениванию и сформировать культуру ответственного использования ИИ», — Андрей Терников, доцент Санкт-Петербургской школы экономики и менеджмента НИУ ВШЭ.