Эпоха цифровой трансформации открыла перед системой высшего образования широкий потенциал технологических и дидактических возможностей, включая тотальную цифровизацию образовательного процесса и массовое внедрение технологий, основанных на применении искусственного интеллекта (нейронных сетей, чат-ботов, виртуальных помощников и др.), технологий виртуальной и дополненной реальности, аналитики больших данных и т. д. Посредством цифровых технологий студенты и преподаватели овладевают инновационными подходами к поиску и обработке информации, организации образовательного процесса, мониторингу образовательных результатов, автоматизации учебных задач, индивидуализации и персонализации обучения. Однако вместе с разнообразными возможностями совершенствования образовательной деятельности искусственный интеллект принес с собой также и большое количество проблем этического характера.
Какие же этические проблемы несет в себе применение технологий искусственного интеллекта в высшем образовании? Эти проблемы довольно многочисленны. Систематизируя негативные факторы влияния цифровых технологий в сфере образования, А. Г. Бермус [1] выделяет различные формы академического мошенничества: плагиат; повышение оригинальности текстов выпускных квалификационных работ посредством применения специальных компьютерных программ; феномен «копипаст» (неправомерные заимствования фрагментов чужих текстов); гострайтинг, или ложное авторство научных работ; исследовательскую недобросовестность; имитацию данных; создание псевдонаучных текстов и др.
И. Н. Емельянова и соавторы [2] систематизируют имитационные практики, распространенные в университетском образовании, такие как списывание, обращение к интернет-материалам при прохождении тестирования, выполнение учебных заданий по шаблону, деление вопросов при подготовке к практическим занятиям, сдачу заказных работ и др. По мнению исследователей, подобные практики представляют собой вполне закономерное социальное явление и включают практически всех субъектов образования – администрацию вузов, органы управления образованием, преподавателей и студентов. Внедрение технологий искусственного интеллекта оказывается удобным механизмом, который содействует росту имитационных практик. Причины подобного феномена, по мнению авторов, кроются в формальном подходе к стандартизации образования, бюрократизации и подмене борьбы за качество борьбой за показатели. Студенты, как правило, относятся к имитационным практикам лояльно, а многие преподаватели – достаточно терпимо.
Согласно исследованию И. В. Тихоновой и Г. М. Ильдугановой [3], большую угрозу академической честности представляет собой использование чат-ботов, в особенности при обучении иностранным языкам, поскольку применение цифровых программ позволяет студентам за короткий срок написать качественное эссе, подготовить диалог, сделать резюме иноязычного текста, составить вопросы и пр. При этом сгенерированные тексты отличаются довольно высоким качеством.
Разнообразные угрозы и риски вызывает бесконтрольное использование ChatGPT в образовательном процессе, среди них преобладают явления, имеющие этические и моральные последствия: ложное авторство исследовательских текстов и выпускных квалификационных работ; нарушение авторского права; плагиат; искажение либо включение в авторские тексты заведомо ложной информации; может наблюдаться цифровое неравенство среди обучающихся; ограничение объема живого общения между преподавателем и студентами; снижение креативных качеств личности; переоценка ценностей и даже риск отхода от гуманистического миропонимания [4].
Как отмечает Т. В. Еременко [5], этические проблемы, связанные с различными формами академической нечестности, широко распространены как в отечественной, так и в зарубежной образовательной практике и являются объектом исследования ученых-педагогов и философов образования. В 1953 г. Д. Р. Кресси разработал концепцию «треугольника мошенничества», согласно которой предпосылки для возникновения мошенничества имеются в тех случаях, когда для этого созданы определенные условия: 1) наличие давления / стимула; 2) возможность осуществить мошенничество; 3) основание для самооправдания собственных действий. Эти три фактора образуют три стороны треугольника и позволяют объяснить повышенную угрозу роста мошеннических действий в цифровой образовательной среде.
Цель настоящего исследования – обобщить этические проблемы, вызванные неправомерным использованием технологий искусственного интеллекта в образовательном процессе высшей школы, а также эмпирическим путем выявить отношение современных студентов к различным («честным» и «нечестным») способам реализации цифровых технологий.
Концептуальной основой исследования стал аксиологический подход к оценке этической проблематики, обусловленной использованием систем искусственного интеллекта в образовании. Современные педагоги-исследователи, философы, социологи, представители других гуманитарных дисциплин задаются вопросом о том, насколько этично применение технологий искусственного интеллекта в образовании и обучении?
В. Э. Карпов, П. М. Готовцев и Г. В. Ройзензон полагают, что в случае с применением искусственного интеллекта мы сталкиваемся прежде всего с вопросами поведения и принятия решений [6]. Искусственный интеллект как «думающая», «сверхразумная» машина, или автономная интеллектуальная система, осуществляет определенные действия и избирает тот или иной тип поведения, который не всегда соответствует нормам человеческой этики. Но это лишь одна сторона рассматриваемого аспекта. Когда мы говорим о применении возможностей искусственного интеллекта в сфере образования, очевидно, что плодами деятельности интеллектуальной системы пользуется человек (в данном случае обучающийся), который может использовать эти плоды, нарушая принципы морали, например, присваивая себе авторство продукта, созданного машиной; искажая данные, полученные посредством применения искусственного интеллекта; неправомерно (в личных или корыстных целях) используя результаты технологического прогресса.
Имеются и более серьезные моральные опасения, в частности, возможность «вложения» либо приобретения в результате глубокого обучения интеллектуальными системами ценностей, которые не предполагались разработчиками, что опровергает постулат о ценностной нейтральности технических объектов [7]. Ученые выдвигают различные концепции «аксиологии техники», например, включение искусственного интеллекта в целостную схему ценностно окрашенного взаимодействия субъектов ради достижения человекоразмерности сложных технических систем; человекоразмерность при этом рассматривается как сообразность системы ценностям человека и общества [8]. Огромную угрозу миру представляет внедрение искусственного интеллекта в военные разработки, ведь такой вклад лишен эмпатии и нравственных ориентиров, которые зависят исключительно от целеполагания разработчиков [9].
Анализ современных гуманитарных исследований свидетельствует о становлении новой отрасли гуманитарного знания – цифровой аксиологии, основными постулатами которой должны стать равенство и гуманизм [10]. Вводятся новые термины, связанные с неограниченными, на первый взгляд, возможностями цифровизации, например, понятия «цифровое бессмертие», «цифровая танатология», «цифровая смерть», использующиеся в философских концепциях трансгуманизма. Данные теории неизбежно несут в себе нравственную проблематику в связи с трансформацией понимания категории бессмертия и восприятия человеческой телесности в контексте возможности технологической трансформации человеческого тела, переносе сознания в «небиологические объекты» и т. п. [11]. В информационном обществе все большую значимость приобретают такие ценности трансгуманизма, как «научный прогресс», «управляемая эволюция», «прагматизм», «новый гедонизм», ценности разума и интеллекта.
В связи с моральными и техническими рисками использования искусственного интеллекта в цивилизационном масштабе академическое сообщество разрабатывает кодексы чести, этические кодексы, нормы и этические стандарты применения искусственного интеллекта с тем, чтобы избежать негативных последствий неэтично принятых решений в разных сферах деятельности, включая образование. Следует упомянуть этический кодекс, утвержденный Генеральной конференцией Организации Объединенных Наций по вопросам образования, науки и культуры (ЮНЕСКО) (41-я сессия, Париж, 9–24 ноября 2021 г.) под названием «Рекомендация об этических аспектах искусственного интеллекта»1, цель которого – обеспечить уважение прав человека и человеческого достоинства, физическое, психическое и социальное благополучие индивида в обществе, экологическую безопасность и другие аспекты.
С этическими проблемами применения искусственного интеллекта тесно связаны вопросы социально-правового регулирования использования информационных технологий в разных сферах жизнедеятельности [12]. Внедрение искусственного интеллекта создает ряд рисков для общества, однако нормы и правила для минимизации угроз и рисков в условиях перехода к цифровой экономике пока только начинают разрабатываться. В России данные установления нашли отражение в двух стратегических документах – «Национальной стратегии развития искусственного интеллекта до 2030 года» (2019)2 и «Концепции развития регулирования отношений в сфере технологий ИИ и робототехники» (2020)3.
Ассоциация «Альянс в сфере искусственного интеллекта», объединяющая ведущие российские и международные технологические компании, разработала «Кодекс этики в сфере искусственного интеллекта»4, в основе которого лежат человекоориентированный гуманистический подход, уважение автономии и свободы воли личности, соответствие закону, запрет дискриминации и другие гуманистические принципы.
В большинстве зарубежных вузов разрабатываются собственные этические кодексы и нормы применения искусственного интеллекта в образовательной и научной деятельности. Издаются монографические исследования [13] и рекомендации, посвященные этической стороне применения технологий искусственного интеллекта в образовании [14]. Китайские и американские исследователи Яо Фу (Yao Fu) и Чжэньцзе Вэн (Zhenjie Weng) [15] отмечают, что вопросы этики и ответственного использования искусственного интеллекта актуальны в индустриально развитых странах на всех уровнях непрерывного образования – от детских дошкольных учреждений до системы высшего образования. Этические принципы, на которых строится ответственное человеко-центрированное применение искусственного интеллекта, включают равенство, справедливость, безопасность, конфиденциальность информации, непричинение вреда, прозрачность, понятность, автономию в использовании, что в совокупности может быть достигнуто лишь в результате совместных усилий всех стейкхолдеров – преподавателей, обучающихся, разработчиков образовательных программ, исследователей и управленцев сферы образования.
Оценка этичности систем искусственного интеллекта (этическая сторона выходных результатов системы и моральная ответственность человека, применяющего искусственный интеллект) также вызывает затруднения, в том числе при выработке критериев оценивания с позиций морали, нравственности, справедливости как на уровне действий индивида, так и применительно к деятельности социальных групп, национальных образований и целых государств [16].
Разработчики образовательных программ в ряде вузов предусматривают преподавание учебных курсов аксиологической направленности и соответствующих программ магистратуры, например: «Аксиология искусственного интеллекта», «Прикладная этика в сфере цифровой коммуникации и искусственного интеллекта» (МГУ имени М. В. Ломоносова), «Этика и регулирование искусственного интеллекта» (НИУ ВШЭ), «Этика в сфере искусственного интеллекта» (Уральский федеральный университет имени Б. Н. Ельцина), «Безопасность технологий искусственного интеллекта» (СПбГЭТУ «ЛЭТИ» имени В. И. Ульянова (Ленина)). Однако в целом разработка аксиологической составляющей образовательного контента для непрофильных (то есть не связанных с ИТ-сферой) специальностей пока не стала распространенной практикой в высшей школе.
Основными методами исследования являются: критический анализ научной литературы по проблеме исследования и метод анкетирования обучающихся (анкетный онлайн-опрос на основе авторской анкеты). При составлении анкеты и обобщении результатов анкетирования использовались элементы феноменологического анализа.
В задачи настоящей публикации входило следующее:
- разработка материалов для анкетирования студентов вузов с целью выявления их позиции относительно того, какие факторы являются приемлемыми, а какие неприемлемыми с этической точки зрения в процессе реализации технологий искусственного интеллекта в профессиональном образовании и обучении;
- критический анализ и оценка полученных результатов;
- сравнение отношения к фактам академической нечестности студентов классического университета, обучающихся по направлениям подготовки «журналистика» и «педагогическое образование».
Описаний результатов эмпирических исследований подобного рода в отечественной литературе немного, в частности, сошлемся на недавние публикации Д. П. Ананина и соавторов [17]; К. И. Буяковой и соавторов [18]; П. В. Сысоева [19]; И. А. Паршутина и Д. В. Деулина [20], в которых делаются попытки выявить отношение студенческой и преподавательской аудитории к этическим проблемам, обусловленным применением искусственного интеллекта в сфере высшего образования, в том числе использованием чат-ботов и нейросетей при подготовке курсовых и дипломных работ, написании рефератов и других письменных заданий. Большинство исследователей рассматривают этические проблемы, касающиеся применения искусственного интеллекта, как приоритетные.
С целью выявления отношения обучающихся (студентов бакалавриата и магистратуры) к этической стороне использования искусственного интеллекта в образовании применялся метод анкетирования. Авторами была разработана многоцелевая анкета, направленная на получение информации относительно знакомства студентов с технологиями искусственного интеллекта в целом; выяснение ценностных установок обучающихся, касающихся соблюдения норм академической этики; определение отношения обучающихся к возможным угрозам и рискам, которые несет в себе искусственный интеллект в глобальном (цивилизационном) масштабе. Анкетирование позволило также в определенной степени выявить уровень развития у опрошенных отдельных навыков в сфере использования технологий искусственного интеллекта (чат-ботов, нейронных сетей).
Субъектами эмпирического исследования стали 75 обучающихся двух крупных российских вузов классического типа: Южного федерального университета (ЮФУ, г. Ростов-на-Дону) и Кубанского государственного университета (КубГУ, г. Краснодар), а именно 39 студентов бакалавриата и магистрантов ЮФУ, обучающихся по направлению подготовки «Педагогическое образование» (44.03.05 – бакалавриат и 44.04.01 – магистратура), и 36 студентов бакалавриата (42.03.02) и магистратуры (42.04.02) факультета журналистики КубГУ. Анкетный опрос проводился в онлайн-формате с середины октября до середины декабря 2024 г., то есть в течение двух месяцев. Вопросы составлялись в логике феноменологического анализа этических установок на основе оценки имеющегося у обучающихся опыта взаимодействия с технологиями искусственного интеллекта. Анкета предлагалась в анонимном виде в Яндекс-форме и включала ряд основных и дополнительных вопросов. Различий между обучающимися в бакалавриате и магистратуре не делалось, также не проводилось гендерной дифференциации респондентов. Принималась во внимание лишь гипотетически возможная разница в восприятии этических вопросов, касающихся рискогенности искусственного интеллекта, по профессиональному признаку, а именно сравнивались ответы студентов-журналистов (КубГУ) и будущих педагогов (ЮФУ).
Анкета включала три типа вопросов: 1) альтернативные вопросы, требующие ответа «да» или «нет»; 2) вопросы множественного выбора; 3) вопросы открытого типа, которые предполагали дополнение имеющихся вариантов ответов своими собственными. Количество ответов по каждому пункту могло быть больше 75 (общее количество респондентов) за счет вопросов с множественным выбором. Кроме того, ни один из вопросов не требовал обязательного ответа.
В преамбуле анкеты указывалось, что целью исследования является выявление этических рисков и угроз использования технологий искусственного интеллекта в образовании с позиций представителей студенческого сообщества. Респондентам было предложено 10 вопросов, а именно:
1. В чем состоят преимущества и причины востребованности технологий искусственного интеллекта в сфере образования (выберите один или несколько вариантов)?
2. В чем, на Ваш взгляд, заключаются риски и угрозы использования технологий искусственного интеллекта в учебном процессе (выберите один или несколько вариантов)?
3. Какие угрозы представляет искусственный интеллект для будущего цивилизации (выберите один или несколько вариантов)?
4. Какие способы использования технологий искусственного интеллекта в сфере образования Вы считаете совершенно недопустимыми с этической точки зрения (выберите один или несколько вариантов)?
5. Применяете ли Вы технологии искусственного интеллекта (нейронные сети, чат-боты и т. п.) в собственной учебной деятельности (выберите один ответ)? Если «да», то какие именно (перечислите)?
6. В каких сферах образовательной деятельности в условиях университета целесообразно применение искусственного интеллекта (выберите один или несколько вариантов)?
7. Можете ли Вы отличить текст, сгенерированный с помощью искусственного интеллекта, от текста, написанного человеком (выберите один ответ)?
8. Какие меры борьбы с академической нечестностью в контексте применения искусственного интеллекта (плагиат, списывание, искусственное повышение оригинальности текстов, генерирование учебных текстов и т. п.) Вы считаете эффективными (выберите один или несколько вариантов)? Какие меры профилактики академической нечестности предложили бы Вы (впишите свой вариант)?
9. Что заставляет студентов обращаться к «неэтичным» способам применения искусственного интеллекта, таким как плагиат, имитации, генерирование текстов учебных исследований и т. п. (выберите один или несколько вариантов)?
10. Хотели бы Вы пройти обучение по курсу «Этика и безопасность применения искусственного интеллекта» в условиях вуза (выберите один ответ)?
Ниже мы поместили обобщение ответов респондентов на некоторые вопросы (вопросы 1–4). Опрашиваемые должны были выбрать пункты, наиболее актуальные с их точки зрения (табл. 1‒4).
Таблица 1
Ответы на вопрос 1 – о преимуществах и причинах востребованности
технологий искусственного интеллекта (ИИ) в сфере образования
Table 1
Answers to the question 1 – about the advantages and reasons for the demand for artificial intelligence (AI) technologies in the field of education
№ |
Перечень преимуществ применения ИИ |
Количество выборов | |
ЮФУ
n = 39 |
КубГУ
n = 36 |
||
1 | Генерирование и проверка текстов, написание аннотаций, эссе, библиографических списков и т. п. | 39 | 36 |
2 | Уменьшение рутинных обязанностей педагогов: быстрое создание учебного контента, планов уроков, отчетов и т. п. | 37 | 29 |
3 | Индивидуализация образовательных траекторий, адаптация программ к потребностям студентов | 35 | 18 |
4 | Многозадачность ИИ, расширение возможностей для творчества: создание стихов и прозы, возможность рисовать, генерировать изображения и т. д. | 15 | 27 |
5 | Возможность перевода текстов с иностранных языков, обзора иноязычных публикаций | 38 | 36 |
6 | Доступность большого объема информации, быстрый поиск ответов на любые вопросы | 39 | 36 |
7 | Автоматизация в управлении образованием, мониторинг успеваемости, оценка учебных достижений и т. д. | 18 | 5 |
8 | Развитие цифровой грамотности, креативности, критического мышления студентов | 26 | 24 |
9 | Расширение учебной коммуникации и групповой работы, создание интерактивной образовательной среды | 10 | 4 |
10 | Общее количество ответов | 257 | 215 |
Таблица 2
Ответы на вопрос 2 – о рисках и угрозах использования технологий
искусственного интеллекта в образовательном процессе
Table 2
Answers to the question 2 – about the risks and threats of using artificial
intelligence technologies in the educational process
№ | Перечень рисков и угроз применения ИИ | Количество выборов | |
ЮФУ
n = 39 |
КубГУ
n = 36 |
||
1 | Рост плагиата, нарушение авторских прав, ложное авторство | 32 | 36 |
2 | Имитация учебной деятельности, выполнение дипломных работ посредством нейросетей, чат-ботов, виртуальных помощников ИИ | 31 | 28 |
3 | Формирование зависимости от технологий. Утрата навыков самостоятельной работы | 7 | 2 |
4 | Усиление цифрового неравенства, неравный доступ обучающихся к цифровым ресурсам | 9 | 13 |
5 | Риск утечки личных данных. Угроза кибератак | 28 | 30 |
6 | Непрерывно возрастающие требования к цифровой грамотности | 17 | 4 |
7 | Возможность искажения информации, сложность проверки достоверности данных | 21 | 35 |
8 | Неглубокий, поверхностный охват информации средствами ИИ | 14 | 33 |
9 | Угроза дезинформации, дискриминации, манипуляции данными и т. д. | 20 | 32 |
10 | Общее количество ответов | 179 | 213 |
Таблица 3
Ответы на вопрос 3 – об угрозах использования искусственного
интеллекта в цивилизационном масштабе
Table 3
Answers to the question 3 – about the threats of using artificial
intelligence on a civilizational scale
№ | Перечень цивилизационных угроз и рисков для будущего | Количество выборов | |
ЮФУ
n = 39 |
КубГУ
n = 36 |
||
1 | Риск потери работы. Замена преподавателей искусственным интеллектом | 5 | 24 |
2 | Утрата традиционных ценностей, отход от гуманистического мировоззрения | 13 | 4 |
3 | Угрозы безопасности и конфиденциальности, утечка личных данных, рост мошенничества | 31 | 35 |
4 | Риск аварий и нештатных ситуаций от беспилотных механизмов, роботов, автономных интеллектуальных систем и т. д. | 7 | 12 |
5 | Усугубление социального неравенства и дискриминации в обществе | 12 | 9 |
6 | Риск конфликтов, угроза национальной безопасности | 2 | 2 |
7 | Дезинформация из-за ограниченных возможностей ИИ. Предвзятость и неэтичность нейросетей | 15 | 28 |
8 | Угроза культурной и национальной идентичности | 3 | 5 |
9 | Риск монополизации рынка ИИ-технологий | 3 | 9 |
10 | Общее количество ответов | 91 | 128 |
Таблица 4
Ответы на вопрос 4 – об этической допустимости отдельных способов
использования технологий искусственного интеллекта
в сфере образования
Table 4
Answers to the question 4 – about the ethical admissibility of certain
ways of using artificial intelligence technologies in the field of education
№ | Перечень этически некорректных способов применения ИИ | Количество выборов | ||
ЮФУ
n = 39 |
КубГУ
n = 36 |
|||
1 | Плагиат, компиляция чужих текстов, ложное авторство | 35 | 36 | |
2 | Присвоение чужих научных идей | 13 | 28 | |
3 | Выполнение курсовых и дипломных работ средствами ИИ | 30 | 23 | |
4 | Использование искаженной или ложной информации в учебных работах | 19 | 31 | |
5 | Повышение оригинальности авторских текстов с помощью ИИ | 10 | 6 | |
6 | Использование шпаргалок, списывание | 27 | 17 | |
7 | Прохождение тестирования, сдача экзаменов на основе сгенерированных материалов | 30 | 14 | |
8 | Сдача учебных работ, выполненных на заказ | 13 | 7 | |
9 | Обучение на основе недостоверных знаний, полученных от ИИ | 29 | 33 | |
10 | Общее количество ответов | 206 | 195 | |
Согласно результатам анкетирования, статистически значимых расхождений в оценках респондентов между выборками данных, полученных от будущих журналистов и будущих педагогов, выявлено не было, хотя существенный, на первый взгляд, разброс количества выборов по отдельным пунктам имеется. Сравнение общего количества выборов, сделанных студентами-педагогами и студентами-журналистами, позволило оценить общий интерес и активность оценочной функции респондентов по отдельным вопросам. Так, выраженную заинтересованность студенческой аудитории – как будущих педагогов, так и журналистов – вызвал вопрос № 1, касающийся преимуществ применения искусственного интеллекта. Не менее значимым оказался вопрос № 2 о рисках и угрозах технологий искусственного интеллекта применительно к сфере образования. Более активными здесь оказались студенты факультета журналистики (213 выборов), а не будущие педагоги (179 выборов). В вопросе № 3 о потенциальных угрозах искусственного интеллекта в цивилизационном масштабе журналисты также проявили большую активность, чем педагоги: 128 выборов vs 91 выбора.
Что касается вопросов, затрагивающих этические аспекты применения технологий искусственного интеллекта в образовательном процессе (вопрос № 4, вопрос № 8), здесь и студенты-педагоги, и студенты-журналисты были достаточно активны (206 выборов vs 195 выборов). Определенно отрицательное отношение было выражено по отношению к таким явлениям, как плагиат, написание курсовых и дипломных работ средствами нейросетей, обучение на основе недостоверных знаний. При этом будущие педагоги оказались более непримиримыми, чем журналисты, к использованию шпаргалок, списыванию, нечестной сдаче экзаменов и прохождению тестирований посредством «нелегального» прибегания к помощи нейросетей. Студенты факультета журналистики выразили резкое неприятие «использования искаженной или ложной информации в учебных работах», а также «присвоения чужих научных идей», в то время как будущие педагоги проявили в этом вопросе более лояльную позицию.
Ни у педагогов, ни у журналистов не выявлено существенной негативной реакции на «повышение оригинальности авторских текстов с помощью искусственного интеллекта», а также «сдачу учебных работ, выполненных на заказ» (в вопросе № 4). В вопросе № 8 о путях борьбы с проявлениями академической нечестности также не наблюдалось особой активности (75 выборов у педагогов и 71 – у журналистов). Также в дополнительном открытом вопросе о возможных способах борьбы с неэтичными явлениями, вызванными использованием искусственного интеллекта в образовательной среде, не было предложено никаких новых вариантов. Студенты обоих направлений подготовки достаточно хладнокровно отнеслись к цивилизационным рискам возможных последствий применения искусственного интеллекта (вопрос № 3, пункты 5, 6, 8, 9, касающиеся угрозы национальной и культурной идентичности, монополизации рынка искусственного интеллекта, угрозы национальной безопасности, усугублению социального неравенства и пр.). Ответы на данные вопросы наводят на мысль о том, что студенты обоих профилей подготовки не слишком озабочены социальными последствиями использования искусственного интеллекта. Все это говорит о необходимости активизации просветительской деятельности в отношении применения искусственного интеллекта.
Оказалось, что в целом студенты факультета журналистики несколько шире используют технологии искусственного интеллекта в учебной деятельности (83 % опрошенных), чем студенты педагогического профиля (64 % респондентов). По утверждениям студентов-журналистов, как минимум, 58 % из них в состоянии отличить тексты, сгенерированные искусственным интеллектом (ответ на вопрос № 7), от оригинальных текстов, созданных человеком, в то время как о подобной способности сообщили лишь 25 % будущих педагогов. Возможно, данные факты объясняются тем, что обучение на факультете журналистики предполагает целенаправленное формирование у студентов навыков работы с различными видами текстов, широкую опору на средства мультимедиа и цифровые технологии, вовлечение в различные дискурсивные практики для решения профессиональных задач.
По данным анкетного опроса (вопрос № 5), студенты обоих вузов используют в самостоятельной учебной деятельности различные платформы на базе искусственного интеллекта, обращаются к помощи нейронных сетей и чат-ботов с генеративным искусственным интеллектом, таким как: YandexGPT, Сбербанк AI, Tinkoff AI, Авито AI, DeepSeek, Mistral AI и др.
В качестве причин, которые побуждают студентов и магистрантов пользоваться «неэтичными» способами применения искусственного интеллекта (вопрос № 9), такими как написание курсовых и выпускных квалификационных работ посредством генеративного искусственного интеллекта, подготовка заказных работ, на первое место вышла «низкая успеваемость студентов», на второе место – «нехватка времени ввиду большой загруженности по учебе», на третье место – «отсутствие интереса к изучаемому предмету», на четвертое место – «недостаточный контроль за результатами учебной деятельности в вузе». В ответах на дополнительный открытый вопрос к вопросу № 9 ни студенты-педагоги, ни студенты-журналисты не внесли каких-либо самостоятельных вариантов, объясняющих причины обращения обучающихся к тем или иным формам академической нечестности и недобросовестности. Показательно также то, что в ответе на последний вопрос (вопрос № 10) большая часть студентов бакалавриата и магистрантов (74 % педагогов и 69 % журналистов) выразили желание пройти учебный курс «Этика и безопасность применения искусственного интеллекта» в условиях вуза. Очевидно, что в студенческой аудитории классического университета наблюдается выраженный интерес к вопросам безопасного и этичного использования систем искусственного интеллекта как в сфере образования, так и в более широком масштабе.
Применение технологий искусственного интеллекта в сфере образования – это не будущая перспектива, а уже свершившаяся реальность. Однако далеко не все студенты и в особенности педагоги осведомлены о возможностях и рисках использования искусственного интеллекта в науке и образовании. Многие имеют неполное или искаженное представление о сущности, технологическом и дидактическом потенциале нейронных сетей, в том числе чат-ботов с генеративным искусственным интеллектом, преувеличивают или преуменьшают риски использования данных технологий. Однако очевидно, что ограничить внедрение нейросетей в систему образования из опасений нарушения этических норм невозможно, так же как невозможно запретить технический прогресс. Образовательному сообществу нужно учиться взаимодействовать с сервисами искусственного интеллекта, осваивать основы промпт-инжиниринга, искать способы легального использования студентами и аспирантами технологий искусственного интеллекта, разрабатывать этические кодексы использования цифровых технологий, изучать возможности и ограничения искусственного интеллекта, его плюсы и минусы в конкретных видах образовательной и учебно-исследовательской деятельности.
Применение искусственного интеллекта, особенно при подготовке кадров высшей квалификации, требует предварительного содержательного определения допустимых и недопустимых форматов и, в частности, концептуального понимания того, что есть научная деятельность в контексте ИИ и что есть ее имитации; каковы границы легитимного и ложного (или теневого) авторства, каковы правила и нормы верификации и, соответственно, средства профилактики некорректного использования информации, получаемой от систем искусственного интеллекта и т. д. Очевидно, что индивидуальное самоопределение в подобных вопросах недопустимо и требуются совместные усилия всего академического сообщества по выработке достаточно универсального этического кодекса использования ИИ в науке и образовании.
Список литературы
- Бермус А. Г. Академическое мошенничество и имитации в высшей школе как онтологический вызов образованию XXI века // Непрерывное образование: XXI век. 2023. № 1 (41). DOI: 10.15393/j5.art.2023.8244
- Емельянова И. Н., Теплякова О. А., Тепляков Д. О. Имитационные практики в российском университете: формы, причины и последствия // Университетское управление: практика и анализ. 2024. Т. 28. № 1. С. 111‒124. DOI 10.15826/umpa.2024.01.008
- Тихонова Н. В., Ильдуганова Г. М. «Меня пугает то, с какой скоростью развивается искусственный интеллект»: восприятие студентами искусственного интеллекта в обучении иностранным языкам // Высшее образование в России. 2024. Т. 33. № 4. С. 63‒83. DOI: 10.31992/0869-3617-2024-33-4-63-83
- Бермус А. Г., Сизова Е. В. Педагогические, лингводидактические и психологические условия использования ChatGPT в системе высшего образования: систематический обзор // Концепт. 2024. № 11. С. 150‒166.
- Еременко Т. В. Потенциал «треугольника мошенничества» в предупреждении академической нечестности студентов // Непрерывное образование: ХХI век. 2024. Вып. 3 (47). DOI: 10.15393/j5.art.2024.9685
- Карпов В. Э., Готовцев П. М., Ройзензон Г. В. К вопросу об этике и системах искусственного интеллекта // Философия и общество. 2018. № 2. С. 84‒105.
- Ястреб Н. А. Концепции этики искусственного интеллекта: от принципов к критическому подходу // Семиотические исследования. Semiotic studies. 2024. Т. 4. № 1. С. 24‒30. DOI: 10.18287/2782-2966-2024-4-1-24-30
- Малахова Е. В. Аксиология техники – на пути к человекоразмерности сложных технических систем // Вопросы философии. 2022. № 10. С. 218‒222. DOI: 10.21146/0042-8744-2022-10-218-222.
- Леонов В., прот., Каштанова Е. В., Лобачева А. С. Этика искусственного интеллекта: проблемы и инициативы в социальной сфере // Управление персоналом и интеллектуальными ресурсами в России. 2021. № 2 (53). С. 5‒12. DOI: 10.12737/2305-7807-2021-10-2-5-12
- Тимофеев А. В. Становление цифровой аксиологии: ключевые понятия и проблемы // Современные философские исследования. 2019. № 3. С. 73‒79. DOI: 10.18384/2310-7227-2019-3-73-79
- Назарова Ю. В. Аксиология цифрового бессмертия // NOMOTHETIKA: Философия. Социология. Право. 2024. № 49 (4). С. 792‒799. DOI: 10.52575/2712-746X-2024-49-4-792-799
- Моисеев А. В., Епхиев О. М. Социально-правовые аспекты регулирования искусственного интеллекта в современной России (обзорно-аналитическое исследование) // Социально-гуманитарные знания. 2024. № 1. С. 237‒248.
- Holmes W., Porayska-Pomsta K. (eds). The Ethics of Artificial Intelligence in Education Practices, Challenges, and Debates. New-York: Routledge, 2023. 312 p.
- Foltynek T., Bjelobaba S., Glendinning I. [et al.]. ENAI Recommendations on the ethical use of Artificial Intelligence in Education [Electronic resource] // International Journal for Educational Integrity. 2023. Vol. 19. No. 12. DOI:10.1007/s40979-023-00133-4. Electron. dan. URL: https://edintegrity.biomedcentral.com/articles/10.1007/s40979-023-00133-4 (date of access 28.03.2025).
- Fu Y., Weng Z. Navigating the ethical terrain of AI in education: A systematic review on framing responsible human-centered AI practices, Computers and Education [Electronic resource] // Artificial Intelligence. 2024. Vol. 7. 100306. DOI: 10.1016/j.caeai.2024.100306. Electron. dan. URL: https://www.sciencedirect.com/science/article/pii/S2666920X24001097 (date of access 28.03.2025).
- Игнатьев А. Г. Этика в области искусственного интеллекта в фокусе междисциплинарных исследований и развития национальных подходов: доклад [Электронный ресурс]. Москва, 2022. Электрон. дан. URL: https://aicentre.mgimo.ru/2022/ai-ethics-focus
- Ананин Д. П., Комаров Р. В., Реморенко И. М. «Когда честно – хорошо, для имитации – плохо»: стратегии использования генеративного искусственного интеллекта в российском вузе // Высшее образование в России. 2025. Т. 34. № 2. C. 31‒50. DOI: 10.31992/0869-3617-2025-34-2-31-50 6
- Буякова К. И., Дмитриев Я. А., Иванова А. С., Фещенко А. В., Яковлева К. И. Отношение студентов и преподавателей к использованию инструментов с генеративным искусственным интеллектом в вузе // Образование и наука. 2024. Т. 26. № 7. С. 160‒193. DOI: 10.17853/1994-5639-2024-7-160-193
- Сысоев П. В. Этика и ИИ-плагиат в академической среде: понимание студентами вопросов соблюдения авторской этики и проблемы плагиата в процессе взаимодействия с генеративным искусственным интеллектом // Высшее образование в России. 2024. Т. 33. № 2. C. 31‒53. DOI: 10.31992/0869-3617-2024-33-2-31-53
- Паршутин И. А., Деулин Д. В. Применение технологий искусственного интеллекта студентами вузов в учебной деятельности // Цифровая гуманитаристика и технологии в образовании (DHTE 2023): сборник статей IV Международной научно-практической конференции. 16–17 ноября 2023 г. / Под ред. В. В. Рубцова, М. Г. Сороковой, Н. П. Радчиковой. Москва: ФГБОУ ВО МГППУ, 2023. С. 176‒184.