БЕРМУС, А. Г. ЭТИЧЕСКИЕ АСПЕКТЫ РЕАЛИЗАЦИИ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В КЛАССИЧЕСКОМ УНИВЕРСИТЕТЕ: АНАЛИЗ ОТНОШЕНИЯ СТУДЕНЧЕСКОЙ АУДИТОРИИ / А. Г. БЕРМУС, Е. В. СИЗОВА // Непрерывное образование: XXI век. – 2025. – Т. 13. №2. − DOI: 10.15393/j5.art.2025.10585


Т. 13. №2.

Непрерывное образование в современном мире: методология исследования и проектирования

pdf-версия статьи

УДК 378.1

ЭТИЧЕСКИЕ АСПЕКТЫ РЕАЛИЗАЦИИ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В КЛАССИЧЕСКОМ УНИВЕРСИТЕТЕ: АНАЛИЗ ОТНОШЕНИЯ СТУДЕНЧЕСКОЙ АУДИТОРИИ

БЕРМУС Александр Григорьевич
доктор педагогических наук, профессор, заведующий кафедрой образования и педагогических наук
Южный федеральный университет
(г. Ростов-на-Дону, Российская Федерация)
bermous@sfedu.ru
СИЗОВА Екатерина Викторовна
кандидат педагогических наук, старший преподаватель кафедры английского языка в профессиональной сфере
Кубанский государственный университет
(г. Краснодар, Российская Федерация)
kati_doli@mail.ru
Ключевые слова:
высшее образование
классический университет
искусственный интеллект
нейронные сети
чат-боты
этические проблемы
академическая честность
ответственность студентов.
Аннотация: описываются этические проблемы, обусловленные применением технологий искусственного интеллекта (нейронные сети, чат-боты, большие языковые модели, генеративный искусственный интеллект и т. д.) в системе высшего университетского образования. Методологической основой исследования является аксиологический подход, позволяющий в полной мере оценить серьезность этической проблематики в высшей школе в условиях цифровой трансформации. Представлены результаты эмпирического исследования, проведенного на базе двух классических университетов (Кубанский государственный университет и Южный федеральный университет), цель которого – выявить отношение студенческой аудитории (обучающиеся бакалавриата и магистратуры) к правомерной и неправомерной реализации цифровых технологий с генеративным искусственным интеллектом в образовательном процессе вуза. Сопоставляются этические позиции по отношению к некорректному использованию технологий искусственного интеллекта, а также к вопросам академической честности и недопустимости различных форм академического мошенничества со стороны будущих журналистов (Кубанский государственный университет) и будущих педагогов (Южный федеральный университет). Делается вывод о необходимости проведения систематической целенаправленной работы со студентами, направленной на предотвращение и борьбу с проявлениями академической нечестности и имитационных практик в высшей школе, в том числе связанных с внедрением цифровых технологий.
Статья поступила: 31.03.2025; Принята к публикации: 22.05.2025; Размещена в сети: 26.06.2025.

ETHICAL ASPECTS OF IMPLEMENTING ARTIFICIAL INTELLIGENCE TECHNOLOGIES IN A CLASSICAL UNIVERSITY: ANALYSIS OF STUDENT AUDIENCE ATTITUDE

BERMUS Alexander G.
Doctor of Pedagogical Sciences, Professor, Head of the Department of Education and Pedagogical Sciences
Southern Federal University
(Rostov-on-Don, Russian Federation)
bermous@sfedu.ru
SIZOVA Ekaterina V.
PhD in Pedagogical Sciences, Senior Lecturer, Department of English Language in the Professional Sphere
Kuban State University
(Krasnodar, Russian Federation)
kati_doli@mail.ru
Keywords:
pedagogical education
teacher-researcher
foreign students
continuity in education
continuous education
master's degree
postgraduate study
classical university.
Abstract: the article describes the ethical problems caused by the use of artificial intelligence technologies (neural networks, chatbots, large language models, generative artificial intelligence, etc.) in the system of higher university education. The methodological basis of the study is the axiological approach, which allows us to fully assess the seriousness of ethical issues in higher education in the context of digital transformation. The article presents the results of an empirical study conducted at two classical universities (Krasnodar State University and Southern Federal University), the purpose of which is to identify the attitude of the student audience (bachelor's and master's students) to the legitimate and illegal implementation of digital technologies with generative artificial intelligence in the educational process of the university. Ethical positions are compared in relation to the incorrect use of artificial intelligence technologies, as well as to issues of academic honesty and the inadmissibility of various forms of academic fraud on the part of future journalists (Kuban State University) and future teachers (Southern Federal University). The conclusion is made about the need for systematic targeted work with students aimed at preventing and combating manifestations of academic dishonesty and imitation practices in higher education, including those related to the introduction of digital technologies.
Paper submitted on: 31.03.2025; Accepted on: 22.05.2025; Published online on: 26.06.2025.

Эпоха цифровой трансформации открыла перед системой высшего образования широкий потенциал технологических и дидактических возможностей, включая тотальную цифровизацию образовательного процесса и массовое внедрение технологий, основанных на применении искусственного интеллекта (нейронных сетей, чат-ботов, виртуальных помощников и др.), технологий виртуальной и дополненной реальности, аналитики больших данных и т. д. Посредством цифровых технологий студенты и преподаватели овладевают инновационными подходами к поиску и обработке информации, организации образовательного процесса, мониторингу образовательных результатов, автоматизации учебных задач, индивидуализации и персонализации обучения. Однако вместе с разнообразными возможностями совершенствования образовательной деятельности искусственный интеллект принес с собой также и большое количество проблем этического характера.

Какие же этические проблемы несет в себе применение технологий искусственного интеллекта в высшем образовании? Эти проблемы довольно многочисленны. Систематизируя негативные факторы влияния цифровых технологий в сфере образования, А. Г. Бермус [1] выделяет различные формы академического мошенничества: плагиат; повышение оригинальности текстов выпускных квалификационных работ посредством применения специальных компьютерных программ; феномен «копипаст» (неправомерные заимствования фрагментов чужих текстов); гострайтинг, или ложное авторство научных работ; исследовательскую недобросовестность; имитацию данных; создание псевдонаучных текстов и др.

И. Н. Емельянова и соавторы [2] систематизируют имитационные практики, распространенные в университетском образовании, такие как списывание, обращение к интернет-материалам при прохождении тестирования, выполнение учебных заданий по шаблону, деление вопросов при подготовке к практическим занятиям, сдачу заказных работ и др. По мнению исследователей, подобные практики представляют собой вполне закономерное социальное явление и включают практически всех субъектов образования – администрацию вузов, органы управления образованием, преподавателей и студентов. Внедрение технологий искусственного интеллекта оказывается удобным механизмом, который содействует росту имитационных практик. Причины подобного феномена, по мнению авторов, кроются в формальном подходе к стандартизации образования, бюрократизации и подмене борьбы за качество борьбой за показатели. Студенты, как правило, относятся к имитационным практикам лояльно, а многие преподаватели – достаточно терпимо.

Согласно исследованию И. В. Тихоновой и Г. М. Ильдугановой [3], большую угрозу академической честности представляет собой использование чат-ботов, в особенности при обучении иностранным языкам, поскольку применение цифровых программ позволяет студентам за короткий срок написать качественное эссе, подготовить диалог, сделать резюме иноязычного текста, составить вопросы и пр. При этом сгенерированные тексты отличаются довольно высоким качеством.

Разнообразные угрозы и риски вызывает бесконтрольное использование ChatGPT в образовательном процессе, среди них преобладают явления, имеющие этические и моральные последствия: ложное авторство исследовательских текстов и выпускных квалификационных работ; нарушение авторского права; плагиат; искажение либо включение в авторские тексты заведомо ложной информации; может наблюдаться цифровое неравенство среди обучающихся; ограничение объема живого общения между преподавателем и студентами; снижение креативных качеств личности; переоценка ценностей и даже риск отхода от гуманистического миропонимания [4].

Как отмечает Т. В. Еременко [5], этические проблемы, связанные с различными формами академической нечестности, широко распространены как в отечественной, так и в зарубежной образовательной практике и являются объектом исследования ученых-педагогов и философов образования. В 1953 г. Д. Р. Кресси разработал концепцию «треугольника мошенничества», согласно которой предпосылки для возникновения мошенничества имеются в тех случаях, когда для этого созданы определенные условия: 1) наличие давления / стимула; 2) возможность осуществить мошенничество; 3) основание для самооправдания собственных действий. Эти три фактора образуют три стороны треугольника и позволяют объяснить повышенную угрозу роста мошеннических действий в цифровой образовательной среде.

Цель настоящего исследования – обобщить этические проблемы, вызванные неправомерным использованием технологий искусственного интеллекта в образовательном процессе высшей школы, а также эмпирическим путем выявить отношение современных студентов к различным («честным» и «нечестным») способам реализации цифровых технологий.

Концептуальной основой исследования стал аксиологический подход к оценке этической проблематики, обусловленной использованием систем искусственного интеллекта в образовании. Современные педагоги-исследователи, философы, социологи, представители других гуманитарных дисциплин задаются вопросом о том, насколько этично применение технологий искусственного интеллекта в образовании и обучении?

В. Э. Карпов, П. М. Готовцев и Г. В. Ройзензон полагают, что в случае с применением искусственного интеллекта мы сталкиваемся прежде всего с вопросами поведения и принятия решений [6]. Искусственный интеллект как «думающая», «сверхразумная» машина, или автономная интеллектуальная система, осуществляет определенные действия и избирает тот или иной тип поведения, который не всегда соответствует нормам человеческой этики. Но это лишь одна сторона рассматриваемого аспекта. Когда мы говорим о применении возможностей искусственного интеллекта в сфере образования, очевидно, что плодами деятельности интеллектуальной системы пользуется человек (в данном случае обучающийся), который может использовать эти плоды, нарушая принципы морали, например, присваивая себе авторство продукта, созданного машиной; искажая данные, полученные посредством применения искусственного интеллекта; неправомерно (в личных или корыстных целях) используя результаты технологического прогресса.

Имеются и более серьезные моральные опасения, в частности, возможность «вложения» либо приобретения в результате глубокого обучения интеллектуальными системами ценностей, которые не предполагались разработчиками, что опровергает постулат о ценностной нейтральности технических объектов [7]. Ученые выдвигают различные концепции «аксиологии техники», например, включение искусственного интеллекта в целостную схему ценностно окрашенного взаимодействия субъектов ради достижения человекоразмерности сложных технических систем; человекоразмерность при этом рассматривается как сообразность системы ценностям человека и общества [8]. Огромную угрозу миру представляет внедрение искусственного интеллекта в военные разработки, ведь такой вклад лишен эмпатии и нравственных ориентиров, которые зависят исключительно от целеполагания разработчиков [9].

Анализ современных гуманитарных исследований свидетельствует о становлении новой отрасли гуманитарного знания – цифровой аксиологии, основными постулатами которой должны стать равенство и гуманизм [10]. Вводятся новые термины, связанные с неограниченными, на первый взгляд, возможностями цифровизации, например, понятия «цифровое бессмертие», «цифровая танатология», «цифровая смерть», использующиеся в философских концепциях трансгуманизма. Данные теории неизбежно несут в себе нравственную проблематику в связи с трансформацией понимания категории бессмертия и восприятия человеческой телесности в контексте возможности технологической трансформации человеческого тела, переносе сознания в «небиологические объекты» и т. п. [11]. В информационном обществе все большую значимость приобретают такие ценности трансгуманизма, как «научный прогресс», «управляемая эволюция», «прагматизм», «новый гедонизм», ценности разума и интеллекта.

В связи с моральными и техническими рисками использования искусственного интеллекта в цивилизационном масштабе академическое сообщество разрабатывает кодексы чести, этические кодексы, нормы и этические стандарты применения искусственного интеллекта с тем, чтобы избежать негативных последствий неэтично принятых решений в разных сферах деятельности, включая образование. Следует упомянуть этический кодекс, утвержденный Генеральной конференцией Организации Объединенных Наций по вопросам образования, науки и культуры (ЮНЕСКО) (41-я сессия, Париж, 9–24 ноября 2021 г.) под названием «Рекомендация об этических аспектах искусственного интеллекта»1, цель которого – обеспечить уважение прав человека и человеческого достоинства, физическое, психическое и социальное благополучие индивида в обществе, экологическую безопасность и другие аспекты.

С этическими проблемами применения искусственного интеллекта тесно связаны вопросы социально-правового регулирования использования информационных технологий в разных сферах жизнедеятельности [12]. Внедрение искусственного интеллекта создает ряд рисков для общества, однако нормы и правила для минимизации угроз и рисков в условиях перехода к цифровой экономике пока только начинают разрабатываться. В России данные установления нашли отражение в двух стратегических документах – «Национальной стратегии развития искусственного интеллекта до 2030 года» (2019)2 и «Концепции развития регулирования отношений в сфере технологий ИИ и робототехники» (2020)3.

Ассоциация «Альянс в сфере искусственного интеллекта», объединяющая ведущие российские и международные технологические компании, разработала «Кодекс этики в сфере искусственного интеллекта»4, в основе которого лежат человекоориентированный гуманистический подход, уважение автономии и свободы воли личности, соответствие закону, запрет дискриминации и другие гуманистические принципы.

В большинстве зарубежных вузов разрабатываются собственные этические кодексы и нормы применения искусственного интеллекта в образовательной и научной деятельности. Издаются монографические исследования [13] и рекомендации, посвященные этической стороне применения технологий искусственного интеллекта в образовании [14]. Китайские и американские исследователи Яо Фу (Yao Fu) и Чжэньцзе Вэн (Zhenjie Weng) [15] отмечают, что вопросы этики и ответственного использования искусственного интеллекта актуальны в индустриально развитых странах на всех уровнях непрерывного образования – от детских дошкольных учреждений до системы высшего образования. Этические принципы, на которых строится ответственное человеко-центрированное применение искусственного интеллекта, включают равенство, справедливость, безопасность, конфиденциальность информации, непричинение вреда, прозрачность, понятность, автономию в использовании, что в совокупности может быть достигнуто лишь в результате совместных усилий всех стейкхолдеров – преподавателей, обучающихся, разработчиков образовательных программ, исследователей и управленцев сферы образования.

Оценка этичности систем искусственного интеллекта (этическая сторона выходных результатов системы и моральная ответственность человека, применяющего искусственный интеллект) также вызывает затруднения, в том числе при выработке критериев оценивания с позиций морали, нравственности, справедливости как на уровне действий индивида, так и применительно к деятельности социальных групп, национальных образований и целых государств [16]. 

Разработчики образовательных программ в ряде вузов предусматривают преподавание учебных курсов аксиологической направленности и соответствующих программ магистратуры, например: «Аксиология искусственного интеллекта», «Прикладная этика в сфере цифровой коммуникации и искусственного интеллекта» (МГУ имени М. В. Ломоносова), «Этика и регулирование искусственного интеллекта» (НИУ ВШЭ), «Этика в сфере искусственного интеллекта» (Уральский федеральный университет имени Б. Н. Ельцина), «Безопасность технологий искусственного интеллекта» (СПбГЭТУ «ЛЭТИ» имени В. И. Ульянова (Ленина)). Однако в целом разработка аксиологической составляющей образовательного контента для непрофильных (то есть не связанных с ИТ-сферой) специальностей пока не стала распространенной практикой в высшей школе.

Основными методами исследования являются: критический анализ научной литературы по проблеме исследования и метод анкетирования обучающихся (анкетный онлайн-опрос на основе авторской анкеты). При составлении анкеты и обобщении результатов анкетирования использовались элементы феноменологического анализа.

В задачи настоящей публикации входило следующее:

  • разработка материалов для анкетирования студентов вузов с целью выявления их позиции относительно того, какие факторы являются приемлемыми, а какие неприемлемыми с этической точки зрения в процессе реализации технологий искусственного интеллекта в профессиональном образовании и обучении;
  • критический анализ и оценка полученных результатов;
  • сравнение отношения к фактам академической нечестности студентов классического университета, обучающихся по направлениям подготовки «журналистика» и «педагогическое образование».

Описаний результатов эмпирических исследований подобного рода в отечественной литературе немного, в частности, сошлемся на недавние публикации Д. П. Ананина и соавторов [17]; К. И. Буяковой и соавторов [18]; П. В. Сысоева [19]; И. А. Паршутина и Д. В. Деулина [20], в которых делаются попытки выявить отношение студенческой и преподавательской аудитории к этическим проблемам, обусловленным применением искусственного интеллекта в сфере высшего образования, в том числе использованием чат-ботов и нейросетей при подготовке курсовых и дипломных работ, написании рефератов и других письменных заданий. Большинство исследователей рассматривают этические проблемы, касающиеся применения искусственного интеллекта, как приоритетные.

С целью выявления отношения обучающихся (студентов бакалавриата и магистратуры) к этической стороне использования искусственного интеллекта в образовании применялся метод анкетирования. Авторами была разработана многоцелевая анкета, направленная на получение информации относительно знакомства студентов с технологиями искусственного интеллекта в целом; выяснение ценностных установок обучающихся, касающихся соблюдения норм академической этики; определение отношения обучающихся к возможным угрозам и рискам, которые несет в себе искусственный интеллект в глобальном (цивилизационном) масштабе. Анкетирование позволило также в определенной степени выявить уровень развития у опрошенных отдельных навыков в сфере использования технологий искусственного интеллекта (чат-ботов, нейронных сетей).

Субъектами эмпирического исследования стали 75 обучающихся двух крупных российских вузов классического типа: Южного федерального университета (ЮФУ, г. Ростов-на-Дону) и Кубанского государственного университета (КубГУ, г. Краснодар), а именно  39 студентов бакалавриата и магистрантов ЮФУ, обучающихся по направлению подготовки «Педагогическое образование» (44.03.05 – бакалавриат и 44.04.01 – магистратура), и 36 студентов бакалавриата (42.03.02) и магистратуры (42.04.02) факультета журналистики КубГУ.  Анкетный опрос проводился в онлайн-формате с середины октября до середины декабря 2024 г., то есть в течение двух месяцев. Вопросы составлялись в логике феноменологического анализа этических установок на основе оценки имеющегося у обучающихся опыта взаимодействия с технологиями искусственного интеллекта. Анкета предлагалась в анонимном виде в Яндекс-форме и включала ряд основных и дополнительных вопросов. Различий между обучающимися в бакалавриате и магистратуре не делалось, также не проводилось гендерной дифференциации респондентов. Принималась во внимание лишь гипотетически возможная разница в восприятии этических вопросов, касающихся рискогенности искусственного интеллекта, по профессиональному признаку, а именно сравнивались ответы студентов-журналистов (КубГУ) и будущих педагогов (ЮФУ).

Анкета включала три типа вопросов: 1) альтернативные вопросы, требующие ответа «да» или «нет»; 2) вопросы множественного выбора; 3) вопросы открытого типа, которые предполагали дополнение имеющихся вариантов ответов своими собственными. Количество ответов по каждому пункту могло быть больше 75 (общее количество респондентов) за счет вопросов с множественным выбором. Кроме того, ни один из вопросов не требовал обязательного ответа.

В преамбуле анкеты указывалось, что целью исследования является выявление этических рисков и угроз использования технологий искусственного интеллекта в образовании с позиций представителей студенческого сообщества. Респондентам было предложено 10 вопросов, а именно:

1. В чем состоят преимущества и причины востребованности технологий искусственного интеллекта в сфере образования (выберите один или несколько вариантов)?

2.  В чем, на Ваш взгляд, заключаются риски и угрозы использования технологий искусственного интеллекта в учебном процессе (выберите один или несколько вариантов)?

3. Какие угрозы представляет искусственный интеллект для будущего цивилизации (выберите один или несколько вариантов)?

4. Какие способы использования технологий искусственного интеллекта в сфере образования Вы считаете совершенно недопустимыми с этической точки зрения (выберите один или несколько вариантов)?

5. Применяете ли Вы технологии искусственного интеллекта (нейронные сети, чат-боты и т. п.) в собственной учебной деятельности (выберите один ответ)? Если «да», то какие именно (перечислите)?

6. В каких сферах образовательной деятельности в условиях университета целесообразно применение искусственного интеллекта (выберите один или несколько вариантов)?

7. Можете ли Вы отличить текст, сгенерированный с помощью искусственного интеллекта, от текста, написанного человеком (выберите один ответ)?

8. Какие меры борьбы с академической нечестностью в контексте применения искусственного интеллекта (плагиат, списывание, искусственное повышение оригинальности текстов, генерирование учебных текстов и т. п.) Вы считаете эффективными (выберите один или несколько вариантов)? Какие меры профилактики академической нечестности предложили бы Вы (впишите свой вариант)?

9. Что заставляет студентов обращаться к «неэтичным» способам применения искусственного интеллекта, таким как плагиат, имитации, генерирование текстов учебных исследований и т. п. (выберите один или несколько вариантов)?

10. Хотели бы Вы пройти обучение по курсу «Этика и безопасность применения искусственного интеллекта» в условиях вуза (выберите один ответ)?

Ниже мы поместили обобщение ответов респондентов на некоторые вопросы (вопросы 1–4). Опрашиваемые должны были выбрать пункты, наиболее актуальные с их точки зрения (табл. 1‒4).

Таблица 1

Ответы на вопрос 1 – о преимуществах и причинах востребованности
технологий искусственного интеллекта (ИИ) в сфере образования

Table 1

Answers to the question 1 – about the advantages and reasons for the demand for artificial intelligence (AI) technologies in the field of education

 

 

 

Перечень преимуществ применения ИИ

Количество выборов
ЮФУ

n = 39

КубГУ

n = 36

1 Генерирование и проверка текстов, написание аннотаций, эссе, библиографических списков и т. п. 39 36
2 Уменьшение рутинных обязанностей педагогов: быстрое создание учебного контента, планов уроков, отчетов и т. п. 37 29
3 Индивидуализация образовательных траекторий, адаптация программ к потребностям студентов 35 18
4 Многозадачность ИИ, расширение возможностей для творчества: создание стихов и прозы, возможность рисовать, генерировать изображения и т. д. 15 27
5 Возможность перевода текстов с иностранных языков, обзора иноязычных публикаций 38 36
6 Доступность большого объема информации, быстрый поиск ответов на любые вопросы 39 36
7 Автоматизация в управлении образованием, мониторинг успеваемости, оценка учебных достижений и т. д. 18 5
8 Развитие цифровой грамотности, креативности, критического мышления студентов 26 24
9 Расширение учебной коммуникации и групповой работы, создание интерактивной образовательной среды 10 4
10 Общее количество ответов 257 215

 

Таблица 2

Ответы на вопрос 2 – о рисках и угрозах использования технологий
искусственного интеллекта в образовательном процессе

Table 2

Answers to the question 2 – about the risks and threats of using artificial
intelligence technologies in the educational process

 

Перечень рисков и угроз применения ИИ Количество выборов
ЮФУ

n = 39

КубГУ

n = 36

1 Рост плагиата, нарушение авторских прав, ложное авторство 32 36
2 Имитация учебной деятельности, выполнение дипломных работ посредством нейросетей, чат-ботов, виртуальных помощников ИИ 31 28
3 Формирование зависимости от технологий. Утрата навыков самостоятельной работы 7 2
4 Усиление цифрового неравенства, неравный доступ обучающихся к цифровым ресурсам 9 13
5 Риск утечки личных данных. Угроза кибератак 28 30
6 Непрерывно возрастающие требования к цифровой грамотности 17 4
7 Возможность искажения информации, сложность проверки достоверности данных 21 35
8 Неглубокий, поверхностный охват информации средствами ИИ 14 33
9 Угроза дезинформации, дискриминации, манипуляции данными и т. д. 20 32
10 Общее количество ответов 179 213

 

Таблица 3

Ответы на вопрос 3 – об угрозах использования искусственного
интеллекта в цивилизационном масштабе

Table 3

Answers to the question 3 – about the threats of using artificial
intelligence on a civilizational scale

 

Перечень цивилизационных угроз и рисков для будущего Количество выборов
ЮФУ

n = 39

КубГУ

n = 36

1 Риск потери работы. Замена преподавателей искусственным интеллектом 5 24
2 Утрата традиционных ценностей, отход от гуманистического мировоззрения 13 4
3 Угрозы безопасности и конфиденциальности, утечка личных данных, рост мошенничества 31 35
4 Риск аварий и нештатных ситуаций от беспилотных механизмов, роботов, автономных интеллектуальных систем и т. д. 7 12
5 Усугубление социального неравенства и дискриминации в обществе 12 9
6 Риск конфликтов, угроза национальной безопасности 2 2
7 Дезинформация из-за ограниченных возможностей ИИ. Предвзятость и неэтичность нейросетей 15 28
8 Угроза культурной и национальной идентичности 3 5
9 Риск монополизации рынка ИИ-технологий 3 9
10 Общее количество ответов 91 128

 

Таблица 4

Ответы на вопрос 4 – об этической допустимости отдельных способов
использования технологий искусственного интеллекта
в сфере образования

Table 4

Answers to the question 4 – about the ethical admissibility of certain
ways of using artificial intelligence technologies in the field of education

 

Перечень этически некорректных способов применения ИИ Количество выборов
ЮФУ

n = 39

КубГУ

n = 36

1 Плагиат, компиляция чужих текстов, ложное авторство 35 36
2 Присвоение чужих научных идей 13 28
3 Выполнение курсовых и дипломных работ средствами ИИ 30 23
4 Использование искаженной или ложной информации в учебных работах 19 31
5 Повышение оригинальности авторских текстов с помощью ИИ 10 6
6 Использование шпаргалок, списывание 27 17
7 Прохождение тестирования, сдача экзаменов на основе сгенерированных материалов 30 14
8 Сдача учебных работ, выполненных на заказ 13 7
9 Обучение на основе недостоверных знаний, полученных от ИИ 29 33
10 Общее количество ответов 206 195
         

 

Согласно результатам анкетирования, статистически значимых расхождений в оценках респондентов между выборками данных, полученных от будущих журналистов и будущих педагогов, выявлено не было, хотя существенный, на первый взгляд, разброс количества выборов по отдельным пунктам имеется. Сравнение общего количества выборов, сделанных студентами-педагогами и студентами-журналистами, позволило оценить общий интерес и активность оценочной функции респондентов по отдельным вопросам. Так, выраженную заинтересованность студенческой аудитории – как будущих педагогов, так и журналистов – вызвал вопрос № 1, касающийся преимуществ применения искусственного интеллекта. Не менее значимым оказался вопрос № 2 о рисках и угрозах технологий искусственного интеллекта применительно к сфере образования. Более активными здесь оказались студенты факультета журналистики (213 выборов), а не будущие педагоги (179 выборов). В вопросе № 3 о потенциальных угрозах искусственного интеллекта в цивилизационном масштабе журналисты также проявили большую активность, чем педагоги: 128 выборов vs 91 выбора.

Что касается вопросов, затрагивающих этические аспекты применения технологий искусственного интеллекта в образовательном процессе (вопрос № 4, вопрос № 8), здесь и студенты-педагоги, и студенты-журналисты были достаточно активны (206 выборов vs 195 выборов). Определенно отрицательное отношение было выражено по отношению к таким явлениям, как плагиат, написание курсовых и дипломных работ средствами нейросетей, обучение на основе недостоверных знаний. При этом будущие педагоги оказались более непримиримыми, чем журналисты, к использованию шпаргалок, списыванию, нечестной сдаче экзаменов и прохождению тестирований посредством «нелегального» прибегания к помощи нейросетей. Студенты факультета журналистики выразили резкое неприятие «использования искаженной или ложной информации в учебных работах», а также «присвоения чужих научных идей», в то время как будущие педагоги проявили в этом вопросе более лояльную позицию.

Ни у педагогов, ни у журналистов не выявлено существенной негативной реакции на «повышение оригинальности авторских текстов с помощью искусственного интеллекта», а также «сдачу учебных работ, выполненных на заказ» (в вопросе № 4). В вопросе № 8 о путях борьбы с проявлениями академической нечестности также не наблюдалось особой активности (75 выборов у педагогов и 71 – у журналистов). Также в дополнительном открытом вопросе о возможных способах борьбы с неэтичными явлениями, вызванными использованием искусственного интеллекта в образовательной среде, не было предложено никаких новых вариантов. Студенты обоих направлений подготовки достаточно хладнокровно отнеслись к цивилизационным рискам возможных последствий применения искусственного интеллекта (вопрос № 3, пункты 5, 6, 8, 9, касающиеся угрозы национальной и культурной идентичности, монополизации рынка искусственного интеллекта, угрозы национальной безопасности, усугублению социального неравенства и пр.).  Ответы на данные вопросы наводят на мысль о том, что студенты обоих профилей подготовки не слишком озабочены социальными последствиями использования искусственного интеллекта. Все это говорит о необходимости активизации просветительской деятельности в отношении применения искусственного интеллекта.

Оказалось, что в целом студенты факультета журналистики несколько шире используют технологии искусственного интеллекта в учебной деятельности (83 % опрошенных), чем студенты педагогического профиля (64 % респондентов). По утверждениям студентов-журналистов, как минимум, 58 % из них в состоянии отличить тексты, сгенерированные искусственным интеллектом (ответ на вопрос № 7), от оригинальных текстов, созданных человеком, в то время как о подобной способности сообщили лишь 25 % будущих педагогов. Возможно, данные факты объясняются тем, что обучение на факультете журналистики предполагает целенаправленное формирование у студентов навыков работы с различными видами текстов, широкую опору на средства мультимедиа и цифровые технологии, вовлечение в различные дискурсивные практики для решения профессиональных задач.

По данным анкетного опроса (вопрос № 5), студенты обоих вузов используют в самостоятельной учебной деятельности различные платформы на базе искусственного интеллекта, обращаются к помощи нейронных сетей и чат-ботов с генеративным искусственным интеллектом, таким как: YandexGPT, Сбербанк AI, Tinkoff AI, Авито AI, DeepSeek, Mistral AI и др.

В качестве причин, которые побуждают студентов и магистрантов пользоваться «неэтичными» способами применения искусственного интеллекта (вопрос № 9), такими как написание курсовых и выпускных квалификационных работ посредством генеративного искусственного интеллекта, подготовка заказных работ, на первое место вышла «низкая успеваемость студентов», на второе место – «нехватка времени ввиду большой загруженности по учебе», на третье место – «отсутствие интереса к изучаемому предмету», на четвертое место – «недостаточный контроль за результатами учебной деятельности в вузе». В ответах на дополнительный открытый вопрос к вопросу № 9 ни студенты-педагоги, ни студенты-журналисты не внесли каких-либо самостоятельных вариантов, объясняющих причины обращения обучающихся к тем или иным формам академической нечестности и недобросовестности. Показательно также то, что в ответе на последний вопрос (вопрос № 10) большая часть студентов бакалавриата и магистрантов (74 % педагогов и 69 % журналистов) выразили желание пройти учебный курс «Этика и безопасность применения искусственного интеллекта» в условиях вуза. Очевидно, что в студенческой аудитории классического университета наблюдается выраженный интерес к вопросам безопасного и этичного использования систем искусственного интеллекта как в сфере образования, так и в более широком масштабе.

Применение технологий искусственного интеллекта в сфере образования – это не будущая перспектива, а уже свершившаяся реальность. Однако далеко не все студенты и в особенности педагоги осведомлены о возможностях и рисках использования искусственного интеллекта в науке и образовании. Многие имеют неполное или искаженное представление о сущности, технологическом и дидактическом потенциале нейронных сетей, в том числе чат-ботов с генеративным искусственным интеллектом, преувеличивают или преуменьшают риски использования данных технологий. Однако очевидно, что ограничить внедрение нейросетей в систему образования из опасений нарушения этических норм невозможно, так же как невозможно запретить технический прогресс. Образовательному сообществу нужно учиться взаимодействовать с сервисами искусственного интеллекта, осваивать основы промпт-инжиниринга, искать способы легального использования студентами и аспирантами технологий искусственного интеллекта, разрабатывать этические кодексы использования цифровых технологий, изучать возможности и ограничения искусственного интеллекта, его плюсы и минусы в конкретных видах образовательной и учебно-исследовательской деятельности.

Применение искусственного интеллекта, особенно при подготовке кадров высшей квалификации, требует предварительного содержательного определения допустимых и недопустимых форматов и, в частности, концептуального понимания того, что есть научная деятельность в контексте ИИ и что есть ее имитации; каковы границы легитимного и ложного (или теневого) авторства, каковы правила и нормы верификации и, соответственно, средства профилактики некорректного использования информации, получаемой от систем искусственного интеллекта и т. д. Очевидно, что индивидуальное самоопределение в подобных вопросах недопустимо и требуются совместные усилия всего академического сообщества по выработке достаточно универсального этического кодекса использования ИИ в науке и образовании.

 

Список литературы

  1. Бермус А. Г. Академическое мошенничество и имитации в высшей школе как онтологический вызов образованию XXI века // Непрерывное образование: XXI век. 2023. № 1 (41). DOI: 10.15393/j5.art.2023.8244
  2. Емельянова И. Н., Теплякова О. А., Тепляков Д. О. Имитационные практики в российском университете: формы, причины и последствия // Университетское управление: практика и анализ. 2024. Т. 28. № 1. С. 111‒124. DOI 10.15826/umpa.2024.01.008
  3. Тихонова Н. В., Ильдуганова Г. М. «Меня пугает то, с какой скоростью развивается искусственный интеллект»: восприятие студентами искусственного интеллекта в обучении иностранным языкам // Высшее образование в России. 2024. Т. 33. № 4. С. 63‒83. DOI: 10.31992/0869-3617-2024-33-4-63-83
  4. Бермус А. Г., Сизова Е. В. Педагогические, лингводидактические и психологические условия использования ChatGPT в системе высшего образования: систематический обзор // Концепт. 2024. № 11. С. 150‒166.
  5. Еременко Т. В. Потенциал «треугольника мошенничества» в предупреждении академической нечестности студентов // Непрерывное образование: ХХI век. 2024. Вып. 3 (47). DOI: 10.15393/j5.art.2024.9685
  6. Карпов В. Э., Готовцев П. М., Ройзензон Г. В. К вопросу об этике и системах искусственного интеллекта // Философия и общество. 2018. № 2. С. 84‒105.
  7. Ястреб Н. А. Концепции этики искусственного интеллекта: от принципов к критическому подходу // Семиотические исследования. Semiotic studies. 2024. Т. 4. № 1. С. 24‒30. DOI: 10.18287/2782-2966-2024-4-1-24-30
  8. Малахова Е. В. Аксиология техники – на пути к человекоразмерности сложных технических систем // Вопросы философии. 2022. № 10. С. 218‒222. DOI: 10.21146/0042-8744-2022-10-218-222.
  9. Леонов В., прот., Каштанова Е. В., Лобачева А. С. Этика искусственного интеллекта: проблемы и инициативы в социальной сфере // Управление персоналом и интеллектуальными ресурсами в России. 2021. № 2 (53). С. 5‒12. DOI: 10.12737/2305-7807-2021-10-2-5-12
  10. Тимофеев А. В. Становление цифровой аксиологии: ключевые понятия и проблемы // Современные философские исследования. 2019. № 3. С. 73‒79. DOI: 10.18384/2310-7227-2019-3-73-79
  11. Назарова Ю. В. Аксиология цифрового бессмертия // NOMOTHETIKA: Философия. Социология. Право. 2024. № 49 (4). С. 792‒799. DOI: 10.52575/2712-746X-2024-49-4-792-799
  12. Моисеев А. В., Епхиев О. М. Социально-правовые аспекты регулирования искусственного интеллекта в современной России (обзорно-аналитическое исследование) // Социально-гуманитарные знания. 2024. № 1. С. 237‒248.
  13. Holmes W., Porayska-Pomsta K. (eds). The Ethics of Artificial Intelligence in Education Practices, Challenges, and Debates. New-York: Routledge, 2023. 312 p.
  14. Foltynek T., Bjelobaba S., Glendinning I. [et al.]. ENAI Recommendations on the ethical use of Artificial Intelligence in Education [Electronic resource] // International Journal for Educational Integrity. 2023. Vol. 19. No. 12. DOI:10.1007/s40979-023-00133-4. Electron. dan. URL: https://edintegrity.biomedcentral.com/articles/10.1007/s40979-023-00133-4 (date of access 28.03.2025).
  15. Fu Y., Weng Z. Navigating the ethical terrain of AI in education: A systematic review on framing responsible human-centered AI practices, Computers and Education [Electronic resource] // Artificial Intelligence. 2024. Vol. 7. 100306. DOI: 10.1016/j.caeai.2024.100306. Electron. dan. URL: https://www.sciencedirect.com/science/article/pii/S2666920X24001097 (date of access 28.03.2025).
  16. Игнатьев А. Г. Этика в области искусственного интеллекта в фокусе междисциплинарных исследований и развития национальных подходов: доклад [Электронный ресурс]. Москва, 2022. Электрон. дан. URL: https://aicentre.mgimo.ru/2022/ai-ethics-focus
  17. Ананин Д. П., Комаров Р. В., Реморенко И. М. «Когда честно – хорошо, для имитации – плохо»: стратегии использования генеративного искусственного интеллекта в российском вузе // Высшее образование в России. 2025. Т. 34. № 2. C. 31‒50. DOI: 10.31992/0869-3617-2025-34-2-31-50 6
  18. Буякова К. И., Дмитриев Я. А., Иванова А. С., Фещенко А. В., Яковлева К. И. Отношение студентов и преподавателей к использованию инструментов с генеративным искусственным интеллектом в вузе // Образование и наука. 2024. Т. 26. № 7. С. 160‒193. DOI: 10.17853/1994-5639-2024-7-160-193
  19. Сысоев П. В. Этика и ИИ-плагиат в академической среде: понимание студентами вопросов соблюдения авторской этики и проблемы плагиата в процессе взаимодействия с генеративным искусственным интеллектом // Высшее образование в России. 2024. Т. 33. № 2. C. 31‒53. DOI: 10.31992/0869-3617-2024-33-2-31-53
  20. Паршутин И. А., Деулин Д. В. Применение технологий искусственного интеллекта студентами вузов в учебной деятельности // Цифровая гуманитаристика и технологии в образовании (DHTE 2023): сборник статей IV Международной научно-практической конференции. 16–17 ноября 2023 г. / Под ред. В. В. Рубцова, М. Г. Сороковой, Н. П. Радчиковой. Москва: ФГБОУ ВО МГППУ, 2023. С. 176‒184.

 

 




Просмотров: 63; Скачиваний: 13;

DOI: http://dx.doi.org/10.15393/j5.art.2025.10585