Недавно выпускники одного из московских вузов успешно защитили дипломные работы, созданные с использованием искусственного интеллекта
В Высшей школе экономики официально подтверждено, что руководство обычно использует технологию ИИ. В рамках пилотного проекта студенты таких направлений, как «Философия», «Медиакоммуникации», «Международные отношения» и «Востоковедение», получили возможность работать с языковой моделью от «Яндекса». Искусственный интеллект применяется для сбора и анализа данных, проверки текстов на ошибки и их грамотного оформления.
«Представьте, что вы студент четвертого курса факультета журналистики. Перепишите информацию в научном стиле и запишите выводы». Такой запрос может быть отправлен в GPT-чат, а в ответ получится текст, который впоследствии будет использован в курсовой или дипломной работе. Этим летом некоторые студенты смогли легально воспользоваться таким преимуществом. Прогресс не остановить, и запретить выпускникам использовать искусственный интеллект нецелесообразным, считает Евгений Соколов, руководитель отдела больших данных и информационного поиска НИУ ВШЭ:
«Искусственный интеллект не справится с главным: не предлагает инновационную идею, не совершает научные открытия и не разрабатывает дипломный проект. Скорее всего, такие технологии помогают решить более простые задачи: поиск информации, улучшение текста или устранение ошибок в программном коде. Так почему бы не использовать это в качестве примера? Это просто инструмент, который повышает эффективность работы. Запрещать студентам использовать нейросети сегодня — все равно что запрещать работать на компьютере».
Облегчает ли работу использование ИИ?
Согласно данным опроса Skillfactory, в 2023 году более половины российских студентов будут использовать нейросети в процессе обучения. Архитектор Матвей Шувалов, окончивший вуз в прошлом году, отметил, что вопросы к изображениям и визуализациям, созданным с помощью ChatGPT, обычно не возникали. Однако текстовые материалы вызывают критику: «Если ты пытаешься привести текст, он всегда воспринимается резко негативно. Тем не менее, с помощью таких технологий можно создавать некоторые работы. Но полностью готовый проект, курсовую работу или осмысленный текст с качественной графикой создать только на основе нейросетей невозможно — требуется дополнительное усиление.»
В прошлом году студент РГГУ успешно защитил дипломную работу, созданную за сутки с помощью нейросети. Этот случай привлек внимание СМИ, обсуждавшихся в Госдуме и Минобрнауки. Хотя в ведомстве решили не наказывать учащегося, было указано на необходимость адаптации вузов к новым условиям. С мая 2023 года в системе «Антиплаг»
Почему нейросетям все сложнее получать информацию для обучения?
Ректор МАРХИ Дмитрий Швидковский отметил, что инструмент по определению текстов, созданных нейросетями, не всегда эффективен. «Наши преподаватели используют различные методы проверки, поскольку система не всегда должна работать таким образом в отношении нейросетей. Это серьезная проблема, с которой мы пытаемся справиться. Искусственный интеллект в архитектуре и благоустройстве требует от себя слишком многого, и этот процесс должен осуществляться в руках человека.»
Эксперты по кибербезопасности также исключают риски использования нейросетей, таких как так называемые «галлюцинации» — неконтролируемые или ошибочные ответы. ChatGPT иногда выдает первую попавшуюся ссылку, которая кажется под приходом. Руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар» Максим Бузинов отметил: «Большие модели можно сравнивать с настольными библиотеками, где сохраняются как качественные учебники, так и ненадежные источники информации».
Ограничения на использование нейросетей в образовательных учреждениях
Модели искусственного интеллекта, такие как ChatGPT, не учитывают понимание физических организмов, не интегрируют логику в своих вычислениях и не могут отличить ложь от истины. В области физики даже небольшая ошибка в символических уравнениях может привести к провалу эксперимента и нарушению всей работы. Если обвиняемые будут применять такие модели на практике
По этим причинам в некоторых странах введены официальные запреты на использование ChatGPT в университетах и школах. Например, в США, Франции и Индии студентам разрешено использовать только свои умственные способности при написании дипломных работ. Эти меры направлены на обеспечение качества образовательного процесса и предотвращение возможных ошибок и недочетов, которые могут возникнуть из-за использования.