Студентка узнала, что профессор использовал Chat GPT, и требует вернуть деньги, которые заплатила за учебу
Профессора колледжей начали использовать ChatGPT для подготовки учебных материалов. Одна студентка, заметив это, потребовала вернуть деньги, заплаченные за обучение, пишет издание Enterpreneur.

Photo: Waingro | Dreamstime.com
Применение ИИ в высшем образовании становится всё более популярным как среди студентов, так и среди преподавателей.
В феврале студентка Северо-Восточного университета Элла Стейплтон заметила, что лекционные материалы по курсу корпоративного поведения в Северо-Восточном университете, по всей видимости, были сгенерированы ChatGPT. Примерно в середине документа находилась фраза «расширьте все разделы. Сделайте текст более подробным и конкретным», которая вполне могла быть подсказкой, сделанной чат-ботом искусственного интеллекта.
По теме: Большие возможности с ChatGPT: 12 легких способов заработать используя искусственный интеллект
Стейплтон изучила и другие учебные материалы по этому курсу, в том числе презентации слайдов, и тоже обнаружила признаки использования ИИ, например изображения людей с лишними конечностями и орфографические ошибки. Это её поразило, особенно учитывая, что в программе курса, выданной преподавателем Риком Арроудом, студентам было запрещено использовать искусственный интеллект.
«Он говорит нам не прибегать к помощи ИИ, а сам им пользуется», — заметила студентка.
Стейплтон официально обратилась в бизнес-школу Северо-Восточного университета с жалобой и требованием вернуть плату за курс. Общая сумма возврата составила бы более $8000.
Университет отказал Стейплтон на следующий день после её выпуска.
Арроуд — приглашённый преподаватель, работающий в различных колледжах более пятнадцати лет. Он признал, что использовал ChatGPT для обработки и доработки файлов и документов курса. По его словам, эта ситуация заставила его более осторожно относиться к ИИ и заранее предупреждать студентов, когда он его использует.
Случай Стейплтон подчёркивает растущее использование искусственного интеллекта в высшем образовании. По данным опроса консалтинговой группы Tyton Partners, проведённого в 2023 году, 22% преподавателей вузов заявили, что регулярно используют генеративный ИИ. В 2024 году этот показатель почти удвоился и достиг примерно 40%.
Искусственный интеллект всё чаще используется и самими студентами. По данным исследования OpenAI, опубликованного в феврале, более трети молодых людей в США в возрасте от 18 до 24 лет используют ChatGPT, причём 25% их сообщений связаны с обучением. Двумя самыми популярными вариантами его применения стали помощь в обучении, а также в написании текстов.
Согласно опросу Tyton за 2024 год, преподаватели, использующие ИИ, используют его для разработки учебных заданий, составления программ курсов, создания критериев оценки, подготовки тестов и викторин.
Студенты используют ИИ для получения ответов на домашние задания, помощи в написании работ и ведения конспектов лекций.
В ответ на применение искусственного интеллекта студентами вузы адаптировались и начали публиковать официальные рекомендации по применению ChatGPT и других генеративных ИИ. Например, Гарвардский университет при использовании чат-ботов искусственного интеллекта советует студентам защищать конфиденциальные данные, такие как неопубликованные исследования, и проверять ИИ-содержимое на наличие ошибок или «галлюцинаций». В политике Нью-Йоркского университета (NYU) сказано, что студенты обязаны получать разрешение преподавателя на использование ChatGPT.
(О том, что такое «галлюцинации» ИИ, очень интересно рассказал искусственный интеллект Грок.
Итак, в контексте генеративных искусственных интеллектов, таких как ChatGPT, «галлюцинации» — это случаи, когда ИИ создаёт информацию, которая кажется правдоподобной, но на самом деле является вымышленной, неточной или полностью ложной. Это не ошибка в традиционном смысле (например, программный сбой), а особенность работы моделей ИИ, которые генерируют текст на основе вероятностных шаблонов, а не фактической базы знаний. Слово «галлюцинации» выбрано, потому что ИИ как бы «выдумывает» или «видит» то, чего нет, подобно человеческому воображению или сну.
Почему это происходит?
Генеративные ИИ, такие как ChatGPT, обучаются на огромных массивах текстов, из которых они извлекают шаблоны и закономерности. Когда эти модели отвечают, то предсказывают, какие слова или фразы наиболее вероятны, но не проверяют факты, как человек. Если в данных есть пробелы, противоречия или запрос выходит за рамки их знаний, ИИ может:
- Придумать несуществующие факты.
- Смешать реальные данные с вымыслом.
- Дать уверенный, но ошибочный ответ.
Примеры «галлюцинаций»:
- Вымышленные источники: ИИ может сослаться на несуществующую статью или книгу, например «Согласно исследованию Джона Смита в Journal of Future Studies (2024), …», хотя ни журнала, ни автора не существует.
- Неверные факты: На вопрос о малоизвестном событии ИИ может выдать правдоподобную, но ложную историю, например «В 1995 году в Москве прошёл фестиваль роботов», чего на самом деле не было.
- Смешивание деталей: ИИ может перепутать имена, даты или события уверенно заявляя, что «Эйнштейн получил Нобелевскую премию в 1930 году за теорию относительности» (на самом деле в 1921 году за фотоэффект). – Прим.)
Университеты используют программное обеспечение для выявления признаков применения ИИ в письменных работах, таких как эссе. Однако студенты научились обходить эти детекторы — намеренно вставляют опечатки в тексты, созданные с помощью ChatGPT.
Вам может быть интересно: главные новости Нью-Йорка, истории наших иммигрантов и полезные советы о жизни в Большом Яблоке – читайте все это на ForumDaily New York
Расширение практики использования ИИ в вузах может привести к снижению уровня критического мышления. Исследователи из Microsoft и Университета Карнеги-Меллона в этом году опубликовали исследование, в котором говорится, что люди, уверенные в возможностях ИИ и регулярно его использующие, прибегают к меньшему количеству навыков критического мышления.
«При неправильном применении технологий они могут и действительно приводят к ухудшению когнитивных способностей, которые необходимо сохранять», — резюмировали исследователи.
Читайте также на ForumDaily:
Ученые создали компанию, в которой работали только ИИ-сотрудники: что из этого получилось
Программисты в США отправляют своих детей учиться на гуманитариев: IT-образование больше не ценится
Подписывайтесь на ForumDaily в Google NewsХотите больше важных и интересных новостей о жизни в США и иммиграции в Америку? — Поддержите нас донатом! А еще подписывайтесь на нашу страницу в Facebook. Выбирайте опцию «Приоритет в показе» — и читайте нас первыми. Кроме того, не забудьте оформить подписку на наш канал в Telegram и в Instagram— там много интересного. И присоединяйтесь к тысячам читателей ForumDaily New York — там вас ждет масса интересной и позитивной информации о жизни в мегаполисе.