Создать аккаунт
Главные новости » Наука и технологии » Исследование выявило риски генерированных ИИ научных статей

Исследование выявило риски генерированных ИИ научных статей

0

Фото из открытых источников
Исследователи из Школы управления имени Джона Ф. Кеннеди (HKS) выразили обеспокоенность по поводу научных статей, созданных с помощью искусственного интеллекта, в частности ChatGPT. По их мнению, это может нанести ущерб качеству и достоверности научных исследований.
 
В докладе, опубликованном на сайте HKS, указывается, что использование ИИ в подготовке научных текстов часто не заявляется открыто, что приводит к проблемам с целостностью научных публикаций.
 
Особую тревогу вызывают случаи, когда тексты, созданные ChatGPT, появляются в научных журналах и конференционных материалах без упоминания о том, что они были сгенерированы ИИ. Около 62% исследованных публикаций не содержали соответствующей информации о применении GPT. Более половины этих статей касались тем, связанных с политикой и социальными науками, что может повлиять на общественное восприятие и даже на формирование государственной политики.
 
Вместе с тем, Google Scholar, одна из крупнейших академических поисковых систем, становится площадкой для распространения таких статей, поскольку его система фильтрации не всегда позволяет отличить проверенные исследования от сомнительных публикаций. Авторы исследования призывают к повышению прозрачности использования ИИ в науке и разработке стандартов, которые помогут защитить академическую сферу от подобных злоупотреблений.
0 комментариев
Обсудим?
Смотрите также:
Продолжая просматривать сайт spravkarf24.ru вы принимаете политику конфидициальности.
ОК