26 августа 2022, Пятница, 18:02
Искусственный интеллект написал статью о себе и дал разрешение на ее публикацию
Искусственный интеллект GPT-3, получив задание от человека, написал качественную статью о себе, после чего дал разрешение на ее публикацию. Об интересном эксперименте сообщил американский научно-популярный журнал Scientific American.
Автор статьи Альмира Тунстрём сообщает, что перед нейросетью была поставлена задача написать академическую статью объемом в 500 слов об искусственном интеллекте. При этом статья должна была быть оформлена ссылками на научные труды, в тексте должна быть цитаты. Искусственный интеллект справился с заданием отлично.
«Когда он начал генерировать текст, я была в восторге. Это был новый контент, написанный на академическом языке, со ссылками, цитируемыми в нужных местах и в отношении правильного контекста.
Это выглядело как введение в довольно хорошую научную публикацию», − отметила Альмира Тунстрём, являющаяся докторантом Института неврологии и физиологии Гётеборгского университета.
Также она указала, что алгоритм глубокого обучения GPT-3 анализирует огромный поток текста — из книг, «Википедии», разговоров в социальных сетях и научных публикаций — для написания по команде.
«Тем не менее, я была в изумлении, глядя на экран. Алгоритм писал академическую работу о себе», — подчеркнула Тунстрём.
Как заявила исследовательница, тема научной статьи об искусственном интеллекте, которая была задана нейросети, была выбрана по двум причинам. Во-первых, отмечает эксперт, это малая исследованность этого вопроса. Статья о болезни Альцгеймера у GPT-3 безусловно получилась, была бы исполнена на высоком уровне с учетом большого объема исходного материала. Но искусственный интеллект хотели «нагрузить» именно малоизученной темой.
Во-вторых, необходимо было выяснить механизм. Если бы искусственный интеллект что-то перепутал, как иногда делает любой искусственный интеллект, пишет автор исследования, то созданная статья не была бы опубликована. Но ученые получили данные о том GPT-3, пишущий о себе и делающий ошибки, он может писать о себе.
Отмечается, что искусственный интеллект смог написать статью за два часа. После этого возник интересный юридический аспект, связанный с публикацией: необходимо было получить согласие автора. Тогда Альмира Тунстрём спросила у GPT-3 о возможности публикации, на что был получен положительный ответ. Сейчас статья проходит рецензирование.
Автор научной статьи указывает на проблемы, которые могут возникнуть в дальнейшем: не придётся ли в будущем редакторам спрашивать у авторов, не был ли задействован искусственный интеллект в написании работы, нужно ли будет указывать нейросеть в соавторах, как искусственный интеллект будет исправлять правки рецензентов.
«Может показаться, что сейчас на это просто ответить, но через несколько лет, кто знает, какие дилеммы породит эта технология? Все, что мы знаем, это то, что мы открыли ворота. Мы просто надеемся, что не открыли ящик Пандоры», — пишет Альмира Тунстрём.
Редакция «Брянских новостей» оставляет за собой право удалять комментарии, нарушающие законодательство РФ. Запрещены высказывания, содержащие разжигание этнической и религиозной вражды, призывы к насилию, призывы к свержению конституционного строя, оскорбления конкретных лиц или любых групп граждан. Также удаляются комментарии, которые не удовлетворяют общепринятым нормам морали, преследуют рекламные цели, провоцируют пользователей на неконструктивный диалог, не относятся к комментируемой информации, оскорбляют авторов комментируемого материала, содержат ненормативную лексику. Редакция не несёт ответственности за мнения, высказанные в комментариях читателей. Комментарии на сайте «Брянские новости» публикуются без премодерации.
Комментарии для сайта Cackle