Artificial intelligence as a co-author? Rethinking authorship in the context of human interaction with AI

Cover Page

Cite item

Full Text

Abstract

The increasing integration of artificial intelligence (AI) into the domain of text production challenges the traditional boundaries of authorship. This paper examines whether AI systems can be considered co-authors of texts created in collaboration with humans. We explore this question from cultural, ethical, and philosophical perspectives, drawing on current frameworks in copyright law, literary theory, and digital humanities. 
The study employs an interdisciplinary methodology, analyzing selected cases of AI-assisted textual production across academic, artistic, and journalistic domains. Particular attention is given to the extent of AI’s semantic contribution and the human agent’s role in directing, editing, or curating the outcome. While current legal systems attribute authorship solely to human individuals, the increasing sophistication of AI tools necessitates re-examining this paradigm. 
Key issues addressed include the legal non-personhood of AI, the difficulty of attributing creative intent, and the implications of AI-generated content for intellectual property frameworks. We discuss models such as extended authorship, distributed creativity, and networked authorship, suggesting that these may better reflect the hybrid nature of human–AI interaction. 
We conclude by recommending a context-sensitive, field-specific approach to authorship in AI-mediated creativity. A dialogic framework involving legal scholars, content creators, ethicists, and developers is proposed to develop adaptive guidelines that balance innovation and intellectual responsibility.

Full Text

Введение
Вопрос авторства традиционно является предметом обсуждения в искусстве, праве, гуманитарных науках. Однако развитие искусственного интеллекта, способного участвовать в создании текстов, актуализирует необходимость пересмотра устоявшихся представлений. На фоне массового внедрения языковых моделей и алгоритмов машинного обучения возникает вопрос: может ли ИИ считаться полноправным участником творческого процесса и, следовательно, соавтором произведения?
До появления моделей глубокого обучения сгенерированные тексты заметно отличались от текстов, написанных человеком, – их можно было узнать по шаблонности, примитивной структуре, ошибкам, слабой логике и отсутствию глубокой аналитики. Благодаря развитию больших языковых моделей, таких как GPT-3 и более поздних версий, ИИ стал генерировать связные и качественные тексты, неотличимые от естественных.
Современные пользователи имеют свободный доступ к интуитивно понятным платформам для генерации контента, где они не просто получают готовые тексты, но и взаимодействуют с ИИ: дополняют сгенерированные тексты своими комментариями, идеями, уточняя промты, а также используют фрагменты сгенерированных текстов в своих работах. Это приводит к появлению так называемых гибридных текстов, которые сочетают в себе как естественные, так и сгенерированные элементы. В связи с этим определение авторства становится еще более затруднительным. Ученые факультета компьютерных наук Мэрилендского университета смогли отличить с помощью детектора естественный текст от сгенерированного в 80 % случаев, но точность определения авторства снизилась до 70 %, 
когда они попытались оценить гибридный текст (частично написанный ИИ, частично отредактированный человеком).
Исследование, проведенное учеными из Европейской сети академической честности (ENAI), подтверждает эти результаты: в результате тестирования ни один из 14-ти ИИ-детекторов (Check For AI, Compilatio, DetectGPT, GPT Zero, OpenAI Text Classifier, Turnitin и др.) не показал точность выше 80 % (Weber-Wulff 2023). С каждым годом определение авторства текстов усложняется, и особенно тяжело это дается людям. Так, участники одного из экспериментов смогли определить контент, сгенерированный GPT-2, с точностью не выше 57,9 %, а тексты, сгенерированные GPT-3, – с точностью максимум 49,9 % (Weber-Wulff 2023).
Ученые справедливо отмечают, что сегодня «сollaborative writing by humans and AI poses a potential challenge for existing AI analysis methods, which have primarily been tested on either human-written texts or generated samples alone» («совместное написание текстов человеком и ИИ представляет собой потенциальную проблему для существующих методов анализа ИИ, которые в основном тестировались либо только на текстах, написанных людьми, либо только на сгенерированных образцах» (Anderson 2023)). 
Языковые модели, которые с каждым обновлением становятся все более похожими на человеческие и помогают создавать сложные гибридные тексты, воспринимаются некоторыми людьми как равноправные партнеры, как соавторы. Уже есть случаи прямого упоминания ИИ как одного из соавторов при написании научных статей. Х. Горрайс провел поиск подобных работ в научных журналах и обнаружил, что в базе данных Web of Science Core Collection (WoS CC) содержатся четыре статьи, в которых ChatGPT указан как автор (включая два случая, когда он заявлен как единственный автор). В базе данных Scopus были обнаружены две статьи, в которых ChatGPT указан как соавтор, однако из второй статьи чат-бот был удален из списка авторов по требованию журнала (Gorraiz 2025). 
Поскольку реакция научного сообщества на включение ИИ в число соавторов оказалась неоднозначной и вызвала дискуссии, возникает вопрос: можно ли вообще считать ИИ соавтором или эта роль принадлежит исключительно человеку? Чтобы ответить на этот вопрос, необходимо рассмотреть существующие подходы к пониманию концепции соавторства человека и ИИ в различных социальных науках, а также проанализировать ключевые критерии авторства. Теоретическую базу нашей работы составляют три ключевые области: 1) теория авторства в литературоведении (Р. Барт, Ж. Деррида и др.); 2) юридические определения авторства и интеллектуальной собственности (Бернская конвенция, законодательство РФ и ЕС); 3) концепции цифрового творчества, включая идеи сетевого и распределённого авторства.
Методологически исследование базируется на качественном анализе статей, в которых так или иначе поднимаются вопросы из выше обозначенных областей.

1. Соавторство ИИ в научных публикациях
На сегодняшний день авторитетные научные журналы, включенные в международные базы данных, руководствуются рекомендациями Комитета по публикационной этике (COPE). Это сообщество помогает журналам, редакторам и издателям в решении этических вопросов, а именно: разрабатывает стандарты, направленные на обеспечение честности и прозрачности научных работ. Согласно COPE, инструменты ИИ не могут называться авторами, поскольку не могут нести ответственность, не способны к разрешению конфликта интересов, управлению авторскими правами и лицензионными соглашениями. Комитет не запрещает использование ИИ, но рекомендует указывать в разделе «Материалы и методы», как был использован ИИ и какой именно инструмент применялся (COPE Council 2024).
Другой комитет, разрабатывающий рекомендации по публикационной этике для международных научных журналов, – это Комитет по редакционным стандартам медицинских журналов (ICMJE). Его рекомендации считаются особенно важными для авторов и редакций, поскольку касаются исследований в области медицины, которые требуют высокой точности, этического и профессионального подхода. ICMJE указывает следующие критерии авторства: 
значительный вклад в концепцию, или дизайн работы, или в сбор, анализ или интерпретацию данных для работы; 
написание работы, создание интеллектуального содержания;
авторское окончательное одобрение версии для публикации; 
согласие авторов и редакторов нести ответственность за все аспекты работы с гарантией, что вопросы, касающиеся точности или целостности любой части работы, надлежащим образом расследованы и решены.
Комитет не уточняет, применимы ли эти критерии к ИИ, но утверждает, что модели ИИ не способны нести ответственность за точность, целостность и оригинальность работы. Поэтому все генеративные модели должны быть указаны не как авторы или соавторы, а как инструменты в разделе «Благодарности» или «Методы» (ICMJE 2025).
Тем не менее четкие рекомендации международных комитетов, таких как COPE и ICMJE, не могут в полной мере учесть все возникающие вопросы о возможности соавторства человека и ИИ. Появляется потребность в более глубоком анализе, в рассмотрении не только этических, но и философских, правовых и лингвистических аспектов соавторства. 
В связи с этим в научном сообществе ведутся оживленные дискуссии о том, можно ли признать ИИ соавтором. Исследователи расходятся во мнении: одни призывают изменить этические рекомендации для журналов и признать, что ИИ должен получать похвалу и признание наравне с человеком; другие считают употребление термина «соавтор» по отношению к ИИ неприемлемым и невозможным. Например, Ю. Эргун считает, что использование ИИ в качестве соавтора не угрожает человеческому достоинству, а свидетельствует о способности человека к инновациям и адаптации, а также служит стимулом к пересмотру устоявшихся норм (Ergun 2023). М.Д. Полонски и 
Д.Д. Ротман обращают внимание на то, что ИИ обладает большим потенциалом и становится сильнее, поэтому в некоторых случаях уже сегодня может быть назван соавтором, а в будущем будет соответствовать всем четырем критериям авторства Международного комитета редакторов медицинских журналов (ICMJE) (Polonsky, Jeffrey 2023). Р. Шарифзаде отмечает, что ИИ может быть признан соавтором, поскольку соответствует критериям автора, является агентом и может нести определенную моральную ответственность. Однако он предлагает ввести ряд ограничений: ИИ не должен быть первым автором, обязан соблюдать установленные человеком правила и не может участвовать в работах, предполагающих оценку знаний одного автора, в роли которого выступает человек (Sharifzadeh 2024). 
С другой стороны, М. Шимека и Р. Бонфильо считают, что приравнивание человека к машине или программе недопустимо, т.к. ИИ не обладает достоинством, ответственностью и способностью понимать контекст. Поэтому эти исследователи призывают ограничить роль ИИ в написании научных работ (Scimeca, Bonfiglio 2023). А. Бозкурт настаивает на том, что ИИ не может быть автором или соавтором, т.к. не способен нести ответственность, принимать решения, испытывать чувство вины, стыд, раскаяние (Bozkurt 2024). Исследователь предлагает признать вклад людей, которые стоят за генеративными инструментами – разработчиков-авторов, создающих коды и алгоритмы. Подобным образом Д. Форсайт вводит понятие «нетехнических факторов», влияющих на работу ИИ, и утверждает, что «although technology is often viewed as value-free, an anthropological perspective suggests that technological tools embody values and assumptions of their builders» («ИИ может <…> служить для подкрепления ценностей и убеждений своих разработчиков» (Forsythe 1993)).
Таким образом, вопрос о признании ИИ соавтором остается спорным. Ключевой аргумент против заключается в неспособности ИИ нести ответственность за результат, а значит, быть субъектом, который действует наравне с человеком. Поэтому далее мы рассмотрим вопрос о субъектности ИИ. 

2. Субъектность ИИ
Относительно проблемы субъектности также существуют противоположные мнения: одни исследователи отрицают субъектность ИИ, другие допускают ее наличие. Выделяя в качестве критериев субъектности сознание и разум, исследователи приходят к выводу, что ИИ несубъектен. Г. Нортхофф и С.С. Гувейя рассматривают субъектность как способность иметь точку зрения, ощущать принадлежность себе переживаемого опыта, перцептивность, а также гибкость и адаптивность временных процессов. Доказывая, что ИИ не обладает вышеперечисленными качествами, исследователи делают вывод, что он не проявляет никаких признаков субъектности (Northoff, Gouveia 2024). 
Другие ученые предлагают пересмотреть традиционный подход и выделяют в качестве критерия субъектности не сознание. Они аргументируют это тем, что способность к восприятию и рассуждению применима не ко всем субъектам (например, ей не обладают люди с ограниченными когнитивными способностями в силу возраста, состояния здоровья или врожденных отклонений). Поэтому С. Войтчак в контексте акторно-сетевой теории предлагает рассматривать в качестве критерия субъектности участие или присутствие в социальной жизни, независимо от роли (Wojtczak 2023). Из этого следует, что, даже не обладая сознанием, ИИ может играть роль в социальных взаимодействиях и признаваться обществом как равноправный субъект. 
К. Д’Амато также рассматривает субъектность ИИ в более широком социальном контексте. Он опирается на концепцию дисциплинарного общества М. Фуко и утверждает, что субъектность может сформироваться только проходя через процессы дисциплины и контроля. Поэтому автор предлагает рассматривать модели ИИ в качестве новых субъектов и технических артефактов, которые направляются людьми в соответствии с определенными теориями, стратегиями, нормами (D’Amato 2024). Э. Плевракис, опираясь на философию Г. Гегеля, для которого сознание – это не просто наличие определенного набора интеллектуальных или психических характеристик, а динамичный процесс, включающий в себя развитие и самопонимание, утверждает, что ИИ уже частично «сознателен», но еще не «интеллектуален» и не обладает «разумом». Однако такая логика не отвергает возможности появления сильного ИИ, который будет обладать субъектностью. Это означает, что человечество должно рассматривать ИИ как развивающийся субъект, обладающий потенциалом для обретения разума и свободы (Plevrakis 2024). Таким образом, учитывая способность ИИ к участию в социальных отношениях, усвоению норм и правил, развитию и обучению, можно говорить о формировании новой, технологически опосредованной формы субъектности – агентности.

3. Агентность ИИ
Под агентностью в нашей статье мы будем понимать «способность контролировать и направлять свой собственный программный поток, принимая независимые решения о конкретных путях, последовательности и характере действий, которые должны быть выполнены для достижения своих целей» (ItWeek 2025). Это концепция, которая относится к способности сущности (например, человека, животного или искусственного интеллекта) действовать автономно, принимать решения и влиять на окружающую среду: действовать самостоятельно, без непосредственного внешнего контроля; ставить перед собой цели и стремиться к их достижению; обирать и анализировать данные из окружающей среды; взаимодействовать с другими агентами или объектами в окружающей среде и т.д.
Так, Р. Шарифзаде считает, что для признания ИИ соавтором не существует никаких теоретических препятствий, даже если тот не обладает сознанием. Ученый утверждает, что ChatGPT может удовлетворять критериям ответственности, а именно: способен предоставлять корректную достоверную информацию, признавать ошибки и исправлять их. И в этом ИИ во многом походит на людей, которые не всегда предоставляют верную информацию, совершают ошибки и не могут гарантировать безупречности своей работы. Не стоит требовать от машины того, что мы не требуем и не должны требовать от людей, заявляет автор. Мы можем приписать ИИ моральную ответственность – 
считать его достойным осуждения или похвалы – на основании того, что он может следовать заложенным в него моральным кодам, даже не понимая их значения (Sharifzadeh 2024).
Способность ИИ нести некоторую степень ответственности подтверждается рядом исследований. Известно, что одна из самых критикуемых особенностей ИИ – это так называемые галлюцинации (явление, при котором ИИ уверенно генерирует правдоподобный текст, на самом деле содержащий недостоверные факты). Учитывая это, доверять ИИ и относиться к нему как к ответственному соавтору представляется неразумным. Однако исследование, проведенное Д.Х. Чой и соавторами, показало, что ИИ может не галлюцинировать, если его об этом попросить. ChatGPT выдавал правдивую информацию для прохождения экзамена по юриспруденции после того, как ему дали инструкцию не придумывать неверные факты (Choi 2022). 
Более того, изобретатели отмечают, что избавляться от галлюцинаций ИИ не всегда целесообразно, потому что они могут приносить пользу. Так, доктор Д. Бейкер совместно с другими учеными-химиками получил в 2023 году Нобелевскую премию за открытие быстрого способа создания белков. Бейкер в интервью журналисту «Нью-Йорк Таймс» отметил, что ключевую роль в его работе сыграл ИИ, который создал тысячи виртуальных белков, несуществующих в природе, что, в свою очередь, помогло ученым разработать реальные белки. Благодаря новой технологии команда химиков получила около 100 патентов, в том числе патент на инновационный способ лечения рака и борьбу с вирусными инфекциями по всему миру (Broad 2024). Подобные примеры показывают, что в ряде случаев галлюцинации могут восприниматься не как безответственное распространение дезинформации, а как творческий акт, расширяющий границы человеческого мышления.
Иногда сомнению подвергается именно оригинальность текстов, сгенерированных ИИ. Некоторые считают, что ИИ не может быть автором, поскольку не способен внести личный вклад в выполнение работы (см. выше критерии авторства ICMJE). Однако ученые отмечают, что ИИ справляется с написанием оригинальных текстов, содержащих идеи, которые можно назвать новыми, творческими или полезными. Д. Хааз и П. Ханель сравнили креативность генеративного ИИ (а именно: чат-ботов alpa.ai, Copy.ai, ChatGPT-3, ChatGPT-4, Studio.ai и YouChat) с креативностью людей. Участники эксперимента должны были придумать как можно больше идей использования пяти различных предметов. Комментируя результаты, исследователи отмечают, что не выявили качественных различий между креативностью ИИ и людей. В обоих случаях встречались как оригинальные, так и менее оригинальные и даже нерелевантные идеи. При этом лишь 9,4 % людей показали более высокий уровень креативности, чем самый креативный ИИ – ChatGPT-4. Таким образом, как отмечают исследователи, чат-боты можно назвать креативными. В основе креативности лежат не реальный опыт, эмоции и вдохновение, а способность создавать нечто новое и полезное (Haase, Hanel 2023). 
Однако подобное творчество осуществляется лишь во взаимодействии с людьми, поскольку ИИ обычно генерирует идеи в ответ на запросы человека, который запускает творческий процесс (Runco, Jaeger 2012). Это объясняется тем, что, в отличие от простой креативности, которая предполагает комбинацию уже известных ранее идей, креативность более высокого порядка для ИИ пока не доступна. В 1998 году М.А. Боден отмечал, что трансформационная креативность (создание прежде невозможных и недостижимых идей, революционных измененияй и прорывный открытий) для генеративных моделей пока недоступна. Однако, отмечает исследователь, в будущем ИИ может освоить трансформационную креативность, если усвоит ценностные ориентиры и научится определять, что будет признано обществом как ценность, а что нет (Boden 1998).
Более интересен подход к оригинальности контента, который предлагает А. Саркар. Он отмечает, что с развитием систем ИИ меняется сам характер творческой и интеллектуальной деятельности. Подобно промышленной революции, которая свела на нет зависимость человека от ручных операций, изменения в сфере ИИ приводят к тому, что чат-боты выполняют вместо человека труд, связанный с производством контента. Когда этот процесс будет полностью «механизирован», общество перестанет воспринимать его как творческий. Таким образом произойдет сдвиг от создания информации к ее «критической интеграции», которая заключается в том, что человек не создает ничего нового, а интегрирует результаты, сгенерированные ИИ, в более широкий контекст: выбирает самые удачные стратегии использования ИИ, формулирует запросы, критически оценивает качество сгенерированного контента. То есть человек перестает играть роль «творца» и входит в роль «эксперта» или «редактора» (Sarkar 2023). Это может привести к интересному парадоксу: люди, которые называют себя авторами, перестанут создавать оригинальный контент, а генеративные модели, авторство которых подвергается сомнению, будут главным источником новых креативных идей.
В контексте образования это может привести к тому, что успеваемость студентов станет оцениваться совсем по другим принципам: прежде всего будет проверяться не умение писать с чистого листа, творить и предлагать новые идеи, а способность управлять запросами к ИИ, редактировать и критически оценивать сгенерированный контент.
Активная роль ИИ в создании текстов и изменения, которые он привносит в этот процесс, не только ведет к признанию агентности ИИ, но и провоцирует пересмотр представлений об авторстве и творчестве, о месте в них человека и технологий. Далее мы рассмотрим теоретические подходы к пониманию концепции соавторства, позволяющие проанализировать эти изменения.

4. Соавторство человека и ИИ
Многие исследователи в размышлениях о соавторстве человека и искусственного интеллекта опираются на акторно-сетевую теорию Бруно Латура, Мишеля Каллона и Джона Ло (далее – АСТ), согласно которой «никакая наука о социальном не может даже начаться, если прежде всего не будет тщательно изучен вопрос о том, кто и что участвует в действии, даже если это может означать включение в качестве элементов [взаимодействия]… не-человеков» (Latour 2005, p. 72). Сторонники АСТ не противопоставляют человеческие и не-человеческие акторы, а видят в них равноправных участников взаимодействия, формирующих устойчивую сеть. Из этого следует, что актором может быть и объект, не обладающий сознанием, но при этом активно влияющий на процесс взаимодействия. Например, С. Вулгар предполагает, что один из способов объяснить социальную природу ИИ – значит отвергнуть идею о том, что между людьми и машинами существует внутреннее различие в социальных способностях. Уже в 1985 году он призывал к развитию социологии машин для анализа функционирования систем ИИ как социальных акторов, которые формируют социальные отношения и конструируют социальные реальности (Woolgar 1985). 
Однако даже в рамках АСТ главную ответственность за происходящее пока предпочитают возлагать на людей – «человеческих акторов». Так, Л. Юйин и Ч. Цзиньчи в качестве основных акторов, ответственных за возникновение этических проблем, называют разработчиков генеративных моделей, поставщиков инструментов ИИ, медиаплатформы и компании по сбору данных. Исследователи отмечают, что этические проблемы (предвзятость генеративных моделей, неправомерное использование ИИ человеком, утрата общественного доверия, нарушение конфиденциальности) возникают вследствие сложных и многослойных взаимосвязей в сети, когда акторы разной природы взаимодействуют друг с другом, но при этом люди не проявляют озабоченности последствиями этих взаимодействий (Li, Zhu 2024).
Логичным продолжением АСТ является теория распределенного соавторства. Согласно этому подходу, представление о единственном авторе в лице человека – это пережиток идеализированного и мифологического прошлого эпохи романтизма, когда главной фигурой, имеющей власть над текстом, считался «автор-гений», руководствовавшийся исключительно своим вдохновением и личным видением. С развитием технологий (распространением медиа прежде всего) наступил новый этап. Новые средства коммуникации распределили авторство между множествами агентов (людей, технологий, данных, организаций и т.д.), которые взаимодействуют между собой внутри социальной системы. Теория распределенного авторства берет свое начало в таких работах периода становления постмодернизма, как «Смерть автора» Ролана Барта, «Что такое автор?» Мишеля Фуко, «Грамматология» Жака Деррида и «Открытое произведение» Умберто Эко.
Так, Р. Барт в эссе 1967 года утверждал, что автор – это феномен, порожденный обществом Средневековья и представляющий собой олицетворение индивидуализма. Однако в действительности язык существует независимо от автора, а его значение определяется не личностью автора, а взаимодействием текста с читателем. Текст – это «a text is made of multiple writings, drawn from many cultures and entering into mutual relations of dialogue, parody, contestation, but there is one place where this multiplicity is focused and that place is the reader, not, as was hitherto said, the author. The reader is the space on which all the quotations that make up a writing are inscribed without any of them being lost; a text's unity lies not in its origin but in its destination» («Текст состоит из множества текстов, взятых из разных культур и вступающих во взаимные отношения диалога, пародии, соперничества, но есть одно место, где эта множественность сосредоточена, и это место – читатель, а не автор, как утверждалось ранее. Читатель – это пространство, на котором все цитаты, составляющие текст, записываются так, что ни одна из них не теряется; единство текста заключается не в его происхождении, а в его предназначении» (Barthes 1986, p.51)). Соответственно, чтобы текст обрел смысл, автор должен «умереть», а читатель – «родиться», чтобы наделить текст значением. 
М. Фуко рассматривал автора как функцию, которая организует тексты и придает им определенный статус в культуре, а также обеспечивает дискурсивность, т.е. возможности и правила для создания других текстов. При этом текст отделяется от автора и существует независимо от него, в то время как писатель-субъект исчезает. Даже его имя перестает принадлежать ему как биографической личности, а становится всего лишь частью текста. Имя автора – это не просто ярлык, а часть культуры (Foucault 1969).
Ж. Деррида также критиковал традиционные представления об авторстве. Для того, чтобы показать, что язык – это открытая и динамичная система, он ввел такое понятие, как «различание» (франц. differance, от differ – «различать» и defaire – 
«разбирать»), которое означает невозможность найти и сохранить единственное значение. То есть смысл слова всегда определяется через его отличие от других слов и никогда не фиксируется окончательно, а зависит от будущих интерпретаций. Абсолютного смысла не существует, слова представляют собой следы следов (Деррида 1967). Таким образом, язык отражает происходящее в обществе, а текст создается только путем преобразования другого текста.
У. Эко также утверждал, что смысл текста определяется не авторским замыслом, а его интерпретацией. Говоря об искусстве, философ отмечал, что открытость произведения выражается как «допустимость бесконечного ряда возможных его прочтений, каждое из которых вдыхает в это произведение новую жизнь в соответствии с личной точкой зрения, вкусом, исполнением» (Эко 2004). 
Эти идеи объясняют принципы распределенного авторства, которое с появлением ИИ еще более отдаляет тексты от того, кто его написал. Теперь в написании текста может участвовать не только автор-человек (субъектность которого не существует до появления текста, вне социального контекста и исчезает по мере дальнейшей «жизни» текста), не только читатель (наделяющий текст смыслом), но также ИИ как соавтор, который является одним из элементов современной культуры и потому активно участвует в формировании текстов. Более того, модели ИИ включают в себя других участников распределенного авторства – разработчиков, пользователей, алгоритмы, данные, вложенные в них ценности и т.д. С развитием технологий категория автора становится более размытой и распределенной. Роль автора-человека трансформируется.
Как отмечает П. Гудфеллоу, в такой ситуации человек все чаще действует не как автор, а как «куратор, поскольку теперь главной задачей является не создание материала, а то, что делать с информацией, как ее структурировать, хранить и представлять» (Goodfellow 2023). 
Однако мнения исследователей относительно применения теории распределенного авторства расходятся. Одни используют ее, чтобы подчеркнуть значимость ИИ в процессе создания текстов и предостеречь от излишнего антропоцентризма, другие же видят в ней подтверждение тому, что исключительно человек как наивысшая ценность способен быть полноценным участником социальных практик, и потому только он по-прежнему может претендовать на главную роль автора-творца. Так, А. Челик заявляет, что признание ИИ в качестве автора ошибочно: автор эпохи романтизма остался в прошлом, однако разговоры о смерти субъекта, существующего независимо от текста, есть превеличение. 
«Смерть» автора-человека отнюдь не значит, что его место должен занять нечеловеческий актор (Çelik 2023). Чтобы аргументировать свою позицию, Челик ссылается на концепцию интертекстуальности, введенную Ю. Кристевой, объединившей идеи Фердинанда де Соссюра и Михаила Бахтина (Кристева 2000, с. 432). Но здесь надо видеть, что М. Бахтин подчеркивал диалогичную природу языка, его многоголосие, в котором каждое высказывание непременно субъектно и существует в отношении других высказываний. Для Бахтина «диалог – это не только язык, присвоенный субъектом, но еще и письмо, в котором прочитывается голос другого» (цит. по: Кристева 2000, с. 433). Согласно этой точке зрения, автор не может быть мертв в принципе. Его голос утрачивает авторитет, но, несмотря на это, продолжает отчетливо звучать в полифонии других голосов. ИИ в этом контексте может быть автором, поскольку участие в таком диалоге – один из равноправных голосов, представляющим определенный «опыт» порождения текста и взаимодействия в диалоге с другими текстами. 
Развивая бахтинские идеи, Ф. Бомба и соавторы вводят схожее понятие – «переплетенное авторство» – и определяют его как «деиндивидуализированное производство знания» (Bomba, Menéndez-Blanco, Grigis 2024). Они утверждают, что такого рода авторство возникает в результате взаимодействия агентов, совместно создающих знание, а не из отдельных сущностей в виде одного автора-человека или одной машины. Однако, отмечают исследователи, машины не обладают намерением, поэтому право собственности на результаты деятельности, по их мнению, по-прежнему принадлежит человеку. 
Примечательно, что эта концепция перекликается с написанной чуть ранее статьей К. Фрауэнбергера, в которой он совмещает ранее упомянутую нами АСТ с постфеноменологией, объектно-ориентированной онтологией и агентным реализмом. Он объединяет эти подходы в общую теорию (теорию взаимосвязей), согласно которой человек и вещи не могут существовать отдельно друг от друга и формируются только посредством взаимодействия с другими сущностями. Так, Фрауэнбергер приходит к новому пониманию отношений человека и компьютера – переплетенному взаимодействию (Entanglement HCI), при котором границы между технологиями и человеком размываются; человек перестает быть единственным активным участником отношений, а нечеловеческие акторы, наоборот, по мере своего развития становятся более активными (Frauenberger 2019).
Примерно так же размышляет о трансформации взаимоотношений автора, читателя и технологий Х. Байор, который называет свою идею «модель каузального авторства». Он вводит своеобразную шкалу удаленности автора-человека от конечного текста. Казуальное авторство включает в себя следующие виды-этапы: 1) первичное авторство – написание текста полностью человеком; 2) вторичное авторство – создание текста ИИ, но по правилам, написанным человеком; 3) третичное авторство – использование машинного обучения, где правила генерируются автоматически; 4) четвертичное авторство – взаимодействие с большими языковыми моделями, где пользователь лишь предоставляет запросы (Bajohr 2023). Эта модель дополняет теорию распределенного авторства, акцентируя внимание на увеличении дистанции между текстом и его создателем, и служит основой для появления менее антропоцентрических концепций авторства. 
Как следствие, в другой своей работе Байор предлагает концепцию анонимного авторства. Исследователь отмечает, что стандартное ожидание заключается в том, что по умолчанию авторство текста приписывается человеку. Это ожидание трансформируется по мере развития технологий. Сегодня, если текст оказывается сгенерированным, читатель пока еще чувствует себя обманутым, потому что его ожидания от авторства не оправдались (если специально не указано, что текст полностью сгенерирован ИИ). Однако количество сгенерированного контента увеличивается. И в будущем может появиться новое стандартное отношение к текстам – сомнение в их происхождении. Далее, поскольку люди не могут постоянно жить в условиях неопределенности и стремятся к установлению нормы, модель ожидания человеческого авторства также устареет. Один из возможных сценариев – переход к постискусственным текстам, которые представляют собой гибрид человеческого и машинного творчества, стирают различия между естественным и искусственным. В таком случае вопрос об авторстве потеряет свою значимость: все тексты станут анонимными, а читателей будет интересовать в первую очередь не происхождение текста, а его содержание. 
Таким образом, на пути к постискусственной литературе читатель пройдет через три ведущих состояния – обманутый, сомневающийся и безразличный. Байор предлагает сопротивляться подобному сценарию с помощью лингвистической непредсказуемости, т.е. экспериментировать с формой, разрушать стандартные языковые модели. 
Стандарт анонимного авторства – феномен будущего. Однако практика издания текстов, не подписанных именами авторов, существует уже сегодня. Й.Т. Деннис приводит в качестве примера журнал «The Economist», который публикует статьи, созданные коллективом авторов и редакторов. При таком подходе тексты становятся «плодом коллективного разума», «коллективной мудрости», что «претендует на определенную степень объективности, недоступную отдельным авторам» (Tenen 2024). Хотя здесь пока не идет речи о включении ИИ в коллектив авторов, можно предположить, что такая практика либо возникнет в недалеком будущем, либо уже есть, но пока не оформлена надлежащим образом и не озвучивается.

Заключение
В последнее время появляется все больше аргументов в пользу того, что ИИ субъектен: искусственный интеллект демонстрирует признаки субъекта, может нести некоторую (условную пока) степень ответственности, способен создавать достоверные, креативные, оригинальные тексты, не уступающие по качеству человеческим. Это дает некоторым исследователям основание считать его соавтором человека. Действительно, ИИ может выглядеть таковым. Однако при всех своих впечатляющих возможностях ИИ не обладает пониманием, которым обладают люди. Для описания этого феномена воспользуемся метафорой «стохастический попугай» Эмили М. Бендер, которая указывает, что модели генерируют правдоподобный текст, основываясь на статистических закономерностях, но при этом не понимают значения языка. Они «перебирают» существующие в данных слова и фразы, но не имеют доступа к контексту и семантике, как человек. ИИ пока еще остается инструментом, который искусно имитирует осмысленную человеческую речь, но на самом деле не может ее осмыслить, как человек. Этот факт ставит вопрос о природе субъектности ИИ и возможности уравнивания ее с человеческими возможностями, который в данной работе мы можем поставить, но претендовать на ответ пока не в состоянии.
Кроме того, АСТ и теории распределенного, переплетенного, каузального, анонимного авторства дали нам понять, что ИИ – пока еще не единоличный агент, а сложный конструкт, который включает в себя множество агентов (людей и алгоритмов), представляет собой коллективный разум, отражающий состояние общества и ценности разработчиков. Это означает, что даже несмотря на то, что внешне ИИ может демонстрировать поведение субъекта, но по природе своей этот субъект явно иной, чем человеческий. И ответственность за результат по-прежнему несет человек. Взаимодействуя с ИИ в процессе написания текстов, он играет роль редактора, руководителя и вдохновителя; принимает решения о структуре, логике и содержании работы, вносит необходимые правки, чтобы текст соответствовал замыслу. 
Признавая ИИ равноправным соавтором и придерживаясь принципа распределенного авторства, человек рискует переложить на генеративную модель ответственность за производство текстов и последствия этого производства, что может привести к этическим проблемам: проблема «призрачного авторства», при которой профессиональный писатель выполняет за гонорар работу, приписываемую другому автору; проблема «авторства в подарок», когда в числе авторов указан автор, не соответствующий критериям соавторства, чаще всего ради получения взаимной выгоды; «гостевого авторства», когда авторитетные авторы одалживают свое имя исследованию, чтобы вызвать благодаря этому доверие у читателей (AJE 2025). Если на практике человек не выступает в качестве основного автора и редактора, но выдает чужие тексты за свои, как в подобных сценариях, это свидетельствует о смене практик, касающихся многих – в том числе этических – аспектов существования текстов в практиках человечества.
В то же время нельзя отрицать развивающиеся способности ИИ в производстве текстов и смыслов, его потенциал и все возрастающую социальную роль. Возможно, дискуссии на тему соавторства человека и ИИ приведут к тому, что в будущем общество пересмотрит понятие авторства или признает новую его форму. В случае появления сильного ИИ (AGI) появится больше оснований для того, чтобы назвать его субъектом, поскольку способности ИИ к имитации понимания и осмысленных текстов будут гораздо сильнее. Но пока субъектность и соавторство ИИ является не его внутренней характеристикой, а социальным конструктом, результатом взаимодействия с человеком. 

×

About the authors

Natalia A. Maslenkova

Samara National Research University

Author for correspondence.
Email: maslenkova.na@ssau.ru
ORCID iD: 0000-0003-2100-3510

Candidate of Philology, Associate Professor of the Department of Sociology and Cultural Studies

Russian Federation, 34, Moskovskoye shosse (Str.), Samara, 443086, Russian Federation

Anna S. Nikitina

Samara National Research University

Email: nikitinanna.s@yandex.ru
ORCID iD: 0000-0003-4962-0166

Graduate student in the "Social Analytics of New Media" specialization, Department of Sociology and Cultural Studies

Russian Federation, 34, Moskovskoye shosse (Str.), Samara, 443086, Russian Federation

References

  1. Anderson, N., Belavy, D.L., Perle, S.M., et al. (2023), AI did not write this manuscript, or did it? Can we trick the AI text detector into generated texts? The potential future of ChatGPT and AI in Sports & Exercise Medicine manuscript generation, BMJ Open Sport Exerc Med, vol. 9, no. 1, DOI: https://doi.org/10.1136/bmjsem-2023-001568.
  2. Aydoğdu Çelik, M. (2023), Death of the author: a survey on artificial intelligence in literature, Journal of Communication Science Researches, vol. 3, no. 2, pp. 142–154.
  3. Bajohr, H. (2023), Artificial and post-artificial texts. On machine learning and the reading expectations towards literary and non-literary writing, Universität Basel, Basel, [Online], available at: https://mediarep.org/entities/book/97e3a213-ae8e-4286-8b7a-be8f6433fafb (Accessed 1 March 2025).
  4. Bajohr, H. (2024), Writing at a distance: notes on authorship and artificial intelligence, German Studies Review, pp. 315–337.
  5. Barthes, R. (1986), The rustle of language, Hill and Wang, New York, USA.
  6. Boden, M.A. (1998), Creativity and artificial intelligence, Artificial Intelligence, vol. 103, pp. 347–356.
  7. Bozkurt, A. (2024), GenAI et al.: cocreation, authorship, ownership, academic ethics and integrity in a time of generative AI, Open Praxis, vol. 16, no. 1, pp. 1–10, DOI: https://doi.org/10.55982/openpraxis.16.1.654.
  8. Bridy, A. (2012), Coding creativity: copyright and the artificially intelligent author, Stanford Technology Law Review, pp. 2–28.
  9. Broad, W.J. (2024), How hallucinatory A.I. helps science dream up big breakthroughs, The New York Times, Dec. 23, [Online], available at: https://www.nytimes.com/2024/12/23/science/ai-hallucinations-science.html?smid=url-share (Accessed 1 March 2025).
  10. Bomba, B., De Angeli, A. (2024), More than human art: agency, creativity and authorship, SSRN, [Online], available at: https://ssrn.com/abstract=5108335 (Accessed 1 March 2025).
  11. Choi, J.H., Hickman, K.E., Monahan, A.B., Schwarcz, D. (2022), ChatGPT goes to law school, Journal of Legal Education, vol. 71, no. 3, [Online], available at: https://jle.aals.org/home/vol71/iss3/2/ (Accessed 1 March 2025).
  12. Cilliers, P. (1998), Complexity and postmodernism: understanding complex systems, Routledge, London and New York.
  13. Dennett, D.C. (1971), Intentional Systems, The Journal of Philosophy, vol. 68, no. 4, pp. 87–106, DOI: https://doi.org/10.2307/2025382.
  14. D’Amato, K. (2024), ChatGPT: towards AI subjectivity, AI & SOCIETY, DOI: https://doi.org/10.1007/s00146-024-01898-z.
  15. Ergun, Y. (2023), Redefining authorship in the era of artificial intelligence: balancing ethics, transparency, and progress, ESMO Open, vol. 8, no. 5, [Online], available at: https://www.esmoopen.com/article/S2059-7029%2823%2900869-4/fulltext?utm_source=chatgpt.com (Accessed January 14, 2025).
  16. Forsythe, D.E. (1993), The construction of work in artificial intelligence, Science, Technology, & Human Values, vol. 18, no. 4, pp. 460–479.
  17. Frauenberger, C. (2019), Entanglement HCI The Next Wave? ACM Transactions on Computer-Human Interaction, vol. 7, no. 1, Article 2, pp. 1–27, [Online], available at: https://dl.acm.org/doi/10.1145/3364998 (Accessed 1 March 2025).
  18. Foucault, M. (2025), What is an author? [Online], available at: https://genius.com/Michel-foucault-what-is-an-author-annotated (Accessed 1 March 2025).
  19. Goodfellow, P. (2023), The distributed authorship of art in the age of AI, Age of AI. Arts, vol. 13, no. 5, DOI: https://doi.org/10.3390/arts13050149.
  20. Gorraiz, J. (2025), Acknowledging the new invisible colleague: Addressing the recognition of Open AI contributions in scientific publishing, Journal of Informetrics, vol. 19, no. 2.
  21. Haase, J., Hanel, P.H.P. (2023), Artificial muses: Generative artificial intelligence chatbots have risen to human-level creativity, Journal of Creativity, vol. 33, no. 3, [Online], available at: https://www.sciencedirect.com/science/article/pii/S2713374523000250 (Accessed 1 March 2025).
  22. Jasanoff, S. (2016), The ethics of invention: Technology and the human future, W.W. Norton & Company, New York, USA.
  23. Latour, B. (2005), Reassembling the Social: An Introduction to Actor-Network-Theory, Oxford University Press, Oxford, UK.
  24. Li, Y., Zhu, J. (2024), An ethical study of generative AI from the actor-network theory perspective, International Journal on Cybernetics & Informatics (IJCI), vol. 13, no. 1, pp. 67–78.
  25. Northoff, G., Gouveia, S.S. (2024), Does artificial intelligence exhibit basic fundamental subjectivity? A neurophilosophical argument, Phenomenology and the Cognitive Sciences, vol. 23, pp. 1097–1118.
  26. Polonsky, M.J., Rotman, D.J. (2023), Should Artificial Intelligent Agents be Your Co-author? Arguments in Favour, Informed by ChatGPT, Australasian Marketing Journal, vol. 31, no. 2, pp. 91–96.
  27. Plevrakis, E. (2024), Can AI be a subject like us? A Hegelian speculative-philosophical approach, Discover Computing, vol. 27, no. 46, [Online], available at: https://link.springer.com/article/10.1007/s10791-024-09472-3 (Accessed 14 January 2025).
  28. Runco, M.A., Jaeger, G.J. (2012), The standard definition of creativity, Creativity Research Journal, vol. 24, no. 1, pp. 92–96, DOI: https://doi.org/10.1080/10400419.2012.650092.
  29. Samuel, G. (2023), AI and the future of authorship, Journal of Intellectual Property Law & Practice, vol. 18, no. 4, pp. 231–239, DOI: https://doi.org/10.1093/jiplp/jpad001.
  30. Scimeca, M., Bonfiglio, R. (2023), Dignity of science and the use of ChatGPT as a co-author, ESMO Open, vol. 8, no. 4, [Online], available at: https://www.esmoopen.com/article/S2059-7029(23)00842-6/fulltext (Accessed 14 January 2025).
  31. Sarkar, A. (2023), Exploring perspectives on the impact of artificial intelligence on the creativity of knowledge work: beyond mechanised plagiarism and stochastic parrots, In Annual Symposium on Human-Computer Interaction for Work, Oldenburg, Germany, [Online], available at: https://arxiv.org/pdf/2307.10751 (Accessed 1 March 2025).
  32. Sharifzadeh, R. (2024), ChatGPT as co-author? AI and research ethics, Ethics in Progress, vol. 15, no. 1, pp. 155–173.
  33. Teixeira da Silva, J.A., Tsigaris, P. (2023), Human- and AI-based authorship: Principles and ethics. Learned Publishing, vol. 36, no. 3, pp. 453–462, DOI: https://doi.org/10.1002/leap.1547.
  34. Tenen, D.Y. (2024), Author – anonymous and distributed, New Techno-Humanities, vol. 4, pp. 54–57.
  35. Bomba, F., Menéndez-Blanco, M., Grigis, P., et al. (2024), The choreographer-performer continuum: a diffraction tool to illuminate authorship in more than human co-performances, ACM Trans. Comput.-Hum. Interact., vol. 31, no. 6, [Online], available at: https://dl.acm.org/doi/10.1145/3689040 (Accessed 1 March 2025).
  36. Woolgar, S. (1985), Why not a sociology of machines? The case of sociology and artificial intelligence, Sociology, vol. 19, no. 4, pp. 557–572.
  37. Wojtczak, S. (2023), On actor-network theory and algorithms: ChatGPT and the new power relationships in the age of AI, AI and Ethics, vol. 4, pp. 1071–1084.
  38. Weber-Wulff, D., Anohina-Naumeca, A., Bjelobaba, S., et al. (2023), Testing of detection tools for AI-generated text, Int J Educ Integr, vol. 19, p. 26, DOI: https://doi.org/10.1007/s40979-023-00146-z.
  39. Bart, R. (1994), Selected works: semiotics, poetics, Progress, Moscow, Russia, (In Russian).
  40. Derrida, J. (2000), About grammatology, Ad Marginem Publ., Moscow, Russia, (In Russian).
  41. Derrida, J. (1967), Distinction, Psychoanalysis, [Online], available at: https://inlnk.ru/yODoaB (Accessed 1 March 2025), (In Russian).
  42. Kristeva, Y. (2000), Bakhtin, word, dialogue and novel, French Semiotics: From Structuralism to Poststructuralism, Moscow, pp. 427–457, (In Russian).
  43. Stepanova, N.I. (2012), Intertextuality in cultural texts, Teacher XXI century, no. 3, pp. 360–363, (In Russian).
  44. Foucault, M. (1996), What is an Author?, Foucault M. Works of Different Years, Nauka, St. Petersburg, Russia, pp. 391–409, (In Russian).
  45. Eco, U. (2004), Open work, Form and Indeterminacy in Contemporary Poetics, Academic Project, St. Petersburg, Russia, (In Russian).

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2025 Maslenkova N.A., Nikitina A.S.

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».