К новому уровню коммуникации человека и чат-бота: управление целями и взаимная речевая адаптация

Обложка

Цитировать

Полный текст

Аннотация

По мере того как искусственный интеллект все глубже интегрируется в повседневную коммуникацию, изучение динамики взаимодействия человека и чат-бота приобретает как теоретическую значимость, так и практическую актуальность. В настоящем исследовании с использованием методологии обоснованной теории проанализиро- ваны цели, коммуникативные тактики и адаптационные стратегии, применяемые пользователями и чат-ботами в процессе диалога. На основе корпуса из 316 диалогов с ChatGPT было проведено многоуровневое кодирование - субстантивное, избирательное и теоретическое - с целью определения устойчивых паттернов в организации цифровой коммуникации. Анализ выявил широкий спектр пользовательских целей, включая информационные, практико-ориентированные, генеративные, эмоциональные и исследовательские. Цели чат-ботов, в свою очередь, оказались структурно более узкими, но функционально адаптивными - они были направлены на поддержание связности диалога и вовлеченности пользователя. Обе стороны использовали разнообразные коммуникативные тактики, включая первичные, комбинированные и компенсаторные. Пользователи инициировали постановку целей и часто изменяли тактики в ходе взаимодействия, тогда как чат-боты демонстрировали реактивное поведение посредством прояснения, адаптации тона и метакоммуникативных ответов. Ключевым результатом исследования является выделение шести базовых коммуникативных сценариев взаимодействия пользователя и чат-бота: информационно-аналитического, практического, креативного, эмоционально-рефлексивного, развлекательно-игрового и исследовательски-провокационного. Каждый сценарий отражает устойчивую согласованность целей и тактик участников, раскрывая функциональную архитектуру цифрового диалога. Исследование показало, что взаимодействие с генеративными чат-ботами не является случайным, а разворачивается в рамках структурированных коммуникативных конфигураций. Полученные результаты способствуют теоретическому осмыслению цифрового взаимодействия и предлагают типологическую основу для анализа, проектирования и оптимизации систем коммуникации на базе ИИ в различных сферах.

Об авторах

Виолетта Викторовна Палёнова

Государственный академический университет гуманитарных наук

Автор, ответственный за переписку.
Email: violetta.palenova@yandex.ru
ORCID iD: 0000-0001-8552-5639

аспирантка

Российская Федерация, 119049, город Москва, Мароновский пер., д. 26

Анатолий Николаевич Воронин

Институт психологии Российской академии наук

Email: voroninan@bk.ru
ORCID iD: 0000-0002-6612-9726
SPIN-код: 2852-2031
Scopus Author ID: 7103245935

доктор психологических наук, профессор, заведующий лабораторией психологии речи и психолингвистики

Российская Федерация, 129366, Москва, Ярославская ул., д. 13

Список литературы

  1. Altay, S., Hacquin, A.-S., Chevallier, C., & Mercier, H. (2023). Information delivered by a chatbot has a positive impact on COVID-19 vaccines attitudes and intentions. Journal of Experimental Psychology: Applied, 29(1), 52–62. https://doi.org/10.1037/xap0000400
  2. Araujo, T. (2018). Living up to the chatbot hype: The influence of anthropomorphic design cues and communicative agency framing on conversational agent and company perceptions. Computers in Human Behavior, 85, 183–189. https://doi.org/10.1016/j.chb.2018.03.051
  3. Bedrina, I.S. (2010). Functional semantic stylistic text analyses. Lingua Mobilis, (7), 19–26. (In Russ.). EDN: MWCGAH
  4. Brown, P., & Levinson, S.C. (1987). Politeness: Some universals in language usage. Cambridge: Cambridge University Press. https://doi.org/10.1017/cbo9780511813085
  5. Cheng, X., Yin, L., Lin, C., Shi, Z., Zheng, H., Zhu, L., Liu, X., Chen, K., & Dong, R. (2024). Chatbot dialogic reading boosts comprehension for Chinese kindergarteners with higher language skills. Journal of Experimental Child Psychology, 240, 105842. https://doi.org/10.1016/j.jecp.2023.105842
  6. Ciechanowski, L., Przegalinska, A., Magnuski, M., & Gloor, P. (2019). In the shades of the uncanny valley: An experimental study of human–chatbot interaction. Future Generation Computer Systems, 92, 539–548. https://doi.org/10.1016/j.future.2018.01.055
  7. Croes, E.A.J., & Antheunis, M.L. (2021). Can we be friends with Mitsuku? A longitudinal study on the process of relationship formation between humans and a social chatbot. Journal of Social and Personal Relationships, 38(1), 279–300. https://doi.org/10.1177/0265407520959463
  8. De Gennaro, M., Krumhuber, E.G., & Lucas, G. (2020). Effectiveness of an empathic chatbot in combating adverse effects of social exclusion on mood. Frontiers in Psychology, 10, 3061. https://doi.org/10.3389/fpsyg.2019.03061
  9. Dillard, J.P., Segrin, C., & Harden, J.M. (1989). Primary and secondary goals in the production of interpersonal influence messages. Communication Monographs, 56(1), 19–38. https://doi.org/10.1080/03637758909390247
  10. Gayanova, M.M., & Vulfin, A.M. (2022). Structural and semantic analysis of scientific publications in a selected subject area. Systems Engineering and Information Technologies, 4(1), 37–43. (In Russ.). https://doi.org/10.54708/26585014_2022_41837 EDN: SRLPRF
  11. Glaser, B. G., & Strauss, A. L. (1967). The discovery of grounded theory: Strategies for qualitative research. Chicago, IL: Aldine.
  12. Grice, H.P. (1975). Logic and conversation. In P. Cole, & J.L. Morgan (Eds.). Syntax and semantics. Vol. 3. Speech acts (pp. 41–58). New York: Academic Press. https://doi.org/10.1163/9789004368811_003
  13. Hancock, J.T., Naaman, M., & Levy, K. (2020). AI-mediated communication: Definition, research agenda, and ethical considerations. Journal of Computer-Mediated Communication, 25(1), 89–100. https://doi.org/10.1093/jcmc/zmz022
  14. Ischen, C., Butler, J., & Ohme, J. (2024). Chatting about the unaccepted: Self-disclosure of unaccepted news exposure behaviour to a chatbot. Behaviour & Information Technology, 43(10), 2044–2056. https://doi.org/10.1080/0144929x.2023.2237605
  15. Janson, A. (2023). How to leverage anthropomorphism for chatbot service interfaces: The interplay of communication style and personification. Computers in Human Behavior, 149, 107954. https://doi.org/10.1016/j.chb.2023.107954
  16. Jiang, Y., Yang, X., & Zheng, T. (2023). Make chatbots more adaptive: Dual pathways linking human-like cues and tailored response to trust in interactions with chatbots. Computers in Human Behavior, 138, 107485. https://doi.org/10.1016/j.chb.2022.107485
  17. Konya-Baumbach, E., Biller, M., & von Janda, S. (2023). Someone out there? A study on the social presence of anthropomorphized chatbots. Computers in Human Behavior, 139, 107513. https://doi.org/10.1016/j.chb.2022.107513
  18. Liu, B., & Sundar, S.S. (2018). Should machines express sympathy and empathy? Experiments with a health advice chatbot. Cyberpsychology, Behavior, and Social Networking, 21(10), 625–636. https://doi.org/10.1089/cyber.2018.0110
  19. Lu, L., McDonald, C., Kelleher, T., Lee, S., Chung, Y.J., Mueller, S., Vielledent, M., & Yue, C.A. (2022). Measuring consumer-perceived humanness of online organizational agents. Computers in Human Behavior, 128, 107092. https://doi.org/10.1016/j.chb.2021.107092
  20. Markowitz, D.M., Hancock, J.T., & Bailenson, J.N. (2024). Linguistic markers of inherently false AI communication and intentionally false human communication: Evidence from hotel reviews. Journal of Language and Social Psychology, 43(1), 63–82. https://doi.org/10.1177/0261927x231200201
  21. Maurya, R.K. (2024). A qualitative content analysis of ChatGPT’s client simulation role-play for practising counselling skills. Counselling and Psychotherapy Research, 24(2), 614–630. https://doi.org/10.1002/capr.12699
  22. McGowan, A., Gui, Y., Dobbs, M., Shuster, S., Cotter, M., Selloni, A., Goodman, M., Srivastava, A., Cecchi, G.A., & Corcoran, C.M. (2023). ChatGPT and Bard exhibit spontaneous citation fabrication during psychiatry literature search. Psychiatry Research, 326, 115334. https://doi.org/10.1016/j.psychres.2023.115334
  23. Palomares, N.A. (2014). The goal construct in interpersonal communication. In C.R. Berger (Ed.), Interpersonal Communication (pp. 77–100). Berlin, Boston: De Gruyter Mouton. https://doi.org/10.1515/9783110276794.77
  24. Park, G., Chung, J., & Lee, S. (2022). Effect of AI chatbot emotional disclosure on user satisfaction and reuse intention for mental health counseling: A serial mediation model. Current Psychology, 42(32), 28663–28673. https://doi.org/10.1007/s12144-022-03932-z
  25. Park, G., Yim, M.C., Chung, J., & Lee, S. (2023). Effect of AI chatbot empathy and identity disclosure on willingness to donate: The mediation of humanness and social presence. Behaviour & Information Technology, 42(12), 1998–2010. https://doi.org/10.1080/0144929x.2022.2105746
  26. Prescott, J., Ogilvie, L., & Hanley, T. (2024). Student therapists’ experiences of learning using a machine client: A proof-of-concept exploration of an emotionally responsive interactive client (ERIC). Counselling and Psychotherapy Research, 24(2), 524–531. https://doi.org/10.1002/capr.12685
  27. Rashkin, H., Smith, E.M., Li, M., & Boureau, Y.-L. (2019). Towards empathetic open-domain conversation models: A new benchmark and dataset. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (pp. 5370–5381). Florence, Italy: Association for Computational Linguistics. https://doi.org/10.18653/v1/p19-1534
  28. Rhee, C.E., & Choi, J. (2020). Effects of personalization and social role in voice shopping: An experimental study on product recommendation by a conversational voice agent. Computers in Human Behavior, 109, 106359. https://doi.org/10.1016/j.chb.2020.106359
  29. Rhim, J., Kwak, M., Gong, Y., & Gweon, G. (2022). Application of humanization to survey chatbots: Change in chatbot perception, interaction experience, and survey data quality. Computers in Human Behavior, 126, 107034. https://doi.org/10.1016/j.chb.2021.107034
  30. Ricon, T. (2024). How chatbots perceive sexting by adolescents. Computers in Human Behavior: Artificial Humans, 2(1), 100068. https://doi.org/10.1016/j.chbah.2024.100068
  31. Sahab, S., Haqbeen, J., Hadfi, R., Ito, T., Imade, R.E., Ohnuma, S., & Hasegawa, T. (2024). E-contact facilitated by conversational agents reduces interethnic prejudice and anxiety in Afghanistan. Communications Psychology, 2(1), 22. https://doi.org/10.1038/s44271-024-00070-z
  32. Schrader, D.C., & Dillard, J.P. (1998). Goal structures and interpersonal influence. Communication Studies, 49(4), 276–293. https://doi.org/10.1080/10510979809368538
  33. Seitz, L. (2024). Artificial empathy in healthcare chatbots: Does it feel authentic? Computers in Hu­man Behavior: Artificial Humans, 2(1), 100067. https://doi.org/10.1016/j.chbah.2024.100067
  34. Shaikh, S., Yayilgan, S.Y., Klimova, B., & Pikhart, M. (2023). Assessing the usability of ChatGPT for formal English language learning. European Journal of Investigation in Health, Psychology and Education, 13(9), 1937–1960. https://doi.org/10.3390/ejihpe13090140
  35. Shin, H., Bunosso, I., & Levine, L.R. (2023). The influence of chatbot humour on consumer evaluations of services. International Journal of Consumer Studies, 47(2), 545–562. https://doi.org/10.1111/ijcs.12849
  36. Skjuve, M., Følstad, A., Fostervold, K.I., & Brandtzaeg, P.B. (2021). My chatbot companion — A study of human-chatbot relationships. International Journal of Human-Computer Studies, 149, 102601. https://doi.org/10.1016/j.ijhcs.2021.102601
  37. Sperber, D., & Wilson, D. (1995). Relevance: Communication and cognition (2nd ed.). Oxford: Blackwell Publishers Ltd.
  38. Stamp, G.H., & Knapp, M.L. (1990). The construct of intent in interpersonal communication. Quarterly Journal of Speech, 76(3), 282–299. https://doi.org/10.1080/00335639009383920
  39. Titscher, S., Meyer, M., Wodak, R., & Vetter, E. (2000). Methods of text and discourse analysis. London: SAGE Publications Ltd. https://doi.org/10.4135/9780857024480
  40. Wang, X. (2020). Semantic and structural analysis of Internet texts. E-Scio, (4), 51–60. (In Russ.). EDN: PBIGEH
  41. Wilson, S.R. (1995). Elaborating the cognitive rules model of interaction goals: The problem of accounting for individual differences in goal formation. Annals of the International Communication Association, 18(1), 3–25. https://doi.org/10.1080/23808985.1995.11678905
  42. Youn, S., & Jin, S.V. (2021). “In A.I. we trust?” The effects of parasocial interaction and technopian versus luddite ideological views on chatbot-based customer relationship management in the emerging “feeling economy”. Computers in Human Behavior, 119, 106721. https://doi.org/10.1016/j.chb.2021.106721

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».