Scientists for the Safety of Artificial Intelligence

Cover Page

Cite item

Full Text

Open Access Open Access
Restricted Access Access granted
Restricted Access Subscription Access

Abstract

The purpose of the article is to examine how well-known scientists assess the potential long-term risks of artificial intelligence (AI). It examines their contribution to the development of generative AI technologies, as well as the advocacy for safe AI by the famous CanadianBritish scientist, 2024 Nobel Prize winner Jeffrey Hinton, and his students and colleagues in the field of machine learning, who share his ideas or, on the contrary, oppose him (I. Sutskever, J. Bengio, J. LeCun). The warnings of scientists, programmers, and entrepreneurs are (G. Hinton, J. Bengio, I. Sutskever, S. Balaji, E. Musk, and others) about the uncontrollable consequences of the competitive race between high-tech companies such as OpenAI, Google, Anthropic, Microsoft, as well as their advocacy for new regulatory approaches in this area, are described. The article shows how researchers are forced to come into conflict with the interests of technology corporations in order to convey information about the risks of AI to a wide range of people.

About the authors

M. E Sokolova

Georgy Arbatov Institute for U.S. and Canada Studies, Russian Academy of Sciences (ISKRAN)

Email: mariamva@yandex.ru
ORCID iD: 0000-0002-4899-9058
Candidate of Sciences (Philosophy), Senior Research Fellow Moscow, 121069, Russian Federation

References

  1. Geoffrey E. Hinton. Available at: https://www.cs.toronto.edu/~hinton/ (accessed 23.12.2024).
  2. The Vector Institute for Artificial Intelligence. Available at: https://vectorinstitute.ai (accessed 28.12.2024).
  3. Gartner: генеративный ИИ близок к «избавлению от иллюзий». itWeek.
  4. августа. Available at: https://www.itweek.ru/ai/article/detail.php?ID=230226 (accessed: 7.01.2025).
  5. Metz, C. Silicon Valley’s Safe Space. The New York Times. 2021. 13 February. Available at: https://www.nytimes.com/2021/02/13/technology/slate-star-codex-rationalists.html (accessed 10.01.2025).
  6. Metz, C. The Godfather of A.I.2 Leaves Google and Warns of Danger Ahead. The New York Times. 2023. 4 May. Available at: https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html?ysclid=m1br4868ad234874607 (accessed 3.01.2025).
  7. Джеффри Хинтон. Интервью в Vector Institut в Торонто. О технологии, которая уже меняет мир. 2024. 5 ноября. Available at: https://rutube.ru/video/7d04ece462e7d0f17fbe5768d3639f9a/?ysclid=m5o8vmu0125 8862923 (accessed 4.01.2025).
  8. SB 1047 (SB-1047 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (2023-2024). Available at: https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB1047 (accessed 3.01.2025).
  9. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. White House. 2023. 30 October. Available at: https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificialintelligence/(accessed 3.01.2025).
  10. Mims Ch. This AI Pioneer Thinks AI Is Dumber Than a Cat. WSJ. 2024. 11 October. Available at: https://www.wsj.com/tech/ai/yann-lecun-ai-meta-aa59e2f5 (accessed 3.01.2025).
  11. Пашенцев Е. Злонамеренное использование ИИ и информационно-психологическая безопасность: будущие риски. РСМД. 2024. 9 July. Available at: https://russiancouncil.ru/analytics-and-comments/analytics/zlonamerennoe-ispolzovanie-ii-i-informatsionno-psikhologicheskaya-bezopasnost-budushchieriski/?sphrase_id=166794964 (accessed 12.13.2025).
  12. Banias, M.J. Inside CounterCloud: A Fully Autonomous AI Disinformation System. The Debrief. 2023, 16 August. Available at: https://thedebrief.org/countercloud-ai-disinformation/ (accessed 12.01.2025).
  13. Алипова Е. Илья Суцкевер прогнозирует непредсказуемость сверхразумного ИИ. RB. 2024. 14 December. Available at: h ttps://rb.ru/news/suckevernepredskaz/?ysclid=m4oatg9ir3926785364 (accessed 3.01.2025).
  14. Metz, C. Former OpenAI Researcher Says the Company Broke Copyright Law. The New York Times. 2024. 23 October. Available at: https://www.nytimes.com/2024/10/23/technology/openai-copyright-law.html (accessed 3.01.2025).
  15. Pause Giant AI Experiments: An Open Letter. Future of Life Institute. Available at: https://futureoflife.org/open-letter/pause-giant-ai-experiments/(accessed 6.01.2025).
  16. OpenAI Fires Back at Elon Musk’s Lawsuit. The New York Times. 2024. 13 December. Available at: https://www.nytimes.com/2024/12/13/technology/openaielon-musk-lawsuit.html (accessed 6.01.2025).
  17. Heath A. Meta asks the government to block OpenAI’s switch to a for-profit. The Verge. 2024. 14 December. Available at: https://www.theverge.com/2024/12/13/24320880/meta-california-ag-letter-openai-non-profit-elonmusk (accessed 6.01.2025).
  18. Working together on the future of AI. Association for the Advancement of Artificial Intelligence. 2023. 5 April. Available at: https://aaai.org/working-together-on-the-future-of-ai/(accessed 6.01.2025).
  19. Лекун Я. 2021. Как учится машина. Революция в области нейронных сетей и глубокого обучения. М. Издательство «Альпина ПРО». 335 с. Available at: https://www.litres.ru/book/yan-lekun/kak-uchitsya-mashina-revoluciya-v-oblastineyronnyh-setey-i-glub-66361966/chitat-onlayn/?ysclid=m5twltns6c958014472 (accessed 6.01.2025).
  20. Сташис В. 2020. Мифологизация реальности в современном информационном пространстве. Веснік Брэсцкага ўніверсітэта. Серыя 1. Філасофія. Паліталогія. Сацыялогія. № 2. с. 67-72.
  21. Соколова М.Е. 2022. От автобеспилотников до автономных дронов: диапазон социально-этических рисков. Россия и Америка в XXI веке. № 5. Available at: https://rusus.jes.su/s207054760022754-6-1/(accessed 6.01.2025). DOI: https://doi.org/10.18254/S207054760022754-6.

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2025 Russian Academy of Sciences

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».