Успехи математических наук

Рецензируемый научный журнал 

Главный редактор

  • Козлов Валерий Васильевич, академик РАН, доктор физико-математических наук, профессор

Издатель

  • Математический институт им. В.А. Стеклова Российской академии наук

Учредители 

  • МИАН (Математический институт имени В. А. Стеклова Российской академии наук)
  • РАН (Российская академия наук)

О журнале

Периодичность

Журнал выходит 6 раз в год.

Индексация

  • Российский Индекс Научного Цитирования (РИНЦ) на базе Российской Научной электронной библиотеки (elibrary.ru)
  • Math-Net.Ru
  • MathSciNet
  • zbMATH
  • Google Scholar,
  • Ulrich's Periodicals Directory
  • WorldCat
  • Scopus
  • Web of Science
  • CrossRef

Свидетельство о регистрации ПИ № ФС 77 - 69578 от 02.05.2017.

Цели и задачи

Журнал "Успехи математических наук" публикует обзорные статьи по наиболее актуальным разделам математики, краткие сообщения Московского математического общества и информацию о математической жизни в стране и за рубежом. Предназначается для научных работников, преподавателей, аспирантов и студентов старших курсов.

Основной сайт журнала: https://www.mathnet.ru/rm 

Переводная версия

Архив английской версии доступен по адресу: https://www.mathnet.ru/eng/umn.

Текущий выпуск

Открытый доступ Открытый доступ  Доступ закрыт Доступ предоставлен  Доступ закрыт Только для подписчиков

Том 79, № 6 (2024)

Обложка

Весь выпуск

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков
Предисловие главного редактора
Козлов В.В.
Успехи математических наук. 2024;79(6):3-4
pages 3-4 views
Accelerated Stochastic ExtraGradient: Mixing Hessian and gradient similarity to reduce communication in distributed and federated learning
Былинкин Д.А., Дегтярев К.Д., Безносиков А.Н.
Аннотация

Modern realities and trends in learning require more and more generalization ability of models, which leads to an increase in both models and training sample size. It is already difficult to solve such tasks in a single device mode. This is the reason why distributed and federated learning approaches are becoming more popular every day. Distributed computing involves communication between devices, which requires solving two key problems: efficiency and privacy. One of the most well-known approaches to combat communication costs is to exploit the similarity of local data. Both Hessian similarity and homogeneous gradients have been studied in the literature, but separately. In this paper we combine both of these assumptions in analyzing a new method that incorporates the ideas of using data similarity and clients sampling. Moreover, to address privacy concerns, we apply the technique of additional noise and analyze its impact on the convergence of the proposed method. The theory is confirmed by training on real datasets.Bibliography: 45 titles.

Успехи математических наук. 2024;79(6):5-38
pages 5-38 views
On greedy approximation in complex Banach spaces
Гасников А.В., Темляков В.Н.
Аннотация

The general theory of greedy approximation with respect to arbitrary dictionaries is well developed in the case of real Banach spaces. Recently some results proved for the Weak Chebyshev Greedy Algorithm (WCGA) in the case of real Banach spaces were extended to the case of complex Banach spaces. In this paper we extend some of the results known in the real case for greedy algorithms other than the WCGA to the case of complex Banach spaces.Bibliography: 25 titles.

Успехи математических наук. 2024;79(6):39-56
pages 39-56 views
Экстраполяция байесовского классификатора при неизвестном носителе распределения смеси двух классов
Лукьянов К.С., Яськов П.А., Перминов А.И., Коваленко А.П., Турдаков Д.Ю.
Аннотация
В работе представлен метод, направленный на повышение надежностибайесовского классификатора. Метод заключается в добавлениик обучающей выборке из смеси распределений двух исходных классовискусственно сгенерированных наблюдений из третьего, “фонового” класса,равномерно распределенного на компакте, содержащем неизвестныйноситель исходной смеси. Такая модификация позволяет приблизитьк заданному (в нашем случае к нулевому) уровню значениедискриминантной функции вне носителя распределения обучающих данных.Добавление варианта решения “Отказ от классификации”, принимаемогоклассификатором при достаточно малых значениях дискриминантнойфункции, приводит к локальному повышению его надежности. В частности,такой подход позволяет решить несколько проблем:отказаться от обработки данных, сильно отличающихся от обучающих;выявлять аномальные значения во входных данных; отказаться отпринятия решений в “пограничных” областях при разделении на классы.В статье приводится теоретическое обоснование оптимальностипредлагаемого классификатора. Практическая ценность методадемонстрируется на задачах классификации изображенийи временных рядов.Также предложена методика выделения доверенных областей,которую можно использовать для выявления аномальных данных,случаев смещения параметров распределения классов, выделения областейпересечения распределений исходных классов. На основе доверенныхобластей введены количественные показатели надежности иэффективности классификатора.Библиография: 23 названия.
Успехи математических наук. 2024;79(6):57-82
pages 57-82 views
Local SGD for near-quadratic problems: Improving convergence under unconstrained noise conditions
Садчиков А.Е., Чежегов С.А., Безносиков А.Н., Гасников А.В.
Аннотация

Distributed optimization plays an important role in modern large-scale machine learning and data processing systems by optimizing the utilization of computational resources. One of the classical and popular approaches is Local Stochastic Gradient Descent (Local SGD), characterized by multiple local updates before averaging, which is particularly useful in distributed environments to reduce communication bottlenecks and improve scalability. A typical feature of this method is the dependence on the frequency of communications. But in the case of a quadratic target function with homogeneous data distribution over all devices, the influence of the frequency of communications vanishes. As a natural consequence, subsequent studies include the assumption of a Lipschitz Hessian, as this indicates the similarity of the optimized function to a quadratic one to a certain extent. However, in order to extend the completeness of Local SGD theory and unlock its potential, in this paper we abandon the Lipschitz Hessian assumption by introducing a new concept of approximate quadraticity. This assumption gives a new perspective on problems that have near quadratic properties. In addition, existing theoretical analyses of Local SGD often assume a bounded variance. We, in turn, consider the unbounded noise condition, which allows us to broaden the class of problems under study.Bibliography: 36 titles.

Успехи математических наук. 2024;79(6):83-116
pages 83-116 views
Local methods with adaptivity via scaling
Чежегов С., Скорик С.Н., Хачатуров Н., Шалагин Д., Аветисян А.А., Такач М., Холодов Я.А., Безносиков А.Н.
Аннотация

The rapid development of machine learning and deep learning has introduced increasingly complex optimization challenges that must be addressed. Indeed, training modern, advanced models has become difficult to implement without leveraging multiple computing nodes in a distributed environment. Distributed optimization is also fundamental to emerging fields such as federated learning. Specifically, there is a need to organize the training process so as to minimize the time lost due to communication. A widely used and extensively researched technique to mitigate the communication bottleneck involves performing local training before communication. This approach is the focus of our paper. Concurrently, adaptive methods that incorporate scaling, notably led by Adam, gained significant popularity in recent years. Therefore, this paper aims to merge the local training technique with the adaptive approach to develop efficient distributed learning methods. We consider the classical Local SGD method and enhance it with a scaling feature. A crucial aspect is that scaling is described generically, allowing us to analyze various approaches, including Adam, RMSProp, and OASIS, in a unified manner. In addition to the theoretical analysis, we validate the performance of our methods in practice by training a neural network.Bibliography: 49 titles.

Успехи математических наук. 2024;79(6):117-158
pages 117-158 views

КРАТКИЕ СООБЩЕНИЯ

pages 159-160 views
Подсистемы ортогональных систем и восстановление разреженных сигналов при наличии случайных потерь
Иосевич А., Кашин Б.С., Лимонова И.В., Меели А.
Успехи математических наук. 2024;79(6):161-162
pages 161-162 views
Перемешивание в случайных динамических системах со стационарным шумом
Куксин С.Б., Ширикян А.Р.
Успехи математических наук. 2024;79(6):163-164
pages 163-164 views
pages 165-166 views
pages 167-168 views
О многообразии точек перегиба плоских кубик
Попов В.Л.
Успехи математических наук. 2024;79(6):169-170
pages 169-170 views

МАТЕМАТИЧЕСКАЯ ЖИЗНЬ

К девяностолетию со дня рождения Владимира Николаевича Судакова (1934–2016)
Бобков С.Г., Богачев В.И., Запорожец Д.Н., Ибрагимов И.А.
Успехи математических наук. 2024;79(6):171-178
pages 171-178 views
К 90-летию Нины Николаевны Уральцевой
Апушкинская Д.Е., Архипова А.А., Бабич В.М., Вейсс Г.С., Ибрагимов И.А., Кисляков С.В., Крылов Н.В., Лаптев А.А., Назаров А.И., Серёгин Г.А., Суслина Т.А., Шахголян Х.
Успехи математических наук. 2024;79(6):179-192
pages 179-192 views

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».