Перейти к основному содержанию

Совместный китайско-русский математический онлайн коллоквиум

ПРОГРАММА
11:00 (МСК)
Иван Оселедец Иван Оселедец
Сколтех, AIRI, ИВМ РАН

Биография: Иван Оселедец - директор Центра технологий искусственного интеллекта, руководитель лаборатории вычислительного интеллекта, Сколтех. Исследования Ивана охватывают широкий спектр тем. Он предложил новое разложение высокоразмерных массивов (тензоров) - тензорно-треножное разложение и разработал множество эффективных алгоритмов для решения высокоразмерных задач. Эти алгоритмы используются в различных областях химии, биологии, анализа данных и машинного обучения. Его текущие исследования сосредоточены на разработке новых алгоритмов в машинном обучении и искусственном интеллекте, таких как построение состязательных примеров, теория генеративных состязательных сетей и сжатие нейронных сетей. Иван Оселедец получил несколько наград за свои исследования и промышленное сотрудничество, включая две золотые медали Российской академии наук (для студентов в 2005 году и молодых ученых в 2009 году), премию SIAM Outstanding Paper Prize (2018), премию Президента РФ для молодых ученых в области науки и инноваций (2018), премию Правительства Москвы для молодых ученых (2023), премию "Лучший профессор" от Сколтеха (2019), премию "Лучший руководитель проекта сотрудничества" от Huawei (2015, 2017).

Практические проблемы невыпуклой оптимизации.

В этом докладе я затрону несколько тем. Во-первых, это оптимизация над низкоранговыми матричными и тензорными многообразиями, которые часто встречаются в приложениях. Низкоранговая аппроксимация матриц - один из редких примеров, когда невыпуклая задача может быть решена численно точным способом с помощью разложения по сингулярным значениям (SVD). Существует также большой класс методов для решения задач оптимизации с малыми ограничениями.

Во второй части доклада (если позволит время) я расскажу об особенностях оптимизации с помощью глубоких нейронных сетей. Теория такой оптимизации до сих пор остается большой загадкой, с множеством эмпирических результатов и теоретических результатов при нереалистичных предположениях. Здесь я планирую осветить основные моменты и направления исследований.

 


 

12:00 (МСК)
Ю-Хонг Дай Ю-Хонг Дай
AMSS CAS

Биография: Ю-Хонг Дай - профессор математической оптимизации в Академии математики и системных наук (AMSS) Китайской академии наук (CAS). В настоящее время он является президентом Ассоциации обществ операционных исследований Азиатско-Тихоокеанского региона (APORS), президентом Общества операционных исследований Китая, а также директором Центра оптимизации и приложений АМСС КАН. В сферу его научных интересов входят непрерывная оптимизация, целочисленное программирование и прикладная оптимизация. В частности, он известен нелинейным методом сопряженного градиента Дай-Юаня и примером идеальной несходимости для квазиньютоновского метода BFGS. Он также интересуется созданием программного обеспечения и решением практических задач оптимизации. Он получил множество наград, включая Математическую премию Шиинг-Шен Черна, Премию Кенг Канга в области научных вычислений и Премию Сяо Шути в области прикладной математики. Он также является приглашенным докладчиком ICM 2022.

Оптимизация с наименьшим нарушением ограничений.

Исследование теории и алгоритмов нелинейного программирования обычно предполагает выполнимость задачи. Однако существует множество важных практических задач нелинейного программирования, про области выполнимости которых неизвестно, являются ли они непустыми или нет. Это приводит к появлению класса задач, называемых оптимизацией с наименьшим нарушением ограничений.

Во-первых, доказано, что задача оптимизации с наименьшим нарушением ограничений является задачей оптимизации с ограничениями на равенство Липшица, и установлено элегантное необходимое условие оптимальности, названное L-стационарным условием. Разработаны свойства классического метода штрафов для этой задачи минимизации по Липшицу и исследован проксимальный градиентный метод для задачи со штрафами.

Во-вторых, задача оптимизации с наименьшим нарушением ограничений переформулируется как задача MPCC, и доказывается локальный минимизатор задачи MPCC в M-стационарной точке. Построен и проанализирован метод сглаживающей функции Фишера-Бурмейстера для решения соответствующей задачи MPCC.

В-третьих, исследуется разрешимость двойственной задачи оптимизации с наименьшим нарушением ограничений. Условия оптимальности для задачи с наименьшим нарушением ограничений устанавливаются в терминах дополненного Лагранжа. Более того, доказано, что метод дополненного Лагранжа может найти приближенное решение задачи оптимизации с наименьшим нарушением ограничений и имеет линейную скорость сходимости при условии ограничения на ошибку.

Наконец, рассматривается и анализируется ограниченная выпуклая задача оптимизации с наименьшим нарушением ограничений при общей функции меры. Также будут упомянуты некоторые другие связанные работы по проблеме оптимизации с наименьшим нарушением ограничений.


 Заседание пройдет в форме вебинара на платформе Zoom.

Предварительная регистрация на мероприятие не требуется.

Ссылка на конференцию:

https://us06web.zoom.us/j/86111798110?pwd=QUN1clpqL0F6TXlYY0Z0SDNqdUg0Zz09

Meeting ID : 861 1179 8110

Пароль:987654