17 статей ФКН НИУ ВШЭ принято на конференцию NeurIPS
В 2022 году от факультета компьютерных наук НИУ ВШЭ было принято 17 статей на NeurIPS (Conference and Workshop on Neural Information Processing Systems) — одно из самых престижных событий в сфере машинного обучения и искусственного интеллекта. 36-я конференция пройдет в гибридном формате с 28 ноября по 9 декабря в Новом Орлеане (США).
Ежегодно организаторы NeurIPS получают тысячи статей на рассмотрение: в 2021 году было подано больше 9 тысяч работ, при этом принято меньше четверти. Статистика по количеству заявок в 2022 году еще не подведена, но известно, что их количество растет ежегодно.
Среди организаторов и выступающих NeurIPS — сотрудники ведущих компаний и исследовательских центров в области искусственного интеллекта. Конференция традиционно привлекает значительное внимание, и во многом именно NeurIPS определяет тренды будущего развития технологии искусственного интеллекта.
Иван Аржанцев
«В 2021 году от факультета на конференции было представлено 12 докладов, в 2022-м это число выросло до 17. Для сравнения: в 2021 году у компании Nvidia приняли 20 статей, у Apple — 10. Среди высших учебных заведений успехи ФКН можно сопоставить со следующими: в 2020 году у Imperial College London приняли 19 статей, у немецкого Института интеллектуальных систем Общества Макса Планка — 13, у Технического университета Мюнхена — 9.
Столь высокая оценка результатов научной работы сотрудников ФКН — это, без сомнения, подтверждение исключительного уровня проводимых здесь исследований и компетентности специалистов факультета», — отметил Иван Аржанцев, декан ФКН.
Дмитрий Ветров
«Наша группа очень гордится тем, что нам удается поддерживать свою работу на высоком уровне: в этом году, как и в прошлом, от нашей лаборатории были приняты две статьи. В работе Training Scale-Invariant Neural Networks on the Sphere Can Happen in Three Regimes мы исследуем свойства обучения нейронных сетей. Статья HyperDomainNet: Universal Domain Adaptation for Generative Adversarial Networks посвящена обучению генеративных моделей», — рассказал Дмитрий Ветров, заведующий Центром глубинного обучения и байесовских методов, научный руководитель Центра ИИ.
Алексей Наумов
«От сотрудников нашей лаборатории в этом году были приняты 14 статей. Активную роль в этом сыграли Александр Гасников, Сергей Самсонов, Леонид Иосипой, Даниил Тяпкин, Александр Безносиков, Евгений Лагутин, Максим Рахуба, Александра Сендерович, Екатерина Булатова, Екатерина Бородич. Особо отмечу результат Александра Гасникова, который стал соавтором 9 статей и вошел в топ мирового рейтинга по количеству статей (наряду с такими известными учеными, как Майкл Джордан (10 статей), Сергей Левин (12 статей). Считается, что даже одна статья на NeurIPS — это значительный результат, к которому стремятся коллективы ученых по всему миру, четырнадцатью же принятыми статьями можно, без сомнения, гордиться. Наши работы посвящены обучению с подкреплением, оптимизации, эффективным методам генерирования данных и вычислительным алгоритмам», — подчеркнул Алексей Наумов, заведующий Международной лабораторией стохастических алгоритмов и анализа многомерных данных.
Полный список публикаций ФКН на NeurIPS-2022 и их авторов:
- Towards Practical Computation of Singular Values of Convolutional Layers — Александра Сендерович, Екатерина Булатова, Антон Обухов, Максим Рахуба
- On Embeddings for Numerical Features in Tabular Deep Learning — Юрий Горишный, Иван Рубачев, Артем Бабенко
- SketchBoost: Fast Gradient Boosted Decision Tree for Multioutput Problems — Леонид Иосипой, Антон Вахрушев
- Local-Global MCMC kernels: the best of both worlds — Сергей Самсонов, Евгений Лагутин, Marylou Gabrié, Alain Durmus, Алексей Наумов, Эрик Мулин
- BR-SNIS: Bias Reduced Self-Normalized Importance Sampling — Gabriel Cardoso, Сергей Самсонов, Achille Thin, Eric Moulines, Jimmy Olsson
- Optimistic Posterior Sampling for Reinforcement Learning with Few Samples and Tight Guarantees — Даниил Тяпкин, Денис Беломестный, Daniele Calandriello, Эрик Мулин, Remi Munos, Алексей Наумов, Mark Rowland, Michal Valko, Pierre Ménard
- Training Scale-Invariant Neural Networks on the Sphere Can Happen in Three Regimes — Максим Кодрян, Екатерина Лобачева, Максим Находнов, Дмитрий Ветров
- HyperDomainNet: Universal Domain Adaptation for Generative Adversarial Networks — Айбек Аланов, Вадим Титов, Дмитрий Ветров
- Accelerated Primal-Dual Gradient Method for Smooth and Convex-Concave Saddle-Point Problems with Bilinear Coupling — Дмитрий Ковалев, Александр Гасников, Peter Richtarik
- The First Optimal Acceleration of High-Order Methods in Smooth Convex Optimization — Дмитрий Ковалев, Александр Гасников
- The First Optimal Algorithm for Smooth and Strongly-Convex-Strongly-Concave Minimax Optimization — Дмитрий Ковалев, Александр Гасников
- Clipped Stochastic Methods for Variational Inequalities with Heavy-Tailed Noise — Эдуард Горбунов, Марина Данилова, David Dobre, Павел Двуреченский, Александр Гасников, Gauthier Gidel
- A Damped Newton Method Achieves Global O(1/k^2) and Local Quadratic Convergence Rate — Slavomír Hanzely, Dmitry Kamzolov, Dmitry Pasechnyuk, Александр Гасников, Peter Richtarik, Martin Takac
- Distributed Methods with Compressed Communication for Solving Variational Inequalities, with Theoretical Guarantees — Aleksandr Beznosikov, Peter Richtarik, Михаил Дискин, Максим Рябинин, Александр Гасников
- Optimal Algorithms for Decentralized Stochastic Variational Inequalities — Дмитрий Ковалев, Александр Безносиков, Abdurakhmon Sadiev, Michael Persiianov, Peter Richtarik, Александр Гасников
- Optimal Gradient Sliding and its Application to Optimal Distributed Optimization Under Similarity — Дмитрий Ковалев, Александр Безносиков, Екатерина Бородич, Александр Гасников, Gesualdo Scutari
- Decentralized Local Stochastic Extra-Gradient for Variational Inequalities — Александр Безносиков, Павел Двуреченский, Анастасия Колоскова, Валентин Самохин, Sebastian Stich, Александр Гасников
Булатова Екатерина Владимировна
Дискин Михаил Сергеевич
Лобачева Екатерина Максимовна