Сумували за Клубом Алгоритмів? То ми повертаємось! І починаємо з серії про алгоритми оптимізації, тому можете вже бронювати дві наступні суботи, бо буде дуже цікаво. Перша лекція - Gradient-based methods or revealing the magic of ML, на якій ми розглянемо фундаментальний концепт, який використовується в задачах машинного навчання. - багатовимірний математичний аналіз - часткові похідні (згадаємо перший курс) - що ж таке градієнт - градієнтний спуск та де він використовується - бонус: метод Ньютона Звучить страшнувато, але якщо ви вже брали похідні - складностей не буде. І, щоб закріпити на практиці, ми реалізуємо градієнтний спуск та метод Ньютона. Спікер - Денис Митник, що вже розказував про Гіт та асимптотику, автор постійної рубрики #DenisioProduction, тож буде максимально зрозуміло та лампово. Зустрінемось вже у цю суботу, 13.03 о 14:00!
А саме, поговоримо про:
Mint innovations
GDSC Lead
Content creator
Content creator
KPI
Content creator
Content creator
Content creator
Content creator
KPI
Mentor
Designer
Content creator