Сумували за Клубом Алгоритмів? То ми повертаємось!
І починаємо з серії про алгоритми оптимізації, тому можете вже бронювати дві наступні суботи, бо буде дуже цікаво.
Перша лекція - Gradient-based methods or revealing the magic of ML, на якій ми розглянемо фундаментальний концепт, який використовується в задачах машинного навчання.
А саме, поговоримо про:
- багатовимірний математичний аналіз
- часткові похідні (згадаємо перший курс)
- що ж таке градієнт
- градієнтний спуск та де він використовується
- бонус: метод Ньютона
Звучить страшнувато, але якщо ви вже брали похідні - складностей не буде. І, щоб закріпити на практиці, ми реалізуємо градієнтний спуск та метод Ньютона.
Спікер - Денис Митник, що вже розказував про Гіт та асимптотику, автор постійної рубрики #DenisioProduction, тож буде максимально зрозуміло та лампово.
Зустрінемось вже у цю суботу, 13.03 о 14:00!
KPI
GDSC Lead
Cloud-Track Ambassador
SMM and Lead Redactor @dsk_kpi
C# Track Ambassador, Redactor @dsc_kpi
Algo-Club Leader
SMM -- telegram channel
NodeJS track ambassador
Core team member
Python Ambassador
Android Track ambassador
Mint innovations
Event Manager
Machine Learning Track Ambassador
SMM @dsc_kpi, Python Track Ambassador
Android Track Ambassador
SMM, event manager