Search
Mobile menu Mobile menu
Компания Мар 06, 2023

PyData Meetup Recap

Казват, че за изграждането и развитието на ангажирана общност е необходимо цяло село.

Имахме привилегията да бъдем домакини на месечната среща на PyData от групите PyDataSofia и Data Science Society и да приветстваме местната общност за данни миналата седмица. В тази публикация в блога ще обобщим някои акценти от срещата и ще споделим някои полезни ресурси.

Campus X, където се намира и нашият офис, бяха нашият домакин и вечерта премина под бръмченето на мрежите на екосистемата, енергията на връзките беше изкована и подхранвана от вкусни лакомства и напитки. В центъра на вниманието беше темата "Bias-variance trade-off" от висококвалифицирания експерт в областта Георги Налбантов. Доктор на науките.

Георги има над 80 публикации в реномирани списания в областта на компютърните науки, здравеопазването, финансите и статистиката. Съсобственик на патент в областта на ДНК анализа, интересите му са в областта на банковото дело, прогнозната поддръжка, анализа на ЕКГ сигнали, оптимизацията на складови наличности и компютърното зрение. В своята лекция Георги Налбантов развенча един от най-важните и трудни въпроси в машинното обучение - концепцията за компромис между отклонение и вариация.

Компромисът между отклонението и вариацията е съображение за проектиране при обучението на модела за машинно обучение. На някои алгоритми е присъщо високо отклонение и ниска дисперсия и обратно.

Така че защо да научите повече за това? Разбирането на концепцията ще ви помогне да вземете информирано решение при обучението на вашите ML модели. 

Като опитен лектор, той започна с няколко шеги за науката за данните.

По-долу е прочутата графика от книгата на Хасти, Тибширани и Фридман - "Елементи на статистическото обучение", която изобразява грешките при обучение и тестване. "С нарастването на сложността на модела грешките при обучението намаляват, грешките при теста първоначално намаляват, а след това се увеличават. Търсим нивото на сложност, при което тестовата грешка е минимална, което се нарича най-добър компромис между отклонението и дисперсията."

След това Георги даде различни примери, за да илюстрира приложението на концепцията и да поддържа интереса на аудиторията по време на лекцията. Георги записа всички примери, които показа, във видеоклип в своя канал в YouTube. ▶️ Можете да го гледате тук ◀️.

За актуализации относно следващото ни събитие следвайте Vector Labs в LinkedIn или Facebook, за да бъдете в течение.

A team that understands you
With 20+ years of experience in the world's leading consultancy companies, implementing AI and ML projects in industry-specific contexts, we are ready to hear your challenges.
Subscribe to our newsletter for insights and updates on AI and industry trends.
By clicking "Sign me up", you agree to our Privacy Policy.