Search
Mobile menu Mobile menu
Data science, AI & ML, Компания Мар 06, 2023

Обобщение на срещата на PyData

Обобщение на срещата на PyData
Последна промяна: Апр 07, 2026

Казват, че е нужно цяло село, за да се изгради и развие ангажирана общност.

Имахме привилегията да бъдем домакини на месечната среща на PyData на групите PyDataSofia и Data Science Society и да приветстваме местната общност за данни миналата седмица. В тази публикация в блога ще обобщим някои акценти от срещата и ще споделим някои полезни ресурси.

Campus X, където се намира и нашият офис, беше наш домакин и вечерта прелетя с оживлението на екосистемата в мрежа, енергията на връзките беше изкована и подхранвана от вкусни лакомства и напитки. В светлината на прожекторите беше „компромисът между пристрастията и вариацията“ тема от висококвалифицирания експерт в областта, Георги Налбантов, доктор.

Георги има над 80 публикации в реномирани списания в областта на компютърните науки, здравеопазването, финансите и статистиката. Съпритежател на патент за ДНК анализ, интересите му са в банковото дело, прогнозната поддръжка, анализа на ЕКГ сигнали, оптимизацията на инвентара и компютърното зрение. В лекцията си Георги Налбантов развенча един от най-важните и трудни въпроси в машинното обучение - концепцията за компромис между отклонението и дисперсията.

Компромисът между отклонението и дисперсията е съображение, необходимо при обучението на модела за машинно обучение. Някои алгоритми по своята същност имат високо отклонение и ниска дисперсия и обратно.

Защо тогава да научите повече за това? Разбирането на концепцията ще ви помогне да вземете информирано решение, когато обучавате вашите ML модели.

Като опитен лектор, той започна с някои шеги за науката за данните.

По-долу е известната графика от книгата на Хасти, Тибширани и Фридман - „Елементи на статистическото обучение“, която изобразява грешките при обучение и тестване. „С увеличаването на сложността на модела, грешките при обучение намаляват, грешките при тестване първоначално намаляват, след това се увеличават. Търсим нивото на сложност, при което грешката при тестване е минимална, което се нарича най-добрият компромис между отклонение и дисперсия.“

След това Георги предостави различни примери, за да илюстрира приложението на концепцията и да задържи интереса на публиката през цялата лекция. Георги записа всички показани примери във видеоклип в своя YouTube канал. ▶️Можете да го гледате тук ◀️

За актуализации относно следващото ни събитие, следете Vector Labs в LinkedIn или Facebook, за да останете на линия.

Екип който Ви разбира
С над 20 години опит във водещи световни консултантски компании, внедрявайки проекти с изкуствен интелект и машинно обучение в специфични за индустрията контексти, ние сме готови да чуем вашите предизвикателства.
Абонирайте се за нашия бюлетин за развитието на изкуствения интелект и тенденциите в индустрията.
С кликване върху „Абонирай се“ вие се съгласявате с нашите Политика за поверителност.