Uniwersytet Warszawski, Wydział Fizyki - Centralny System Uwierzytelniania
Strona główna

Uczenie maszynowe

Informacje ogólne

Kod przedmiotu: 1000-1L24UM
Kod Erasmus / ISCED: 11.1 Kod klasyfikacyjny przedmiotu składa się z trzech do pięciu cyfr, przy czym trzy pierwsze oznaczają klasyfikację dziedziny wg. Listy kodów dziedzin obowiązującej w programie Socrates/Erasmus, czwarta (dotąd na ogół 0) – ewentualne uszczegółowienie informacji o dyscyplinie, piąta – stopień zaawansowania przedmiotu ustalony na podstawie roku studiów, dla którego przedmiot jest przeznaczony. / (0541) Matematyka Kod ISCED - Międzynarodowa Standardowa Klasyfikacja Kształcenia (International Standard Classification of Education) została opracowana przez UNESCO.
Nazwa przedmiotu: Uczenie maszynowe
Jednostka: Wydział Matematyki, Informatyki i Mechaniki
Grupy: Proseminaria na matematyce
Punkty ECTS i inne: 2.00 Podstawowe informacje o zasadach przyporządkowania punktów ECTS:
  • roczny wymiar godzinowy nakładu pracy studenta konieczny do osiągnięcia zakładanych efektów uczenia się dla danego etapu studiów wynosi 1500-1800 h, co odpowiada 60 ECTS;
  • tygodniowy wymiar godzinowy nakładu pracy studenta wynosi 45 h;
  • 1 punkt ECTS odpowiada 25-30 godzinom pracy studenta potrzebnej do osiągnięcia zakładanych efektów uczenia się;
  • tygodniowy nakład pracy studenta konieczny do osiągnięcia zakładanych efektów uczenia się pozwala uzyskać 1,5 ECTS;
  • nakład pracy potrzebny do zaliczenia przedmiotu, któremu przypisano 3 ECTS, stanowi 10% semestralnego obciążenia studenta.

zobacz reguły punktacji
Język prowadzenia: polski
Rodzaj przedmiotu:

proseminaria

Skrócony opis:

Proseminarium będzie poświęcone głębokim sieciom neuronowym, przede wszystkim sieciom generatywnym – Generative AI, krócej GenAI – czyli sieciom służącym do tworzenia nowych treści przypominających dane uczące, np. twarze, teksty, muzykę czy warunki, w których będzie działał robot. Popularne GenAI generują obiekty iteracyjnie, startując z obserwacji pochodzącej z wielowymiarowego rozkładu normalnego. Projektowanie i analiza takich sieci wymaga znajomości rachunku prawdopodobieństwa, statystyki, równań różniczkowych i metod numerycznych, dlatego GenAI jest szczególnie atrakcyjna dla matematyków - tym bardziej, że techniki programowania tracą na znaczeniu w miarę rozwoju chatbotów pomagających w kodowaniu.

Pełny opis:

Proseminarium będzie poświęcone głębokim sieciom neuronowym. Głównymi obiektami badań w tej dziedzinie są: sieć, funkcja straty oraz metoda optymalizacji. Sieć to funkcja wektorowa będąca złożeniem wielu prostszych przekształceń, czyli warstw – liczba warstw to głębokość sieci. Wartość sieci zależy od wektora argumentów oraz dodatkowo od wektora parametrów. Nieujemna funkcja straty określa błąd dopasowania parametrów sieci do danych uczących. Argumentami funkcji straty są parametry sieci, a parametrami dane uczące. Z kolei metoda optymalizacji to algorytm służący do poszukiwania lokalnego minimum funkcji straty uśrednionej na danych. Minimalizację średniej funkcji straty nazywa się “uczeniem” lub “trenowaniem” sieci.

Sieci neuronowe mają wiele różnych zastosowań: mogą tłumaczyć teksty, grać w gry, rozpoznawać mowę lub interpretować obraz z kamery robota. Na naszych zajęciach skoncentrujemy się na sieciach generatywnych – Generative AI, krócej GenAI – czyli sieciach służących do tworzenia nowych treści przypominających dane uczące, np. twarze, wiersze, muzykę czy warunki zewnętrzne, w których będzie działał robot.

Projektowanie generatywnych sieci neuronowych wymaga wiedzy i umiejętności matematycznych z różnych dziedzin. W szczególności popularne sieci w swoim domyślnym trybie działania generują obiekty startując z szumu, czyli obserwacji pochodzącej z wielowymiarowego rozkładu normalnego. Warto więc umieć rachować na rozkładach prawdopodobieństwa. Z kolei minimalizacja średniej funkcji straty wymaga zrozumienia algorytmów automatycznego różniczkowania i stochastycznego spadku po gradiencie. Ponadto – w zależności od sieci – potrzebna jest dodatkowa wiedza. I tak:

  • Generative Adversarial Networks (GAN) generują obiekty w jednym kroku za pomocą “generatora”, ale w procesie uczenia potrzebują dodatkowej podsieci – “dyskryminatora”. Generator i dyskryminator aktualizują swoje parametry rywalizując ze sobą jak fałszerze pieniędzy z policją. Zrozumienie budowy i działania GANów oraz wyprowadzenie funkcji straty jest oparte na prostszym modelu logistycznym i kryterium minimaksowym. GANy wprowadzono w pracy [2], a ich nowa wersja została zaimplementowana przez NVIDIA’ę w programie styleGAN2.
  • Denoising Diffusion (DD) generują treści w wielu krokach odfiltrowując szum stopniowo. Są to ciągi wielowymiarowych rozkładów normalnych, których parametry (wektory wartości oczekiwanych i macierze kowariancji) zadane są przez głębokie sieci neuronowe. Zrozumienie DD wymaga szacowania całek, ponieważ zamiast pierwotnej funkcji straty minimalizuje się jej górne oszacowanie w postaci wartości oczekiwanej po dodatkowych zmiennych. Metoda została wprowadzona w [3] i jest zaimplementowana w popularnych programach do generowania obrazów: DALL-E 3, Imagen oraz Stable Diffusion.
  • Continuous Normalizing Flows to sieci, w których przejście z warstwy do warstwy modelowane jest za pomocą równania różniczkowego zwyczajnego podobnie jak przepływ płynu. Takie sieci generują nowe treści rozwiązując numerycznie równanie z warunkiem początkowym wygenerowanym z rozkładu normalnego. Nowa wersja metody została opisana w [4] i jest dostępna jako Stable Diffusion 3.

GenAI jest szczególnie atrakcyjna dla matematyków: techniki programowania tracą na znaczeniu w miarę rozwoju chatbotów pomagających w pisaniu kodu (np. GitHub Copilot), natomiast zyskują wiedza i umiejętności oparte na analizie matematycznej.

Zdecydowanie rekomendujemy uczestnikom proseminarium udział w następujących wykładach obieralnych: w semestrze zimowym: Analiza numeryczna, Optymalizacja nieliniowa, Statystyka, Statystyka bayesowska oraz Rachunek prawdopodobieństwa II; w semestrze letnim: Uczenie maszynowe oraz Wstęp do procesów stochastycznych.

Referaty studentów będą oparte głównie na monografii [1] i pracach takich, jak [2]-[4]. Referaty i prace licencjackie będą mogły być projektami zespołowymi. Prace licencjackie będą mogły mieć matematyczną formę lub stanowić opis przygotowanego programu komputerowego.

Literatura:

  1. C.M. Bishop and H. Bishop, Deep Learning: Foundations and Concepts, Springer 2024, https://www.bishopbook.com/
  2. Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., ... & Bengio, Y. (2014). Generative adversarial nets. Advances in neural information processing systems, 27.
  3. Ho, J., Jain, A., & Abbeel, P. (2020). Denoising diffusion probabilistic models. Advances in neural information processing systems, 33.
  4. Lipman, Y., Chen, R. T., Ben-Hamu, H., Nickel, M., & Le, M. (2022). Flow matching for generative modeling. arXiv preprint arXiv:2210.02747.
Efekty uczenia się:

Student:

  • rozumie podstawowe metody głębokiego uczenia maszynowego,
  • umie programować sieci głębokie do predykcji i generowania nowych treści,
  • potrafi wyszukiwać potrzebne informacje w literaturze i internecie,
  • potrafi zrozumiale przekazywać treści matematyczne w mowie i piśmie.
Metody i kryteria oceniania:

Na podstawie wygłoszonych referatów i złożenia w systemie APD UW pracy licencjackiej.

Zajęcia w cyklu "Rok akademicki 2024/25" (jeszcze nie rozpoczęty)

Okres: 2024-10-01 - 2025-06-08
Wybrany podział planu:
Przejdź do planu
Typ zajęć:
Proseminarium, 60 godzin więcej informacji
Koordynatorzy: Szymon Nowakowski, Jan Peszek, Piotr Pokarowski
Prowadzący grup: Szymon Nowakowski, Jan Peszek, Piotr Pokarowski
Lista studentów: (nie masz dostępu)
Zaliczenie: Zaliczenie
Opisy przedmiotów w USOS i USOSweb są chronione prawem autorskim.
Właścicielem praw autorskich jest Uniwersytet Warszawski, Wydział Fizyki.
ul. Pasteura 5, 02-093 Warszawa tel: +48 22 5532 000 https://www.fuw.edu.pl/ kontakt deklaracja dostępności mapa serwisu USOSweb 7.1.0.0-3 (2024-08-26)