Uniwersytet Warszawski, Wydział Fizyki - Centralny System Uwierzytelniania
Strona główna

Developing applications with LLMs and RAGs (Large Language Models and Retrieval-Augmented Generation)

Informacje ogólne

Kod przedmiotu: 1100-LLM-OG
Kod Erasmus / ISCED: (brak danych) / (brak danych)
Nazwa przedmiotu: Developing applications with LLMs and RAGs (Large Language Models and Retrieval-Augmented Generation)
Jednostka: Wydział Fizyki
Grupy: Przedmioty ogólnouniwersyteckie na Uniwersytecie Warszawskim
Przedmioty ogólnouniwersyteckie ścisłe
Przedmioty ogólnouniwersyteckie Wydziału Fizyki
Punkty ECTS i inne: 4.00 Podstawowe informacje o zasadach przyporządkowania punktów ECTS:
  • roczny wymiar godzinowy nakładu pracy studenta konieczny do osiągnięcia zakładanych efektów uczenia się dla danego etapu studiów wynosi 1500-1800 h, co odpowiada 60 ECTS;
  • tygodniowy wymiar godzinowy nakładu pracy studenta wynosi 45 h;
  • 1 punkt ECTS odpowiada 25-30 godzinom pracy studenta potrzebnej do osiągnięcia zakładanych efektów uczenia się;
  • tygodniowy nakład pracy studenta konieczny do osiągnięcia zakładanych efektów uczenia się pozwala uzyskać 1,5 ECTS;
  • nakład pracy potrzebny do zaliczenia przedmiotu, któremu przypisano 3 ECTS, stanowi 10% semestralnego obciążenia studenta.
Język prowadzenia: angielski
Rodzaj przedmiotu:

ogólnouniwersyteckie

Założenia (opisowo):

(tylko po angielsku) - Prior knowledge of Python programming and basic machine learning concepts is expected.

Tryb prowadzenia:

w sali

Skrócony opis: (tylko po angielsku)

- Lectures mixed with practical labs (6x7.5 hours)

Pełny opis: (tylko po angielsku)

The course focuses on:

- Fundamentals of Large Language Models (LLMs), their architectures, and applications.

- Concepts and implementation of Retrieval-Augmented Generation (RAG).

- Integration of retrieval systems with generative models.

- Efficient fine-tuning techniques for LLMs.

- Ethical considerations and biases in LLMs and RAGs.

- Use cases: summarization, Q&A systems, and chatbots.

- Practical demonstrations and hands-on exercises with popular frameworks and tools.

Literatura: (tylko po angielsku)

1. Vaswani, A., et al. “Attention is All You Need.” (2017).

2. Brown, T. et al. “Language Models are Few-Shot Learners.” (2020).

3. Manning, C. D., et al. “Introduction to Information Retrieval.” (2008).

4. Selected articles from the Journal of Machine Learning Research.

5. Online documentation of tools like OpenAI API, Hugging Face, and LangChain.

Efekty uczenia się: (tylko po angielsku)

Upon completing this course, students will:

1. Understand the architecture and working principles of LLMs.

2. Be able to explain the concept and implementation of RAG.

3. Analyze the ethical considerations in deploying LLMs and RAG systems.

4. Develop and deploy simple RAG-powered applications.

5. Apply efficient fine-tuning techniques to optimize LLMs for specific tasks.

6. Evaluate the performance and limitations of RAG systems.

Metody i kryteria oceniania: (tylko po angielsku)

- Regular attendance is mandatory.

- Submission of all assignments and projects.

- Active participation in workshops and group discussions.

Zajęcia w cyklu "Semestr letni 2024/25" (zakończony)

Okres: 2025-02-17 - 2025-06-08
Wybrany podział planu:
Przejdź do planu
Typ zajęć:
Warsztaty, 45 godzin więcej informacji
Koordynatorzy: Jan Kwapisz
Prowadzący grup: Jan Kwapisz
Lista studentów: (nie masz dostępu)
Zaliczenie: Przedmiot - Zaliczenie na ocenę
Warsztaty - Zaliczenie na ocenę
Opisy przedmiotów w USOS i USOSweb są chronione prawem autorskim.
Właścicielem praw autorskich jest Uniwersytet Warszawski, Wydział Fizyki.
ul. Pasteura 5, 02-093 Warszawa tel: +48 22 5532 000 https://www.fuw.edu.pl/ kontakt deklaracja dostępności mapa serwisu USOSweb 7.3.0.0-4 (2026-03-10)