Szkolenie ma na celu praktyczne wprowadzenie do pracy z dużymi modelami językowymi (LLM), ich lokalnego uruchamiania, dostosowywania do własnych potrzeb oraz skutecznego projektowania zapytań (promptów). Uczestnicy poznają zarówno komercyjne podejścia (API OpenAI, DeepSeek), jak i rozwiązania open-source (Ollama, Hugging Face), a także dowiedzą się, jak douczać modele takie jak GPT-2 i wykorzystać je w aplikacjach dziedzinowych.
Dzięki licznym przykładom i ćwiczeniom, uczestnicy zdobędą wiedzę i umiejętności niezbędne do:
  • świadomego wyboru modelu (np. DeepSeek, GPT, Mistral, LLaMA),
  • efektywnego wykorzystywania LLM w aplikacjach konwersacyjnych i NLP,
  • optymalizacji jakości odpowiedzi przy użyciu technik prompt engineering,
  • douczania modeli na lokalnym sprzęcie.