Podczas spotkania zostanie omówiony model językowy BERT, który w odróżnieniu modeli typu 'decoder-only' takich jak ChatGPT, Llama czy DeepSeek, opiera się na architekturze typu 'encoder-only'. To oznacza, że nie jest on co prawda tak skuteczny w generowaniu treści jak powyższe, ale za to znakomicie nadaje się do zadań wymagających głębokiego
zrozumienia analizowanego tekstu w oparciu o kontekst, takich jak klasyfikacja tekstu, wyszukiwanie semantyczne lub systemy
rekomendacyjne. Przedstawione zostanie praktyczne zastosowanie modelu BERT do klasyfikacji tekstu.