In bài này
Chuyên mục: Tin nghiên cứu
Lượt xem: 1995

Bộ môn Xác suất - Thống kê kính gửi đến quý thầy cô, nghiên cứu sinh, học viên cao học và sinh viên thông tin về seminar của bộ môn như sau:

Title: Interpretability of attention weights

Speaker: Professor Jae Youn Ahn (Department of Statistics, Ewha Womans University, Korea)

Abstract:

Attention mechanisms became a standard tool in NLP systems. In the classical attention mechanisms, attention weights are served as the weight of input units; hence it is claimed that attention mechanisms provide interpretability. However, simulation study in the series of recent studies arguably show that the explanability of the attention mechanism is questionable. This paper investigates the interpretability of the attention mechanism under the setting of the insurance ratemaking. We first provide a mathematical argument showing that the attention mechanism fails to provide explainability. Then, we provide two alternative attention mechanisms where the explainability of attention layer are guaranteed. 

Seminar bắt đầu lúc 14g00 Thứ Tư ngày 15/02/2023 tại Phòng I35, Trường Đại học Khoa học Tự nhiên, 227 Nguyễn Văn Cừ, Q5, TP. HCM. 

Trân trọng kính mời quý thầy cô, NCS, HVCH và SV có quan tâm đến tham dự.