Sáng ngày 19 tháng 12 năm 2023, Viện Công nghệ Thông tin, Đại học Quốc gia Hà Nội tổ chức seminar chuyên đề về Lập luận dựa vào bằng chứng và hệ cơ sở luật niềm tin (Belief Rule Systems) trong hỗ trợ ra quyết định”. Đây là chuỗi sự kiện về trao đổi, nghiên cứu khoa học và phát triển công nghệ của Viện Công nghệ Thông tin và Trung tâm nghiên cứu Tiên tiến Quốc tế về Trí tuệ nhân tạo Ứng dụng (AIRC) tổ chức. PGS. TS. Lê Hoàng Sơn, Phó Viện trưởng Viện Công nghệ Thông tin cho biết sứ mệnh của AIRC là tham gia vào tiến trình chung về bước tiến của Trí tuệ nhân tạo, nhưng tập trung theo hướng ứng dụng, lấy ứng dụng và dữ liệu chuyên ngành làm động lực để phát triển các nghiên cứu và giải pháp công nghệ tiên tiến, có sự tham gia của các chuyên gia và nhà khoa học quốc tế. Buổi seminar này là cơ hội tuyệt vời không chỉ để trao đổi chuyên môn mà còn tạo kết nối hợp tác sâu rộng cho các nhà khoa học, các học viên và các nghiên cứu sinh trong nước với các giáo sư uy tín đến từ Đại học Manchester, Vương Quốc Anh.

Tại buổi seminar, Giáo sư Dong-Ling Xu đến từ Đại học Manchester, Vương quốc Anh trao đổi, chia sẻ về các kết quả nghiên cứu và ứng dụng của Hệ cơ sở luật niềm tin trong bài toán hỗ trợ ra quyết định đa mục tiêu và xây dựng công cụ học máy có thể diễn giải được. Ngoài ra, Giáo sư cũng giới thiệu một số ứng dụng của Hệ cơ sở luật niềm tin như: Phương pháp đánh giá rủi ro bệnh nhân đau ngực do bệnh tim, Phát hiện lỗi của hệ thống kỹ thuật và Đánh giá rủi ro danh tiếng doanh nghiệp liên quan đến phát triển kinh tế bền vững. Được so sánh với các kỹ thuật học máy truyền thống, các ứng dụng dựa trên mô hình cơ sở luật niềm tin đã khẳng định khả năng huấn luyện hiệu quả với dữ liệu có tính không chắc chắn hoặc mơ hồ. Hệ cơ sở luật niềm tin và quy tắc suy luận dựa vào bằng chứng mang lại hiệu quả cao với các loại dữ liệu không chắc chắn, dữ liệu thiếu hoặc không chính xác làm cơ sở để phát triển công cụ học máy có khả năng diễn giải trong các mô hình Trí tuệ nhân tạo.

Tiếp theo, Giáo sư Jian-Bo Yang- Đại học Manchester, Vương quốc Anh chia sẻ thêm về các quy trình mô hình hóa, ứng dụng mô hình hệ thống dựa trên luật niềm tin vào các bài toán thực tiễn. Khả năng ứng dụng của các hệ thống dựa vào luật niềm tin trong hỗ trợ ra quyết định đối với các hệ thống Dữ liệu lớn và Mạng xã hội như Facebook, Youtube, Amazon… cũng được trao đổi một cách sôi nổi.

Chia sẻ quan điểm về các hướng nghiên cứu hiện đại về Trí tuệ nhân tạo này, PGS. TS. Lê Hoàng Sơn gợi mở hướng hợp tác liên quan đến việc xây dựng các hệ cơ sở luật và mạng suy diễn niềm tin khi số lượng luật và quan sát bùng nổ, phù hợp trong các hệ dữ liệu lớn trong các nền tảng mạng xã hội phổ biến hiện nay. Đối với các nghiên cứu về Đa phương tiện thông minh (Multimedia Intelligence), việc xây dựng các luật và quy tắc phù hợp để suy luận quan hệ giữa các đối tượng trong dữ liệu ảnh và video phục vụ đánh giá đối tượng đa chiều cũng được gợi mở đầy đủ. Các bài toán về phân tích cảm xúc (Emotional Detection), phân tích tình cảm (Sentiment Analysis), .. là các ứng dụng thiết thực khi triển khai các nghiên cứu lý thuyết trên cho miền ứng dụng cụ thể. Cuối buổi trao đổi, PGS. TS. Lê Hoàng Sơn gợi mở thêm một số hướng hợp tác xây dựng các đề xuất song phương giữa Viện Công nghệ Thông tin và ĐH Manchester theo hướng về Trí tuệ nhân tạo có tính lý giải (Explainable Artificial Intelligence).

Cuối buổi, các nhà khoa học đã có những trao đổi sôi nổi để chia sẻ kinh nghiệm và ý tưởng góp phần làm sâu sắc hơn về chủ đề đã được trình bày tại buổi seminar nhằm áp dụng hiệu quả mô hình hệ thống dựa vào luật niềm tin. Seminar đã mang lại những hiểu biết sâu rộng để xây dựng được công cụ học máy có thể diễn giải được từ đó góp phần thúc đẩy ứng dụng trí tuệ nhân tạo hỗ trợ nâng cao hiệu quả trong các hệ thống quản trị, kỹ thuật và kinh doanh.

Thông tin thêm về diễn giả:

  • Dong-Ling Xu, Đại học Manchester, Vương Quốc Anh:

https://research.manchester.ac.uk/en/persons/ling.xu

  • Giáo sư Jian-Bo Yang, Đại học Manchester, Vương Quốc Anh:

https://personalpages.manchester.ac.uk/staff/jian-bo.yang/default.htm