Internet cung cấp khả năng đối thoại mang tính xây dựng và hợp tác. Nhưng các cuộc đối thoại trực tiếp quá mức thường xuyên sẽ biến thành các cuộc đối thoại tiêu cực. Với hy vọng rằng những cuộc đối thoại tiêu cực đó có thể được ngăn chặn, các nhà nghiên cứu của Đại học Cornell đã tạo ra một mô hình máy tính để dự đoán những cuộc đối thoại trực tiếp của người dân nào có thể thay đổi và chệch hướng.
Sau khi phân tích hàng trăm cuộc đối thoại giữa các biên tập viên của trang chia sẻ thông tin dữ liệu mở toàn cầu (Wikipedia), các nhà nghiên cứu đã phát triển một chương trình máy tính quét các dấu hiệu cảnh báo bằng ngôn ngữ mà người tham gia sử dụng khi bắt đầu cuộc trò chuyện – ví dụ, sử dụng các từ thường lặp đi lặp lại, sử dụng các từ để đặt câu hỏi trực tiếp hoặc sử dụng từ “you” – để dự đoán cuộc hội thoại nào sẽ trở nên tồi tệ.
Nghiên cứu cho thấy, dấu hiệu sớm ban đầu bao gồm lời chào, biểu hiện của sự trân trọng trong cuộc đối thoại, hàng rào ngôn ngữ sử dụng như các từ”có vẻ như”, “tôi” và “chúng tôi” , và còn nhiều dấu hiệu hơn nữa của người dân.
Cristian Danescu-Niculescu-Mizil, trợ lý giáo sư ngành Khoa học thông tin và đồng tác giả của bài báo nói: “ Có hàng triệu cuộc hội thoại như vậy diễn ra hàng ngày, và chúng ta không thể theo dõi tất cả các cuộc đối thoại trực tiếp. Một hệ thống dựa trên phát hiện này có thể giúp người kiểm duyệt hướng sự chú ý của họ tốt hơn. Với “Cuộc đối thoại đã xảy ra không như ý muốn, hệ thống phát hiện những dấu hiệu sớm của sự thất bại trong cuộc đối thoại”.
Danescu-Niculescu-Mizil nói “Chúng ta là con người, có trực giác về việc liệu một cuộc đối thoại sắp trở nên tồi tệ, nhưng nó thường chỉ là một sự nghi ngờ. Chúng ta không thể làm điều đó 100% thời gian. Chúng ta tự hỏi liệu chúng ta có thể xây dựng hệ thống để nhân rộng hoặc thậm chí bao trùm trực giác này”.
Quan điểm của Google, mô hình máy tính cũng được coi là một công cụ học máy để đánh giá “độ độc hại”, đúng khoảng 65% thời gian. Con người chúng ta có thể đoán đúng 72% thời gian.
Chúng ta có thể kiểm tra khả năng của riêng mình để dự đoán cuộc đối thoại trực tuyến nào sẽ bị phá hỏng.
Nghiên cứu đã phân tích 1.270 cuộc đối thoại của người dân về các chủ đề có biểu hiện ban đầu nhưng đã không như ý muốn, và đã lựa chọn lọc bỏ lấy 50 triệu cuộc đối thoại trên 16 triệu trang viết thảo luận của Wikipedia, nơi các biên tập viên thảo luận các bài viết hoặc các chủ đề khác nhau. Họ kiểm tra trao đổi theo cặp, so sánh mỗi cuộc đối thoại thoại kết thúc không như ý muốn với một cuộc trò chuyện đã thành công trên cùng một chủ đề, do đó kết quả không bị sai lệch bởi vấn đề nhạy cảm như chính trị.
Bài báo được viết bởi các nhà khoa học gồm Tiến sĩ Cornell và sinh viên Justine Zhang ngành Khoa học thông tin; Tiến sĩ Jonathan P. Chang và sinh viên Yiqing Hua ngành Khoa học máy tính; Lucas Dixon và Nithum Thain of Jigsaw; và Dario Taraborelli của Wikimedia Foundation (Tổ chức phi lợi nhuận).
Các nhà nghiên cứu hy vọng mô hình này có thể được sử dụng để giải quyết các cuộc đối thoại có nguy cơ không như ý muốn và giúp cải thiện đối thoại trực tuyến, thay vì cấm người dân tham gia hoặc kiểm duyệt các chủ đề nhất định.
Chang nói: “Nếu chúng ta có các công cụ tìm kiếm chỉ ra các cuộc đối thoại không như ý muốn, thì đã quá muộn, bởi vì cuộc đối thoại đã xảy ra và mọi người đã thấy nó”. “Nhưng nếu chúng ta hiểu cuộc đối thoại này đang đi theo một hướng xấu và kịp thời có hành động điều chỉnh, điều đó có thể khiến chương trình này được sẵn sàng chào đón ở đây”.
Công Hoan (Lược dịch)
Nguồn: https://www.sciencedaily.com/releases/2018/07/180724174314.htm