Các công cụ trí tuệ nhân tạo (AI) như ChatGPT của OpenAI, Gemini của Google và nhiều ứng dụng sáng tạo hình ảnh, giọng nói và video khác nhau đã giúp việc sản xuất nội dung trở nên dễ dàng hơn bao giờ hết, nhưng cũng khiến việc phân biệt đâu là thông tin thực hay thông tin giả trở nên khó khăn hơn.
Những kẻ có ý đồ muốn truyền bá thông tin sai lệch có thể sử dụng các công cụ AI để tự động hóa việc tạo ra văn bản có sức thuyết phục và gây hiểu lầm.
Điều này nhấn mạnh vào câu hỏi: Có bao nhiêu nội dung chúng ta sử dụng trực tuyến là đúng sự thật và làm cách nào chúng ta có thể xác định tính xác thực của nó? Và có ai có thể ngăn chặn điều này?
Tin giả ở khắp mọi nơi
Đầu năm nay, một nghiên cứu của Đức về chất lượng nội dung của công cụ tìm kiếm đã ghi nhận “Xu hướng hướng tới nội dung đơn giản, lặp đi lặp lại và có khả năng do AI tạo ra” trên Google, Bing và DuckDuckGo.
Từ trước tới nay, độc giả của các phương tiện thông tin đại chúng có thể dựa vào sự kiểm soát biên tập để duy trì các tiêu chuẩn báo chí và xác minh sự thật. Nhưng AI đang nhanh chóng thay đổi điều này.
Trong một báo cáo được công bố gần đây, tổ chức NewsGuard đã xác định được 725 trang web không đáng tin xuất bản tin tức và thông tin do AI tạo ra “với rất ít hoặc không có sự giám sát của con người”.
Tháng trước, Google đã phát hành một công cụ AI thử nghiệm cho một nhóm nhà xuất bản độc lập được chọn ở Mỹ. Bằng cách sử dụng AI tổng hợp, nhà xuất bản có thể tóm tắt các bài viết được lấy từ một danh sách các trang web cung cấp tin tức bên ngoài và nội dung phù hợp với khán giả của họ. Và điều kiện của bản dùng thử là người dùng phải xuất bản ba bài báo như vậy mỗi ngày.
Chính phủ có thể vào cuộc được không?
Năm 2021, cuộc điều tra của Ủy ban Cạnh tranh và Người tiêu dùng Úc (ACCC) về sự mất cân bằng quyền lực giữa các phương tiện truyền thông với nền tảng kỹ thuật số đã dẫn đến việc triển khai quy tắc thương lượng buộc các nền tảng phải trả tiền cho phương tiện truyền thông về nội dung tin tức của họ. Tuy nhiên, các nền tảng trực tuyến ban đầu cởi mở với những thay đổi nhưng sau đó lại chống lại. Chính phủ Úc nhận ra rằng việc dựa vào lời hứa của các nền tảng sẽ không mang lại kết quả như mong muốn.
Điểm rút ra từ nghiên cứu của chúng tôi là một khi các sản phẩm kỹ thuật số trở thành không thể thiếu đối với hàng triệu doanh nghiệp và cuộc sống hàng ngày, chúng sẽ đóng vai trò là công cụ để các nền tảng, công ty AI và công nghệ lớn dự đoán. Như vậy thách thức ở đây là các biện pháp bảo vệ nhằm giảm thiểu rủi ro tiềm ẩn cho xã hội vẫn chưa được thiết lập. Theo đó, Báo cáo Rủi ro Toàn cầu năm 2024 của Diễn đàn Kinh tế Thế giới đã dự đoán thông tin sai lệch là mối đe dọa lớn nhất trong hai năm tới.
Vấn đề sẽ trở nên tồi tệ hơn thông qua khả năng tạo nội dung đa phương tiện của AI.
Chúng ta có thể làm gì?
Ủy viên an toàn điện tử của Úc đang nghiên cứu cách điều chỉnh và giảm thiểu tác hại tiềm ẩn do AI tạo ra đồng thời cân bằng các cơ hội tiềm năng của nó. Một ý tưởng quan trọng là “an toàn theo thiết kế”, đòi hỏi các công ty công nghệ phải đặt những cân nhắc về an toàn này làm cốt lõi cho sản phẩm của họ.
Các quốc gia khác như Mỹ đang tiến xa hơn trong việc quản lý AI. Ví dụ: lệnh điều hành gần đây của Tổng thống Hoa Kỳ Joe Biden về việc triển khai AI một cách an toàn yêu cầu các công ty phải chia sẻ kết quả kiểm tra an toàn với chính phủ, quy định việc kiểm tra các cuộc tấn công mô phỏng và hướng dẫn hình mờ trên nội dung.
Ba bước để giúp bảo vệ khỏi những rủi ro do AI tạo ra kết hợp với thông tin sai lệch được kêu gọi thực hiện như sau:
- Đặt ra các quy tắc rõ ràng không cho phép các mục đích mơ hồ như “nỗ lực hết sức” hoặc các cách tiếp cận “hãy tin tưởng chúng tôi”.
- Để bảo vệ khỏi các hoạt động đưa thông tin sai lệch trên quy mô lớn, cần đào tạo những kiến thức về truyền thông.
- Công nghệ an toàn hay “an toàn theo thiết kế” cần trở thành một phần trong mọi chiến lược phát triển sản phẩm.
Mọi người đều nhận thấy các nội dung do AI tạo ra đang gia tăng. Về lý thuyết, chúng ta nên điều chỉnh thói quen thông tin của mình cho phù hợp. Tuy nhiên, nghiên cứu cho thấy người dùng thường có xu hướng đánh giá thấp rủi ro tin vào tin giả của chính họ so với rủi ro mà người khác nhận thấy.
Việc tìm kiếm nội dung đáng tin cậy không nên liên quan đến việc sàng lọc nội dung do AI tạo ra để biết đâu là sự thật.
Ngọc Bích (lược dịch)
https://phys.org/news/2024-02-algorithms-ai-generated-falsehoods-alarming.html