Viễn cảnh ‘hàng triệu người giả’ đáng sợ tạo ra nhờ AI

[ad_1]

Tác giả Yuval Noah Harari - Ảnh: OLIVIER MIDDENDORP

Tác giả Yuval Noah Harari – Ảnh: OLIVIER MIDDENDORP

Tại Hội nghị thượng đỉnh toàn cầu AI for Good của Liên Hiệp Quốc (diễn ra ngày 6 và 7-7), nhà sử học Yuval Noah Harari, tác giả sách Lược sử loài người, nêu quan ngại: “người giả” tạo ra từ trí tuệ nhân tạo (AI) sẽ gây sụp đổ niềm tin của con người vào đồng loại và nền dân chủ.

“Lần đầu tiên trong lịch sử, chúng ta đã có thể tạo ra những con người “giả” – hàng triệu người giả. Điều này sẽ khiến xã hội bị đe dọa như cách tiền giả đã đe dọa hệ thống tài chính. 

Nếu bạn không biết ai là người thật, niềm tin sẽ sụp đổ”, báo Guardian dẫn lời Harari.

Theo ông, mô hình ngôn ngữ của ChatGPT hay các mô hình ngôn ngữ tương tự cung cấp khả năng cho các AI bot (robot mạng) trong việc “phóng đại” nội dung do con người tạo ra, hoặc tự tạo ra nội dung giả với quy mô lớn.

“Điều gì sẽ xảy ra nếu có một mạng xã hội với hàng triệu AI bot có thể tạo ra nội dung vượt trội hơn con người, thuyết phục hơn, hấp dẫn hơn? 

Nếu chúng ta để điều này xảy ra, con người sẽ mất hoàn toàn khả năng kiểm soát các giao tiếp công cộng. Nền dân chủ sẽ không thể vận hành”, ông Harari phân tích.

Về giải pháp, ông cho rằng nên có bản án hình sự nghiêm khắc đối với những kẻ tạo ra các bot lan truyền nội dung “giả” trên các diễn đàn công cộng.

Đồng thời, phải có các biện pháp trừng phạt, bao gồm phạt tù, dành cho giám đốc điều hành các công ty công nghệ không giải quyết được tình trạng “hồ sơ giả” trên nền tảng của họ.

Harari cũng kêu gọi phải đầu tư vào nhiều hơn cho vấn đề an toàn AI, gợi ý rằng nên có luật buộc các công ty cam kết dành 20% tiền đầu tư cho việc nghiên cứu và quản trị rủi ro.

Hôm 6-7, OpenAI – tổ chức đứng sau ChatGPT – thông báo sẽ dành 20% năng lực tính toán (computing power) của mình cho an toàn AI, bao gồm việc thành lập một nhóm nghiên cứu cho việc tìm hiểu cách kiểm soát, điều khiển, và ngăn chặn AI làm những điều sai trái.

[ad_2]
Source link