[ad_1]
Cảnh báo được đưa ra ngày 10-7 trong bối cảnh sự phát triển nhanh chóng của AI làm dấy lên lo ngại về nguy cơ lạm dụng công nghệ này để thao túng quảng bá chính trị và bầu cử Mỹ cuối năm nay.
Lo ngại lạm dụng AI trong tranh cử
Theo Moody’s, cuộc bầu cử sắp tới tại Mỹ có thể sẽ chứng kiến sự cạnh tranh gắt gao, kéo theo đó là nguy cơ càng lớn xảy ra tình trạng lạm dụng AI tạo ra những nội dung deepfake (các nội dung làm giả chuyên sâu) để đánh lạc hướng cử tri, gây chia rẽ và gieo rắc bất đồng.
Nếu thành công, những kẻ đứng sau các thông tin sai lệch còn có thể thao túng cử tri, ảnh hưởng tới kết quả bầu cử, tác động tới các quyết định chính sách, từ đó ảnh hưởng tới uy tín của các thể chế chính phủ.
Cảnh báo của Moody’s được đưa ra trong bối cảnh Chính phủ Mỹ cũng đã đẩy mạnh các nỗ lực để ngăn chặn tình trạng lạm dụng deepfake. Ngày 22-5, Chủ tịch Ủy ban truyền thông liên bang Mỹ (FCC) Jessica Rosenworcel, đã đề xuất một quy tắc mới, yêu cầu minh bạch thông tin về các nội dung chính trị có sử dụng sự sáng tạo của AI trên các kênh truyền hình, video và các kênh phát thanh.
FCC đã nhiều lần bày tỏ lo ngại về việc lạm dụng AI trong các quảng cáo kỳ bầu cử này, trong đó bà Rosenworcel đã chỉ ra các vấn đề tiềm ẩn từ deepfake và các nội dung bị thao túng khác.
Một số nền tảng truyền thông xã hội cũng đã tự áp dụng một số quy tắc riêng về minh bạch thông tin nội dung có sử dụng AI.
Meta yêu cầu làm rõ thông tin có sử dụng AI hay không đối với tất cả các quảng cáo đăng trên nền tảng này và sẽ cấm tất cả các quảng cáo chính trị mới trong tuần trước cuộc bầu cử tháng 11-2024.
Google cũng đã yêu cầu tất cả các quảng cáo chính trị phải thông tin rõ về việc quảng cáo có chứa nội dung được chỉnh sửa để mô phỏng những người hoặc sự kiện có thật, hoặc trông giống như thật, nhưng không yêu cầu minh bạch về AI trên tất cả các quảng cáo chính trị.
Mặc dù vậy, nội dung có sự can thiệp của AI vẫn xuất hiện trên các nền tảng mà không có nhãn cảnh báo vì số lượng nội dung được đăng mỗi ngày rất lớn.
Deepfake đã gây ra tình trạng bất ổn xã hội
Ngoài ra, việc tạo nội dung có sự can thiệp của AI hiện nay cũng đang trở nên dễ dàng hơn bao giờ hết.
Hồi tháng 5-2024, Moody’s từng cảnh báo các nội dung deepfake đã được sử dụng trên thực tế để tuyên truyền và gây ra tình trạng bất ổn xã hội và thậm chí là khủng bố.
Theo Phó chủ tịch Moody’s Ratings Abhi Srivastava, trước đây, để tạo ra nội dung deepfake thuyết phục cần phải có kiến thức về các thuật toán chuyên dụng, các thiết bị máy tính và thời gian.
Tuy nhiên, sự ra đời của các công cụ AI sáng tạo có giá phải chăng và dễ tiếp cận đã giúp việc tạo ra các nội dung giả mạo sát thực có thể được thực hiện trong vài phút.
Các công cụ dễ tiếp cận trong khi các biện pháp bảo vệ hiện có của mạng xã hội để ngăn chặn lan các nội dung giả mạo còn nhiều hạn chế cũng đã tạo ra những điều kiện thuận lợi cho việc lạm dụng rộng rãi deepfake.
Các đoạn âm thanh giả mạo giống người thật đã từng bị đưa vào các cuộc gọi tự động trong đợt bầu cử sơ bộ tổng thống Mỹ ở bang New Hampshire trong kỳ bầu cử này.
Bên cạnh đó, Moody’s cũng cảnh báo nguy cơ người dân mất niềm tin vào bầu cử và uy tín của các cơ quan chính phủ khi họ ngày càng nhận thức rõ rằng deepfake có khả năng ảnh hưởng đến kết quả của các hoạt động chính trị.
Đây cũng được coi là là một rủi ro tín nhiệm. Báo cáo của Moody’s có đoạn nêu rõ những xu hướng như vậy sẽ tác động tiêu cực tới mức tín nhiệm, có thể dẫn đến gia tăng rủi ro chính trị và xã hội, đồng thời làm tổn hại đến hiệu quả của các thể chế chính phủ.
Tuy nhiên, Moody’s đánh giá bản chất phi tập trung của hệ thống bầu cử Mỹ, cùng với các chính sách an ninh mạng hiện có và kiến thức chung về các mối đe dọa mạng đang rình rập phần nào giúp giảm bớt nguy cơ các nội dung giả mạo sử dụng AI có thể tác động tới bầu cử Mỹ.
Hiện các bang và chính quyền địa phương đang ban hành các biện pháp để đẩy mạnh ngăn chặn các nội dung AI không được gắn nhãn.
Để không bỏ lỡ các thông tin liên quan bầu cử tổng thống Mỹ năm 2024, mời bạn đọc theo dõi chuyên trang bầu cử tổng thống Mỹ 2024 của Tuổi Trẻ Online tại đây.
Source link