Trong tháng vừa qua, chatbot trí tuệ nhân tạo ChatGPT đã nhận được sự quan tâm lớn trên thế giới bởi tính tương tác với người dùng linh hoạt như người thật.

Tuy nhiên, theo đài VOA Tiếng Trung, các chuyên gia an ninh thông tin cảnh báo rằng công nghệ này giúp các lực lượng cầm quyền như chế độ Trung Quốc dễ dàng giảm chi phí tuyên truyền chính trị và thực hiện các hoạt động gây ảnh hưởng trên các phương tiện truyền thông quốc tế.

Ông Josh Goldstein, nhà nghiên cứu trí tuệ nhân tạo tại Trung tâm An ninh và Công nghệ CSET, nói với VOA rằng các mô hình như ChatGPT có thể giảm chi phí sản xuất các văn bản cụ thể trên quy mô lớn. Trong tương lai, nó có thể thúc đẩy tuyên truyền chính trị.

Công ty nghiên cứu NewsGuard đã chỉ ra rằng các nhà nghiên cứu đã sử dụng 100 mẫu tường thuật sai sự thật liên quan đến Covid-19, cuộc chiến ở Ukraina và các vụ xả súng trường học ở Hoa Kỳ, v.v. để kiểm tra ChatGPT.

Kết quả là trong 80% các cuộc thử nghiệm, ChatGPT đều lặp lại nội dung sai. Để khám phá khả năng tạo thông tin sai lệch của ChatGPT, VOA cũng đã tiến hành một loạt thử nghiệm.

Dưới sự hướng dẫn của các phóng viên VOA, ChatGPT đã viết thành công những đoạn văn phù hợp với tuyên truyền chính trị của chính phủ Trung Quốc và sai lệch với sự thật.

Ví dụ, ChatGPT có thể đưa ra các lập luận để bảo vệ cuộc đàn áp của ĐCSTQ đối với người Duy Ngô Nhĩ ở Tân Cương hoặc tuyên truyền bôi nhọ Hoa Kỳ.

Trong báo cáo Rủi ro toàn cầu năm 2023, công ty tư vấn rủi ro chính trị Eurasia Group đã cảnh báo rằng các nhà chức trách ở Trung Quốc sẽ lợi dụng các công nghệ như ChatGPT để đạt được các mục tiêu chính trị của họ.

Cụ thể, các mục tiêu chính trị bao gồm thắt chặt giám sát và kiểm soát xã hội, thúc đẩy tuyên truyền chính trị và đe dọa các cộng đồng nói tiếng Hoa ở nước ngoài.