Khi AI trở thành nguồn tin sai lệch

02/06/2025 14:03 GMT+7 | Tin tức 24h

AI đang góp phần phát tán thông tin sai lệch, gây ra những hệ lụy nghiêm trọng.

Trong bối cảnh tin tức đa chiều, đa lĩnh vực lan truyền chóng mặt trên mạng xã hội, nhiều người đã tìm đến các chatbot trí tuệ nhân tạo (AI) như một công cụ để kiểm chứng thông tin. Tuy nhiên, một nghịch lý đáng báo động đang diễn ra: chính những công cụ này, vốn được kỳ vọng là "người gác cổng sự thật", lại đang góp phần phát tán thông tin sai lệch, gây ra những hệ lụy nghiêm trọng.

Trong cuộc xung đột kéo dài 4 ngày vừa qua giữa Ấn Độ và Pakistan, hàng triệu người dùng đã tìm đến các chatbot AI như Grok của công ty xAI (do tỷ phú Elon Musk sở hữu), ChatGPT của OpenAI và Gemini của Google để xác minh tin tức. Đáng lo ngại, những công cụ này thường xuyên đưa ra các thông tin sai sự thật, làm gia tăng thêm tình trạng hỗn loạn thông tin.

Trí tuệ nhân tạo: Khi AI trở thành nguồn tin sai lệch - Ảnh 1.

Tỷ phú Elon Musk phát biểu tại một hội nghị ở Krakow, Ba Lan. Ảnh: PAP/TTXVN

Một ví dụ điển hình là việc Grok đã nhầm lẫn một đoạn video cũ tại sân bay Khartoum ở Sudan thành cảnh tên lửa tấn công căn cứ không quân Nur Khan của Pakistan. Thậm chí, một đoạn clip về tòa nhà cháy ở Nepal cũng bị chatbot này khẳng định "nhiều khả năng" là phản ứng quân sự của Pakistan sau các cuộc không kích từ Ấn Độ.

Chuyên gia McKenzie Sadeghi thuộc tổ chức giám sát thông tin sai lệch NewsGuard cảnh báo rằng: "Sự phụ thuộc ngày càng lớn vào Grok như một công cụ kiểm chứng đang diễn ra trong bối cảnh các nền tảng công nghệ lớn giảm đầu tư vào lực lượng kiểm chứng là con người". Bà nhấn mạnh rằng các nghiên cứu của NewsGuard cho thấy chatbot AI không phải là nguồn đáng tin cậy cho tin tức, đặc biệt là trong các tình huống tin nóng.

Các báo cáo của NewsGuard cũng chỉ ra rằng 10 chatbot hàng đầu hiện nay có xu hướng lặp lại các luận điệu tuyên truyền sai sự thật. Trong khi đó, một nghiên cứu do Trung tâm Báo chí kỹ thuật số Tow (thuộc Đại học Columbia) thực hiện cho thấy 8 công cụ tìm kiếm AI thường xuyên đưa ra câu trả lời sai hoặc suy đoán thay vì thừa nhận không có kiến thức để trả lời về vấn đề được hỏi, và đây được coi là một hành vi nguy hiểm đối với công tác kiểm chứng tin tức.

Câu chuyện tại Uruguay là một minh chứng rõ ràng về điều này. Khi các kiểm chứng viên của hãng tin AFP yêu cầu Gemini xác minh một hình ảnh do AI tạo ra, chatbot này không chỉ khẳng định đó là ảnh thật mà còn "bịa thêm" chi tiết về danh tính và bối cảnh địa điểm. Thậm chí, Grok gần đây còn tuyên bố một video giả về "rắn khổng lồ bơi trên sông Amazon" là "có thật" và viện dẫn những chuyến thám hiểm khoa học tưởng tượng để củng cố cho nhận định sai lầm của mình. Dù sau đó hãng tin AFP đã xác nhận đây là video do AI tạo ra, nhưng nhiều người dùng vẫn tiếp tục chia sẻ dựa trên "kết luận của Grok".

Trí tuệ nhân tạo: Khi AI trở thành nguồn tin sai lệch - Ảnh 2.

Biểu tượng Grok chatbot. Ảnh: REUTERS/TTXVN

Sự tin tưởng của người dùng vào chatbot AI đang gia tăng rõ rệt. Trong khi đó, nhiều nền tảng công nghệ lớn như Meta lại thông báo chấm dứt chương trình kiểm chứng bởi bên thứ ba tại Mỹ. Thay vào đó, họ chuyển sang mô hình "Community Notes" (ghi chú cộng đồng) – tương tự như cách mạng xã hội X triển khai – tức là để người dùng tự kiểm chứng lẫn nhau. Mô hình này bị giới chuyên gia nghi ngờ về hiệu quả, đặc biệt trong một thế giới siêu phân cực về chính trị.

Khi các nền tảng công nghệ có xu hướng phó mặc cho người dùng, còn người dùng ngày càng tin tưởng vào những cỗ máy biết nói, câu hỏi lớn đặt ra là: Ai sẽ là "người gác cổng sự thật" hiệu quả nhất trong kỷ nguyên số và liệu AI có thực sự hữu ích khi giúp chúng ta tổng hợp thông tin hay đang đẩy chúng ta lạc lối trong mê cung tin giả?

Thanh Phương/TTXVN

Cùng chuyên mục
Xem theo ngày
Đọc thêm