AI và hiệu ứng "sương mù thông tin" nhìn từ xung đột Trung Đông

Thứ Bảy, 21/03/2026, 10:30

Xung đột tại Trung Đông đã gián tiếp tạo ra một lượng lớn hình ảnh và video từ các hệ thống trí tuệ nhân tạo (AI), khiến người tiếp nhận thông tin khó lòng phân biệt đâu là giả mạo và đâu là sự thật.

Theo giới chuyên gia, việc bóc tách các hình ảnh và video giả đòi hỏi quá trình kiểm chứng công phu, từ soi từng khung hình đến đối chiếu với ảnh vệ tinh ở nhiều góc độ, nhiều thời điểm. Quỹ thời gian ấy đáng lẽ nên được dành cho những vấn đề cấp bách hơn như phản ánh tác động của xung đột và những nguy cơ mà người dân đang mắc kẹt giữa khói lửa phải đối mặt.

Thông tin giả, xác thực giả từ AI

Vào những năm 1800, chiến lược gia quân sự người Đức Carl von Clausewitz lần đầu đưa ra thuật ngữ "sương mù chiến tranh" trong cuốn sách nổi tiếng “Bàn về chiến tranh” (On war) của ông, mô tả sự không chắc chắn, hỗn loạn của thông tin trên chiến trường, dẫn đến những quyết định khó khăn và nhạy cảm về mặt thời gian đối với người ra quyết định.

Bước sang thế kỷ XXI, khái niệm này dần được mở rộng hơn. Không chỉ đơn thuần là "sương mù chiến tranh", sự xuất hiện của trí tuệ nhân tạo (AI) đã tạo ra hiệu ứng "sương mù thông tin" - trạng thái mà ở đó lượng thông tin khổng lồ, lẫn lộn giữa thật và giả, khiến việc xác định sự thật trở nên khó khăn hơn bao giờ hết.

AI và hiệu ứng sương mù thông tin nhìn từ xung đột Trung Đông -0
Hình ảnh được cho là trạm radar Mỹ tại Qatar bị phá hủy (phải) là sản phẩm giả mạo do AI tạo ra. Ảnh: Tehran Times/X

Những tin tức, hình ảnh và video xung quanh vấn đề xung đột giữa liên minh Mỹ - Israel và Iran hiện nay tại Trung Đông là ví dụ điển hình. Theo The Guardian, ngay từ khi xảy ra xung đột, các nhà kiểm chứng đã vô cùng bận rộn với việc xác thực những hình ảnh và video về tình hình thực địa. Công nghệ deepfake và kỹ xảo đồ họa máy tính đang biến không gian mạng thành mê cung.

Gần đây, một bức ảnh vệ tinh về một trạm radar của Mỹ tại Qatar bị phá hủy, bị vạch trần là ảnh giả được tạo ra từ những bức hình cũ trên Google Earth. Chi tiết về những chiếc ô tô trong bức hình đều ở vị trí giống hệt với một bức ảnh từ hai năm trước đó. Một bức hình khác cho thấy thi thể của Lãnh tụ tối cao Iran, Đại giáo chủ Ayatollah Ali Khamenei được kéo ra từ đống đổ nát, cũng có những dấu hiệu nhận biết là giả.

Cụ thể, hình ảnh những người cứu hộ như được nhân bản vì hoàn toàn giống nhau. Và nhiều video còn sử dụng các cảnh quay tấn công giống thật trong trò chơi điện tử để đánh lừa người tiếp nhận thông tin.

Thực tế còn chứng minh rằng, AI không chỉ tạo thông tin giả mà còn tạo ra sự xác thực giả. Mới đây, Reuters đăng tải một bức ảnh chụp nghĩa trang tại thành phố Minab (Iran), được cho là nơi chôn cất hàng chục trẻ em gái thiệt mạng do trúng tên lửa. Hình ảnh này gây xúc động và được chia sẻ rộng rãi trên mạng xã hội như một biểu tượng đau buồn của hệ quả xung đột.

Tuy nhiên, nhiều người lại đặt câu hỏi về độ chân thực của tấm hình và họ thử kiểm chứng bằng các công cụ AI phổ biến. Kết quả nhận được cho thấy sự mâu thuẫn rõ ràng. Có chatbot AI cho rằng đây là ảnh từ trận động đất tại Thổ Nhĩ Kỳ năm 2023. Một hệ thống khác lại khẳng định ảnh liên quan đến dải Gaza hoặc thậm chí là tại Indonesia thời đại dịch COVID-19.

AI và hiệu ứng sương mù thông tin nhìn từ xung đột Trung Đông -1
Bức ảnh của Reuters chụp tại một nghĩa trang ở Minab, miền Nam Iran, hôm 2/3/2026. 

Trong các trường hợp trên, câu trả lời của AI hầu hết nghe có vẻ chắc chắn, thậm chí còn cung cấp nguồn ảnh gốc. Nhưng nếu lần theo nguồn đó để kiểm chứng, người dùng sẽ bắt đầu gặp phải những ngõ cụt, hoặc hình ảnh không xuất hiện hoặc liên kết được cung cấp là một bản tin không tồn tại. Trên thực tế, hình ảnh này đúng là tại nghĩa trang Minab. Các nhà nghiên cứu đã đối chiếu chéo bức ảnh với các hình ảnh vệ tinh trước đó để xác tín.

Ở một trường hợp khác nữa, mạng xã hội lan truyền những đoạn video về các vụ cháy dọc theo đại lộ Koohsar ở Tehran hôm 8/3. Những video này được một hãng thông tấn lớn xác nhận là thật nhưng AI lại trả lời rằng đây là hình ảnh từ các vụ cháy ở Los Angeles vào năm 2017.

Hệ lụy về nguồn lực và tính nhân văn

Các chuyên gia của The Guardian cho biết, hiện tại, ít nhất một nửa trong số tất cả các thông tin sai lệch bị lan truyền đều do AI tạo ra. Điều này phản ánh một thực tế rằng giờ đây ai cũng có thể dễ dàng tạo video hoặc những bức ảnh chân thực từ sự phát triển tinh vi của AI.

Trung tướng Laura Potter, cựu Giám đốc Tham mưu Lục quân Mỹ từng nhận định, một trong những vũ khí nguy hiểm nhất mà chúng ta hiện phải đối mặt là thông tin sai lệch trực tiếp hoặc thông tin sai lệch một cách tinh vi. Việc này tạo ra một cuộc chiến về nhận thức với bất cứ ai đang cầm trên tay thiết bị kết nối, sử dụng mạng xã hội hoặc những người tiếp cận các phương tiện truyền thông không chính thống.

Tuy nhiên, một điều nguy hiểm hơn đang xảy ra, theo The Guardian, chính là việc nhiều người sử dụng AI để tóm tắt tin tức hoặc trả lời câu hỏi, thay vì trực tiếp tìm hiểu nguồn gốc ban đầu. Được biết, các loại hình tóm tắt thông tin do một vài hệ thống AI phát triển mới chỉ được triển khai rộng rãi vào giữa năm 2024 nhưng đã nhanh chóng trở nên phổ biến. Khoảng 65% số người được khảo sát của báo cáo mà The Guardian trích dẫn cho hay, họ thường xuyên xem các bản tóm tắt tin tức bằng AI và tỷ lệ ngày một tăng.

AI và hiệu ứng sương mù thông tin nhìn từ xung đột Trung Đông -2
Lửa cháy dọc đại lộ Koohsar ở Tehran, trích từ video lan truyền trên mạng xã hội và được công bố hôm 8/3. Nhưng chatbot của mạng xã hội X từng gợi ý người dùng rằng hình ảnh này là từ vụ cháy rừng tại Los Angeles năm 2017. Ảnh: Mạng xã hội/Reuters.

Tờ này dẫn một nghiên cứu quốc tế năm 2025 phân tích, khoảng một nửa số bản tóm tắt do AI tạo ra có ít nhất một vấn đề nghiêm trọng về nguồn hoặc độ chính xác. Họ chỉ ra rằng nhiều chatbot AI là các mô hình ngôn ngữ xác suất, xây dựng câu trả lời từng phần dựa trên từ tiếp theo có khả năng phù hợp cao nhất. Mặc dù quá trình đó tạo ra những câu nghe có vẻ thuyết phục và đáng tin cậy, nhưng điều đó không có nghĩa AI thực sự đã phân tích tài liệu mà người dùng đưa ra.

Chuyên gia nghiên cứu độc lập dựa trên nguồn mở Chris Osieck - người đã tiến hành điều tra một số vụ đánh bom gây thương vong dân thường ở Iran cho biết, thời gian của các nhà nghiên cứu đang bị lãng phí. Ví dụ, việc bóc tách hình ảnh và video giả đòi hỏi quá trình kiểm chứng công phu, từ soi từng khung hình đến đối chiếu với ảnh vệ tinh ở nhiều góc độ, nhiều mốc thời gian nhằm phát hiện những điểm sai lệch. “Thời gian đó cần được dành cho những việc quan trọng như đưa tin về tác động của cuộc xung đột với những người bị mắc kẹt giữa khói lửa", ông Chris Osieck nói.

Đối với những người đã mất đi người thân, việc tìm ra sự thật có nguy cơ bị lu mờ bởi tin giả, bởi sự hoài nghi. Ông Chris Osieck nhấn mạnh: "Hãy tưởng tượng nếu gia đình mất đi người thân và sau đó ​​AI được sử dụng trực tuyến để khẳng định rằng sự việc không xảy ra. Đó không chỉ là trở ngại cho các nhà điều tra. Đó còn là sự thiếu tôn trọng sâu sắc đối với những người ở lại”.

Nhìn thẳng vào thực tế, những hình ảnh hay video giả mạo mới xuất hiện còn nhanh hơn cả tốc độ bị bác bỏ. Trong khi đó, nhiều hình ảnh và video có thật, kể cả từ nguồn uy tín, lại bị gắn mác giả hoặc đáng ngờ, làm xói mòn niềm tin của công chúng. Việc này, theo giới chuyên gia, là một dạng thao túng nhận thức, khiến người xem hoài nghi mọi thứ, từ đó làm giảm đi sự quan tâm trước những mất mát và tàn phá thực sự của xung đột.

Ba nguyên tắc vàng trong kỷ nguyên AI

Sống trong kỷ nguyên số, tư duy phản biện trở nên quan trọng hơn bao giờ hết, đặc biệt là khi sự hỗn loạn của chiến tranh càng đẩy rủi ro lên cao. Việc yêu cầu mỗi cá nhân phải tự xác minh thông tin có vẻ nặng nề. Thế nhưng, chuyên gia tư vấn truyền thông và xác thực thông tin số David Clinch khẳng định, đó là cái giá thiết yếu của một công dân có trách nhiệm. Trong kỷ nguyên AI, nếu không thể học cách chậm lại, chúng ta sẽ vô tình trở thành một phần của cái gọi là sương mù đang che lấp sự thật.

Từ thực tiễn, chuyên gia David Clinch chia sẻ ba nguyên tắc then chốt. Thứ nhất, hãy đề phòng ngay cả bản thân mình bởi mỗi cá nhân đều có những định kiến riêng. Việc chia sẻ một thứ gì đó chỉ vì mình muốn nó là sự thật mà không kiểm chứng là một hành động nguy hiểm, góp phần làm trầm trọng thêm vấn đề.

Thứ hai, hãy tìm kiếm và tin tưởng các chuyên gia thực thụ. Tại các tòa soạn lớn và chính thống luôn có những người mà công việc chuyên môn của họ là phân định thật - giả. Nhiều hãng thông tấn, truyền thông lớn thậm chí đã đưa ra cam kết, nhấn mạnh việc dựa vào hoạt động tác nghiệp của con người - từ hiện trường, nhân chứng đến quy trình, để bảo đảm tính xác thực của thông tin.

Thứ ba, đừng coi một lát cắt sự thật là toàn bộ sự thật. Ngay cả khi một hình ảnh hay video là thật cũng không thể phản ánh toàn bộ câu chuyện. Hãy tìm hiểu bối cảnh, đọc thêm về những gì đang diễn ra. Hãy chậm lại một nhịp trước khi nhấn nút chia sẻ hoặc nạp thông tin.

Trong nỗ lực bảo vệ thông tin xác thực từ các cuộc xung đột, mạng xã hội X tuần trước đã thông báo sẽ đình chỉ những người sáng tạo khỏi chương trình chia sẻ doanh thu trong 90 ngày nếu đăng video chiến tranh do AI tạo ra mà không gắn mác. Ông Nikita Bier, Giám đốc sản phẩm của X, cảnh báo rằng các vi phạm lặp lại có thể dẫn tới đình chỉ vĩnh viễn. Động thái này được xem là bước điều chỉnh đáng chú ý của một nền tảng từng bị chỉ trích là “mảnh đất màu mỡ” cho thông tin sai lệch.

Kim Khánh
.
.
.