Khi AI làm “người gác cổng” ở biên giới châu Âu

Chủ Nhật, 08/02/2026, 09:22

Cuối tháng 1/2026, khi Cơ quan Bảo vệ biên giới và bờ biển Liên minh châu Âu (Frontex) công bố kế hoạch tăng cường phối hợp với Cơ quan Tị nạn Liên minh châu Âu (EU), một chi tiết nhanh chóng làm nóng nghị trường Brussels: vai trò ngày càng sâu của các hệ thống phân tích tự động và trí tuệ nhân tạo (AI) trong đánh giá rủi ro tại biên giới.

Từ công cụ hỗ trợ vận hành, AI đang bước lên vị trí “người gác cổng” mới của châu Âu và kéo theo câu hỏi lớn về ranh giới giữa an ninh, nhân quyền cũng như trách nhiệm giải trình.

aigaccong.jpg -0
Frontex phối hợp với Cảnh sát Biên phòng Bulgaria triển khai dự án thí điểm sử dụng thiết bị bay không người lái nhằm hỗ trợ giám sát biên giới. Ảnh: Frontex

Frontex ngày 22/1 thông báo đã cùng Cơ quan EU về Tị nạn (EUAA) “tăng cường hợp tác” để hỗ trợ các nước thành viên trong quản lý thủ tục di cư – tị nạn tại biên giới ngoài của EU, từ khâu sàng lọc, xử lý hồ sơ đến hồi hương.

Thông điệp chính được đóng khung bằng tính “hiệu quả” và “phối hợp”, nhưng tầng nghĩa sâu hơn nằm ở cách EU đang vận hành biên giới: ngày càng dựa vào dữ liệu, hệ thống tự động và các mô hình phân tích rủi ro để quyết định ưu tiên nguồn lực. Sự kiện này đủ mới để làm chất dẫn, và đủ “đúng chủ đề” để mở ra một cuộc tranh luận không thể né: khi AI tham gia vào chuỗi sàng lọc, ai là người chịu trách nhiệm cho những quyết định mang tính sống còn đối với một con người xin tị nạn?

Tranh luận càng trở nên nhạy cảm vì diễn ra đúng lúc EU bước vào giai đoạn triển khai thực tế Đạo luật AI (AI Act) – bộ khung pháp lý mà châu Âu đặt cược vào vai trò “người xây chuẩn mực” toàn cầu. Ngày 28/1, Ủy ban châu Âu (EC) công bố bộ hỏi–đáp “định hướng áp dụng AI Act”, nhấn mạnh phạm vi, cơ chế thực thi và đặc biệt là cách xác định nhóm “hệ thống rủi ro cao”. Về mặt nguyên tắc, EU khẳng định mục tiêu không chỉ thúc đẩy đổi mới, mà còn bảo đảm an toàn và quyền cơ bản của công dân. Thế nhưng, khoảng cách giữa “mục tiêu” và “cách làm” lại lộ rõ ở biên giới – nơi công nghệ không chỉ phục vụ tiện ích, mà chạm trực tiếp đến tự do thân thể và số phận pháp lý của con người.

Điểm nghẽn nằm ở chỗ: biên giới là môi trường mà quyền lực nhà nước mạnh nhất, còn năng lực phản biện của đối tượng bị kiểm soát lại yếu nhất. Trong thực tế vận hành, AI ở biên giới không chỉ là camera “nhìn rõ hơn”, mà là hệ thống giúp “đọc” và “xếp loại” nhanh hơn: phân tích hình ảnh, nhận diện mẫu hành vi, phát hiện bất thường, đánh dấu khu vực rủi ro, thậm chí hỗ trợ sàng lọc hồ sơ theo tiêu chí nguy cơ. Khi đó, AI không còn là chiếc kính phóng đại cho con người quan sát, mà có nguy cơ trở thành bộ lọc định hình cách con người quyết định.

Chính vì vậy, giới lập pháp và cộng đồng chính sách tại Brussels thời gian gần đây tập trung vào một câu hỏi rất cụ thể: AI ở biên giới đang dừng ở mức “hỗ trợ vận hành” hay đã can dự vào quyết định hành chính theo nghĩa thực chất? Nếu thuật toán đưa ra cảnh báo và con người chỉ “ký xác nhận”, thì về mặt đạo lý và pháp lý, người chịu trách nhiệm là ai – nhân viên thực thi hay nhà cung cấp công nghệ? Khi một hệ thống phân tích rủi ro đánh dấu sai, cái sai không chỉ là một con số trong báo cáo, mà có thể là một quyết định kiểm tra kéo dài, một lần từ chối thủ tục, hoặc một vòng xoáy khiến người xin tị nạn không còn kịp thời tiếp cận cơ chế bảo vệ.

Sự thận trọng của EU có một lý do rất “đời”: AI Act càng tham vọng, khâu triển khai càng dễ vấp. Hồi cuối năm ngoái, EC đã đề xuất gói “Digital Omnibus” nhằm đơn giản hóa và điều chỉnh một số quy định số, trong đó có phương án lùi thời hạn áp dụng các quy tắc nghiêm ngặt đối với AI “rủi ro cao”. Nếu đề xuất như vậy trở thành xu hướng, thông điệp chính sách sẽ rơi vào thế lưỡng nan: EU muốn vừa nhanh (để bắt kịp cuộc đua công nghệ), vừa chặt (để bảo vệ quyền), nhưng lại phải đối mặt áp lực từ doanh nghiệp và nỗi lo “quá tải tuân thủ”.

Đầu năm 2026, câu chuyện triển khai lại càng “căng dây” khi xuất hiện phản ánh về việc EC không kịp ban hành đúng hạn hướng dẫn phân loại “hệ thống rủi ro cao” theo một mốc pháp lý quan trọng của AI Act. Một số bản tin chuyên ngành nêu mốc 2/2/2026 là hạn chót cho hướng dẫn liên quan đến cách xác định hệ thống có thuộc nhóm rủi ro cao hay không. Chậm trễ ở đây không chỉ là thủ tục. Nó tạo ra khoảng xám: các cơ quan thực thi, trong đó có các thực thể liên quan biên giới, có thể tiếp tục vận hành hệ thống trong khi tiêu chí phân loại và nghĩa vụ tuân thủ chưa đủ rõ ở cấp hướng dẫn.

Với biên giới, “khoảng xám” là mảnh đất dễ sinh rủi ro nhất. Bởi một phần công nghệ dùng cho quản lý di cư mang tính “hai mặt”: cùng một hệ thống nhận diện có thể phục vụ xác minh danh tính để bảo vệ quyền lợi người xin tị nạn, nhưng cũng có thể phục vụ giám sát và loại trừ nếu thiếu cơ chế kiểm soát độc lập. Trong các tranh luận chính sách, nhiều chuyên gia nhấn mạnh rủi ro lớn không nằm ở việc máy móc đôi khi sai, mà ở khả năng cái sai trở thành chuẩn: khi thuật toán được tin như “khách quan”, sai lệch sẽ khó bị nhận diện hơn sai lệch của con người, và càng khó bị khiếu nại hơn vì người bị ảnh hưởng không biết mình đang bị đánh giá theo cơ chế nào.

Một điểm đáng chú ý là trong tranh luận về AI và biên giới, các cơ quan bảo vệ dữ liệu của châu Âu cũng ngày càng xuất hiện như “trọng tài” chính sách. Ngày 20/1, Ủy ban Bảo vệ Dữ liệu châu Âu (EDPB) và Giám sát viên Bảo vệ Dữ liệu châu Âu (EDPS) ban hành Ý kiến chung 1/2026 về một đề xuất sửa đổi nhằm “đơn giản hóa” triển khai AI Act. Dù đây là văn bản kỹ thuật, nó gửi một tín hiệu chính trị: nhóm cơ quan bảo vệ dữ liệu muốn bảo đảm rằng mọi điều chỉnh vì mục tiêu “dễ triển khai” không được làm mỏng các lớp bảo vệ quyền cơ bản.

Với biên giới, tín hiệu này đặc biệt quan trọng, vì dữ liệu ở đây thường là dữ liệu nhạy cảm: sinh trắc học, hành trình di chuyển, thông tin cá nhân gắn với hoàn cảnh dễ tổn thương. Nếu đặt EU cạnh Mỹ, độ khó của bài toán châu Âu càng lộ rõ. Ở Mỹ, cách tiếp cận kiểm soát biên giới thường đi theo logic thực dụng an ninh: ưu tiên hiệu quả, rồi mới xử lý tranh cãi xã hội và pháp lý. EU thì buộc phải vừa làm “người gác cổng”, vừa làm “người giữ chuẩn”. Đó là khác biệt cấu trúc.

Một châu Âu tự đặt mình ở vị thế chuẩn mực sẽ không thể chỉ nói “AI giúp nhanh hơn”; họ phải trả lời thêm: nhanh hơn có đi kèm công bằng hơn không, và nếu không thì cơ chế sửa sai nằm ở đâu. Trong khi đó, áp lực thực địa không cho EU nhiều thời gian để tranh luận.

Dữ liệu do Frontex công bố ngày 15/1 cho thấy số vụ “vượt biên trái phép bị phát hiện” tại biên giới ngoài EU năm 2025 giảm 26%, xuống gần 178.000, mức thấp nhất kể từ 2021 theo số liệu ban đầu. Con số này giúp EU khẳng định “tình hình đã hạ nhiệt”, nhưng đồng thời có thể tạo ra một ảo giác nguy hiểm: khi dòng người giảm, xã hội dễ chấp nhận biện pháp cứng rắn và công nghệ giám sát hơn, vì chi phí chính trị của phản đối thấp hơn. Nói cách khác, lúc “ít căng” lại là lúc dễ hợp thức hóa nhất cho những thay đổi dài hạn trong cơ chế kiểm soát.

Ở tầng sâu hơn, AI ở biên giới không chỉ là công cụ, mà là một cách “thiết kế” quyền lực. Biên giới truyền thống vận hành bằng hàng rào, trạm gác, giấy tờ. Biên giới số vận hành bằng dữ liệu, mô hình rủi ro và khả năng truy xuất. Khi thuật toán tham gia vào khâu sàng lọc, biên giới không còn là một đường kẻ địa lý, mà là một chuỗi đánh giá liên tục: ai được nhìn như người cần bảo vệ, ai bị nhìn như rủi ro, ai phải chịu kiểm tra dày đặc. Trong bối cảnh đó, câu hỏi “AI có chính xác không” chỉ là câu hỏi cấp thấp.

Câu hỏi cấp cao là: ai định nghĩa rủi ro, và định nghĩa ấy được mã hóa vào hệ thống bằng tiêu chí nào? Châu Âu vì thế đang đứng trước một phép thử kép. Một mặt, EU cần công nghệ để quản trị biên giới trong thời đại di cư phức tạp. Mặt khác, EU không thể tự cho phép mình trượt vào một trạng thái “bình thường hóa giám sát” mà thiếu cơ chế kiểm toán, thiếu minh bạch và thiếu lối thoát cho người bị đánh giá. Nếu AI Act là tuyên ngôn về chuẩn mực, thì biên giới là nơi tuyên ngôn ấy bị thử lửa. Chỉ cần một khoảng lệch kéo dài giữa luật và thực tiễn, EU sẽ gặp rủi ro lớn hơn cả tranh cãi kỹ thuật: rủi ro mất niềm tin rằng châu Âu thực sự đặt con người ở trung tâm của quản trị công nghệ.

Ở thời điểm đầu năm 2026, việc Frontex tăng cường hợp tác với EUAA không chỉ là một thỏa thuận phối hợp nghiệp vụ. Nó là dấu hiệu cho thấy EU đang tiếp tục “kỹ trị hóa” biên giới: coi quản trị di cư là bài toán quy trình, dữ liệu và tối ưu nguồn lực. Cách tiếp cận này có thể đem lại hiệu quả ngắn hạn, nhưng nếu thiếu “phanh” pháp lý và thiếu tiếng nói giám sát độc lập, AI sẽ không còn là công cụ của chính sách, mà trở thành thứ định hình chính sách. Khi đó, “người gác cổng” không chỉ đứng ở biên giới châu Âu. Nó đứng ngay trong hệ thống ra quyết định của châu Âu.

Khổng Hà
.
.
.