Thời đại BANI: Công cụ AI - Khuếch Đại Hỗn Loạn Hay Lối Thoát Duy Nhất?
Câu hỏi đang được đặt ra trong thời đại BANI của chúng ta: AI là kẻ khuếch đại hỗn loạn hay là lối thoát duy nhất?
Câu hỏi này thú vị ở chỗ, câu trả lời không phải là có, cũng không phải là không.
AI khuếch đại BANI như thế nào?
AI làm "B" - Brittle (Giòn vỡ) trở nên nguy hiểm hơn. Hệ thống càng phụ thuộc AI càng trở nên giòn theo cách mới - không phải yếu, mà là mạnh đến mức không dự đoán được điểm gãy. Một thuật toán sai trong hệ thống tài chính có thể xóa hàng tỷ đô trong vài giây. Flash crash năm 2010 là ví dụ thực, thổi bay 1.000 điểm của chỉ số Down Johns trong 10 phút, tương đương hơn 1.000 tỷ USD đã bốc hơi. Khi AI ra quyết định thay người trong chuỗi cung ứng, y tế, vũ khí... một lỗi nhân lên theo cấp số nhân, không còn bị "hấp thụ" bởi phán đoán của con người. Sự phụ thuộc vào AI tạo ra single point of failure ở quy mô văn minh.
AI làm "A" - Anxious (Lo âu) leo thang. Thị trường lao động bất ổn. Không ai biết nghề nào sẽ tồn tại sau 5 năm nữa, kể cả các chuyên gia. Sự mơ hồ này là nguồn lo âu tập thể chưa từng có. Deepfake và thông tin giả tràn lan. Khi không còn tin vào mắt và tai của mình, con người rơi vào trạng thái paranoia nhận thức - lo âu không phải vì thiếu thông tin mà vì không biết thông tin nào là thật. Thuật toán mạng xã hội được thiết kế để khai thác lo âu vì lo âu giữ người dùng online lâu hơn niềm vui.
AI làm "N" - Nonlinear (Phi tuyến) trở nên cực đoan hơn. Đây là điểm nguy hiểm nhất, ít được nói đến nhất. AI không chỉ hoạt động trong thế giới phi tuyến - AI tạo ra những vòng phản hồi phi tuyến mới mà con người không thiết kế và không kiểm soát được. Các mô hình ngôn ngữ lớn được huấn luyện trên dữ liệu của nhau, tạo thành vòng lặp tự tham chiếu làm méo mó thực tại tập thể. Thuật toán khuyến nghị tạo ra echo chamber, thúc đẩy mạnh phân cực xã hội hơn nữa, khiến thực tế bị phân mảnh thành nhiều "vũ trụ thông tin" song song. AI trading + AI trading tương tác với nhau tạo ra những hành vi thị trường mà không một con người nào lập trình.
AI làm "I" - Incomprehensible (Khó hiểu) trở thành tuyệt đối. Đây là nghịch lý sâu sắc nhất của thời đại AI: Công cụ ta tạo ra để hiểu thế giới đã trở thành thứ ta không thể hiểu. GPT-5, Gemini Ultra... không ai, kể cả người tạo ra chúng - biết chính xác tại sao chúng đưa ra một câu trả lời cụ thể. "Black box problem" không chỉ là vấn đề kỹ thuật, đó là sự từ bỏ quyền diễn giải ở quy mô xã hội. Khi AI đưa ra phán quyết tín dụng, chẩn đoán y tế, bản án tòa án... và không ai giải thích được tại sao - đó là BANI ở dạng thuần khiết nhất.
Nhưng đến tận lúc này, AI vẫn là thứ duy nhất có thể đối phó với BANI.
Như đã phân tích ở bài viết trước, não người có giới hạn cứng - 4 đơn vị bộ nhớ hoạt động cùng lúc, thiên kiến nhận thức, cảm xúc làm méo phán đoán. Những giới hạn này không thể nâng cấp bằng ý chí hay học tập. Còn chờ tiến hóa, thì chắc cần cả triệu năm nữa. Trong khi đó, AI đang xử lý được độ phức tạp mà con người không thể - mô hình khí hậu, dịch bệnh, chuỗi protein. AI không có confirmation bias theo nghĩa sinh học - nếu được thiết kế và giám sát đúng. AI có thể nhìn thấy tín hiệu yếu trong biển nhiễu - thứ não người bỏ qua vì không "đủ kịch tính".
AI không tạo ra hỗn loạn. AI tăng tốc và khuếch đại những gì đã có sẵn trong bản chất con người và hệ thống xã hội. AI giống như kính lúp đặt lên xã hội loài người - nó không tạo ra bản chất, nó phóng đại bản chất.
Sự tham lam đã có. AI làm nó nhanh hơn và quy mô lớn hơn.
Sự phân cực đã có. AI làm nó sâu hơn và rộng hơn.
Khả năng giải quyết vấn đề đã có. AI làm nó mạnh hơn và rẻ hơn.
AI không phải nguyên nhân của BANI, nhưng AI là bài kiểm tra lớn nhất xem loài người có vượt qua được BANI không. Kết quả phụ thuộc vào sự khôn ngoan của người dùng, không phải năng lực của công cụ.
Như vậy, câu hỏi thực sự không phải là "AI có tốt không?", "AI có làm thế giới rối loạn hơn không?", câu hỏi đúng là "Ta đang dùng AI để phục vụ điều gì?".
"Có nên dùng AI không?" => câu hỏi đúng là "Ai kiểm soát AI và theo nguyên tắc nào?"
"AI có thông minh hơn người không?" => câu hỏi đúng là "Con người có đủ khôn ngoan để dùng AI không?"
Tôi sẽ đi sâu vào 3 câu hỏi trung tâm này.
Ta Đang Dùng AI Để Phục Vụ Điều Gì?
Đây là câu hỏi về mục đích - và nó nguy hiểm vì hầu hết tổ chức, cá nhân đang dùng AI mà chưa bao giờ thực sự trả lời nó.
Luôn có khoảng cách giữa mục đích tuyên bố và mục đích thực. Mọi công ty AI đều nói: "Chúng tôi xây dựng AI vì lợi ích nhân loại." Nhưng cơ chế thị trường đang thúc đẩy điều khác. Meta dùng AI tối ưu hóa thời gian người dùng ở lại nền tảng, không phải sức khỏe tinh thần. TikTok dùng AI để dự đoán và tạo ra ham muốn, không phải để thỏa mãn nhu cầu có sẵn. Amazon dùng AI để tối ưu hiệu suất kho vận, công nhân bị quản lý như máy móc. Trong hầu hết các trường hợp, AI hoạt động hoàn hảo theo đúng mục đích được giao. Vấn đề nằm ở mục đích được giao là gì, không phải ở AI.
Cần phân biệt ba tầng mục đích:
Thế giới BANI tạo ra áp lực khổng lồ để dùng AI vì hiệu quả tức thì. Nhưng chính áp lực đó khiến người ta không dừng lại để hỏi mục đích dài hạn. Doanh nghiệp dùng AI cắt giảm chi phí ngắn hạn, nên mất năng lực học hỏi dài hạn. Học sinh dùng AI viết bài, nên làm nhanh hơn, nhưng mất quá trình tư duy là nơi học thực sự xảy ra. Chính phủ dùng AI giám sát xã hội, nên có an ninh ngắn hạn, nhưng kiến tạo xã hội mà mọi người không còn học cách tự quản trị.
Rõ ràng, AI trung lập về mặt đạo đức, nhưng không trung lập về mặt quyền lực. Ai đặt mục đích cho AI - người đó định hình thực tại của người khác. Đây là câu hỏi chính trị, không phải câu hỏi kỹ thuật.
Ai Kiểm Soát AI Và Theo Nguyên Tắc Nào?
Đây là câu hỏi về quyền lực - và câu trả lời hiện tại đang rất đáng lo ngại.
Hiện tại, AI tiên tiến nhất thế giới được kiểm soát bởi một nhóm cực kỳ nhỏ. Chưa đến 10 công ty sở hữu các mô hình nền tảng (foundation models) có tầm ảnh hưởng toàn cầu, phần lớn tập trung tại một quốc gia (Mỹ) và đang có cuộc đua với một quốc gia thứ hai (Trung Quốc). Các công ty này đưa ra nguyên tắc tự điều tiết - tức là tự mình kiểm tra mình.
Đây là cấu trúc quyền lực chưa từng có tiền lệ trong lịch sử nhân loại: công nghệ có khả năng định hình nhận thức của hàng tỷ người, được kiểm soát bởi vài chục CEO không được bầu chọn, không thể bị bãi miễn.
Đang có ba mô hình kiểm soát cạnh tranh nhau:
Mô hình Silicon Valley - "Di chuyển nhanh, phá vỡ mọi thứ, xin lỗi sau". Nguyên tắc: Đổi mới là ưu tiên, quy định là rào cản. Rủi ro: Hậu quả xã hội được xử lý sau khi đã lan rộng
Mô hình Brussels - "Quy định trước, triển khai sau". EU AI Act là nỗ lực đầu tiên xây dựng khung pháp lý toàn diện dựa trên nguyên tắc: Phân loại rủi ro, yêu cầu minh bạch, bảo vệ công dân. Rủi ro: Chậm hơn, có thể tụt hậu về năng lực cạnh tranh.
Mô hình Bắc Kinh - "AI phục vụ ổn định quốc gia". Nguyên tắc: Nhà nước kiểm soát dữ liệu và mục đích ứng dụng. Rủi ro: AI trở thành công cụ kiểm soát xã hội quy mô chưa từng có.
Vấn đề thực sự không phải là ba mô hình này, mà là khoảng trống giữa chúng. Không có cơ chế quốc tế ràng buộc nào cho AI, khác với vũ khí hạt nhân, hóa học. Các mô hình AI được triển khai xuyên biên giới trong khi quy định dừng lại ở biên giới quốc gia. Khi xảy ra hậu quả, như deepfake trong bầu cử, AI trong chiến tranh, thao túng tâm lý hàng loạt... không có tòa án nào có thẩm quyền xét xử.
Nguyên tắc nào thực sự đang chi phối?
Nếu nhìn vào hành vi thực tế, nguyên tắc chi phối hiện nay là: "Có thể làm được thì làm. Đợi ai cấm thì dừng."
Đây không phải nguyên tắc được tuyên bố, nhưng là nguyên tắc được thực thi bởi cơ chế thị trường và áp lực cạnh tranh địa chính trị.
Thế giới đang áp dụng công nghệ thế kỷ 21 với cấu trúc quản trị của thế kỷ 20. Khoảng cách này chính là một trong những nguồn gốc cốt lõi của BANI - không phải do AI xấu, mà do thể chế chưa kịp tiến hóa để làm chủ công cụ mình tạo ra.
Con Người Có Đủ Khôn Ngoan Để Dùng AI Không?
Đây là câu hỏi khó nhất, và thành thật nhất. Vì nó hỏi về chúng ta, không phải về AI.
Nhưng trước hết, cần phân biệt thông minh và khôn ngoan. Đây là điểm tách biệt quan trọng nhất:
| Thông minh (Intelligence) | Khôn ngoan (Wisdom) | |
|---|---|---|
| Bản chất | Khả năng giải quyết vấn đề | Khả năng đặt câu hỏi đúng |
| Câu hỏi | "Làm thế nào?" | "Có nên làm không? Để làm gì?" |
| Nguồn gốc | IQ, học vấn, kỹ năng | Kinh nghiệm, phản tư, đau khổ |
| AI có không? | Đang vượt con người | Chưa có, và có thể không bao giờ có |
Con người ngày càng thông minh hơn nhờ AI. Nhưng khôn ngoan không tăng theo. Đây chính là vấn đề.
Có nhiều dấu hiệu cho thấy con người hiện chưa đủ chưa đủ khôn ngoan để dùng AI.
Thứ nhất: Ta chưa hiểu mình trước khi dùng AI để hiểu người khác.
Các chính phủ dùng AI phân tích hành vi công dân, nhưng chưa hiểu đầy đủ về thiên kiến trong dữ liệu huấn luyện. Doanh nghiệp dùng AI tuyển dụng, nhưng dữ liệu lịch sử chứa đầy phân biệt đối xử, và AI học từ đó. Kết quả: ta tự động hóa sự bất công nhanh hơn, quy mô lớn hơn, với vỏ bọc "khách quan".
Thứ hai: Ta bị mê hoặc bởi năng lực mà quên mất mục đích.
Hiệu ứng "Wow" của AI đang làm tê liệt tư duy phê phán. Khi một công cụ quá ấn tượng, não người có xu hướng ngừng đặt câu hỏi về nó. Đây là lý do các làn sóng công nghệ lớn như internet, mạng xã hội, và nay là AI đều trải qua chu kỳ: hứng khởi → triển khai ồ ạt → hậu quả bất ngờ → hối hận → điều chỉnh muộn màng.
Thứ ba: Ta đang đo lường sai.
Thước đo thành công của AI hiện tại gồm: số tham số mô hình, điểm benchmark, tốc độ xử lý, doanh thu.
Thứ không được đo: tác động lên khả năng tư duy độc lập của người dùng, phân bổ lợi ích và thiệt hại trong xã hội, sức khỏe nhận thức tập thể dài hạn.
Chúng ta đang tối ưu hóa những gì đo được, và bỏ qua những gì quan trọng hơn.
Thứ tư: Tốc độ thay đổi đang vượt tốc độ phản tư.
Khôn ngoan đòi hỏi thời gian: sai lầm, quan sát hậu quả, điều chỉnh. Nhưng chu kỳ triển khai AI đang rút ngắn đến mức hậu quả của phiên bản này chưa kịp hiểu thì phiên bản sau đã ra đời. Không có đủ thời gian để học khôn.
Khôn ngoan không phải bẩm sinh, nó có thể được thiết kế vào hệ thống. Các nguyên tắc đạo đức AI đang được xây dựng, dù chậm, không hoàn hảo, nhưng đang hình thành. Một thế hệ người trẻ đang lớn lên với tư duy phê phán về AI ngay từ đầu. Triết học, nhân văn, xã hội học đang được kéo trở lại vào trung tâm của các cuộc đàm thoại về công nghệ. Con người vẫn còn hi vọng.
Như vậy, ba câu hỏi trên không độc lập - chúng là ba mặt của một vấn đề duy nhất:
Nếu thiếu bất kỳ một mắt xích nào - có mục đích tốt nhưng không có cơ chế kiểm soát, hoặc có kiểm soát nhưng thiếu khôn ngoan để định hướng - thì AI trong thời đại BANI không giải quyết hỗn loạn, mà nhân hỗn loạn lên một bậc mới.
Vấn đề phát sinh tiếp theo từ chuỗi trên, chúng ta nên giải quyết BANI bằng cách thay đổi mục đích và/hoặc tạo ra một công nghệ mạnh hơn (có thể điều khiển AI) chăng?
Giải pháp: Mạnh hơn hay Khôn ngoan hơn?
Thay đổi mục đích dùng AI hay tạo ra công nghệ mạnh hơn AI? Đây là một trong những câu hỏi triết học-công nghệ quan trọng nhất của thời đại. Thay đổi mục đích là điều hướng AI từ bên trong. Tạo công nghệ mạnh hơn là kiểm soát AI từ bên ngoài. Cả hai hướng đều hợp lý về mặt logic nhưng cũng rủi ro chết người.
Có cần áp đặt mục đích dùng AI tốt hơn không?
Nếu AI chỉ là công cụ khuếch đại mục đích con người, thì thay đổi mục đích là can thiệp vào gốc rễ, không phải triệu chứng. Đây là tư duy đúng hướng.
Nhưng, mục đích của ai?
Nhân loại không có một mục đích thống nhất. Chưa bao giờ có. Mỗi nền văn hóa, hệ tư tưởng, giai cấp, thế hệ có mục đích khác nhau - và thường xung đột. Ai có quyền tuyên bố: "Đây là mục đích đúng cho AI của toàn nhân loại"?Lịch sử cho thấy bất kỳ ai nắm quyền định nghĩa mục đích tối thượng đều dẫn đến một trong hai kết cục: độc tài hoặc ảo tưởng.
Để thay đổi mục đích của AI, bạn cần quyền lực. Để có quyền lực đó, bạn cần... AI. Nhưng AI đang phục vụ mục đích của người đang có quyền lực. Đây là vòng tròn không lối thoát nếu chỉ tư duy trong hệ thống hiện tại.
Vậy thay đổi mục đích có khả thi không? Có, nhưng không phải bằng cách áp đặt một mục đích duy nhất.
Khả thi hơn là xây dựng hệ thống giá trị nền - không phải một mục đích, mà là những giới hạn không thể vượt qua bất kể mục đích là gì. Ví dụ, AI không được dùng để tước đoạt tự do nhận thức của con người, AI không được tập trung quyền lực vào tay một thực thể duy nhất, AI phải có khả năng bị kiểm tra, phản bác, và tắt. Đây không phải mục đích - đây là hiến pháp cho AI (tôi không định nói đến Constitutional AI của Anthropic, đó là một kiến trúc post-training nội bộ cho các model của riêng họ). Khác nhau về bản chất.
Có cần kiểm soát AI bằng một công nghệ mạnh hơn không?
Nếu AI quá phức tạp để con người hiểu và kiểm soát trực tiếp, thì dùng AI để kiểm soát AI. Như dùng virus để diệt virus. Việc này thực ra đang xảy ra, và có tên gọi: AI Alignment & AI Safety research.
Nhưng đây là con đường dẫn đến đâu? Hãy nhìn thẳng vào logic của hướng này:
Đây là điểm mà tư duy cần bước ra ngoài khung "kiểm soát bằng quyền lực mạnh hơn."
Phải chăng: "Kiểm soát được = mạnh hơn"?
Lịch sử văn minh cho thấy điều khác. Không phải thứ mạnh hơn kiểm soát thứ yếu hơn, mà là thứ được thiết kế thông minh hơn điều hướng thứ mạnh hơn. Không phải vua mạnh nhất cai trị tốt nhất, mà là thể chế được thiết kế khôn ngoan kiềm chế vua. Không phải quân đội lớn nhất tạo ra hòa bình, mà là luật pháp quốc tế và cán cân quyền lực tạo ra hòa bình tương đối. Không phải lửa mạnh nhất dập tắt lửa, mà là thiết kế đường ngăn lửa kiểm soát cháy rừng.
Rõ ràng, cần có một khung mới để giải quyết vấn đề.
Thay vì kiểm soát bằng quyền lực, chúng ta cần một thiết kế thông minh và phân tán quyền lực.
Thay vì tạo ra thứ mạnh hơn AI, chúng ta cần một thể chế khôn ngoan để định hướng AI.
Thay vì áp đặt một mục đích chung, chúng ta cần tạo ra một hiến pháp có giá trị vạch rõ những giới hạn không được phép vượt qua.
Khung giải pháp mới: Thể chế hóa sự khôn ngoan (đề xuất)
1. Thiết kế kiến trúc quyền lực
Vấn đề của AI không phải là thiếu công cụ kiểm soát - mà là thiếu cấu trúc quyền lực phân tán. Giống như tam quyền phân lập không tạo ra quyền lực mạnh hơn nhà vua/tổng thống. Nó tạo ra cấu trúc khiến không ai có thể lạm dụng quyền lực tuyệt đối.
Tương tự với AI, không một công ty nào được độc quyền dữ liệu huấn luyện. Quyết định của AI trong lĩnh vực quan trọng phải có khả năng bị kháng cáo bởi con người. Lợi ích kinh tế từ AI phải được phân phối, không tập trung.
2. Nâng cấp con người - không phải thay thế con người
Thay vì tạo AI mạnh hơn để kiểm soát AI, đầu tư vào năng lực nhận thức của con người: tư duy hệ thống (Systems thinking), hiểu biết về AI đủ để đặt câu hỏi đúng mà không cần biết code, văn hóa phản tư và chậm lại trước quyết định quan trọng. Không phải cần tạo ra AI thông minh hơn để kiểm soát AI, mà là nâng cấp con người khôn ngoan hơn để định hướng AI.
3. Chấp nhận một số lĩnh vực là "vùng cấm AI"
Không phải mọi vấn đề đều cần giải pháp kỹ thuật. Một số quyết định - về giá trị, công lý, ý nghĩa - phải do con người đưa ra, dù chậm hơn và kém hiệu quả hơn. Đây không phải tụt hậu - đây là ranh giới văn minh.
Nhân loại không cần một thứ mạnh hơn AI. Nhân loại cần trở nên khôn ngoan hơn chính mình - đủ để không trao toàn bộ quyền năng cho bất kỳ công cụ hay thực thể nào, dù mạnh đến đâu.
BANI không được giải quyết bằng sức mạnh. Nó được điều hướng bằng sự khôn ngoan được thể chế hóa.
Nhận xét
Đăng nhận xét