Một nghiên cứu mới công bố gần đây đã chỉ ra rằng các mô hình AI như ChatGPT, Gemini hay Deepseek không thực sự "hiểu" như nhiều người vẫn tưởng. Chúng không có khả năng tư duy hay nhận thức, mà đơn thuần chỉ mô phỏng cách con người sử dụng ngôn ngữ nhằm tạo ra cảm giác như thể đang suy nghĩ có chủ đích.

Khẳng định này đang làm dấy lên tranh cãi trong giới công nghệ và đặt ra câu hỏi nghiêm túc về việc chúng ta đang quá tin tưởng vào công cụ mà thực chất không sở hữu trí tuệ như con người.

AI càng thông minh, con người càng dễ hiểu lầm

Sự phát triển vượt bậc của các mô hình ngôn ngữ lớn (LLMs) trong thời gian gần đây khiến nhiều người tin rằng AI đang tiệm cận khả năng suy nghĩ, lập luận và sáng tạo như con người. Những câu trả lời trôi chảy, có lập luận logic cùng phong cách ngôn ngữ đa dạng khiến người dùng dễ tin rằng phía sau lớp văn bản ấy là một dạng trí tuệ thực sự.

Tuy nhiên, nghiên cứu mới từ nhóm các nhà khoa học thuộc Đại học Stanford và Đại học California, Berkeley đã đi đến kết luận trái ngược. Theo họ, mô hình AI hiện nay không hiểu ngữ nghĩa theo cách con người làm. Nó chỉ học cách dự đoán từ tiếp theo trong câu dựa trên hàng tỷ mẫu dữ liệu có sẵn. Nói cách khác, AI không hiểu nội dung, nó chỉ biết cách "giả vờ" như đang hiểu.

ChatGPT, Gemini hay Deepseek không ‘hiểu’ bạn đâu, sự thật là nó chỉ đang bắt chước chúng ta mà thôi
Mô hình AI hiện nay không hiểu ngữ nghĩa theo cách con người làm. Ảnh minh họa

Tư duy hay chỉ là xác suất ngôn ngữ?

Điểm mấu chốt trong nghiên cứu là quá trình hoạt động của AI không hề có nhận thức hay suy luận độc lập. Khi được đặt câu hỏi, các mô hình như ChatGPT sẽ không “nghĩ” để tìm ra câu trả lời, mà chỉ quét qua hàng loạt khả năng có thể xảy ra trong ngữ cảnh đó rồi chọn ra phương án có xác suất xuất hiện cao nhất.

Việc trả lời đúng không đến từ khả năng lý giải mà là kết quả của huấn luyện trên kho dữ liệu khổng lồ. Vì vậy, trong nhiều trường hợp, AI có thể đưa ra thông tin trôi chảy nhưng hoàn toàn sai lệch, hoặc thậm chí "bịa" ra dữ kiện không tồn tại – hiện tượng được gọi là “hallucination”.

Cảnh báo về sự phụ thuộc mù quáng vào AI

Chính vì AI không tư duy thực sự, các chuyên gia cảnh báo rằng việc con người quá tin tưởng vào công cụ này có thể gây ra hệ lụy nghiêm trọng. Khi người dùng tin rằng AI hiểu rõ mọi thứ và có thể thay thế con người trong các nhiệm vụ phức tạp, họ có xu hướng bỏ qua khâu kiểm tra và giám sát – điều vô cùng nguy hiểm trong các lĩnh vực như pháp lý, y tế, tài chính hay giáo dục.

Trong khi đó, AI không có khả năng đánh giá đạo đức, không hiểu bối cảnh xã hội và không thể đưa ra quyết định dựa trên giá trị nhân văn. Nó là công cụ mạnh mẽ, nhưng cũng giống như một chiếc gương biết nói: chỉ phản chiếu những gì từng được ghi lại, chứ không thể tự sáng tạo ra nhận thức thật sự.

Không phủ nhận lợi ích, nhưng cần sử dụng đúng cách

Những cảnh báo từ giới nghiên cứu không nhằm phủ nhận vai trò của trí tuệ nhân tạo trong đời sống hiện đại. Trái lại, AI vẫn đang mang lại giá trị to lớn cho sản xuất, sáng tạo nội dung, dịch thuật, hỗ trợ người khuyết tật, tự động hóa doanh nghiệp và hàng loạt lĩnh vực khác.

Vấn đề nằm ở cách chúng ta hiểu và sử dụng công nghệ này. Cần nhìn nhận AI là công cụ hỗ trợ – không phải một dạng trí tuệ thay thế con người. Khi nhận thức được giới hạn thực sự của AI, chúng ta mới có thể xây dựng một tương lai công nghệ an toàn, bền vững và mang tính bổ trợ, thay vì đối đầu với nó như một “trí tuệ nhân tạo vượt tầm kiểm soát”.