Theo một cuộc khảo sát gần đây của các chuyên gia trong ngành, các phương pháp hiện tại đối với trí tuệ nhân tạo (AI) khó có thể tạo ra các mô hình sánh ngang với trí tuệ con người.
Trong số 475 nhà nghiên cứu AI được khảo sát, 76% cho rằng việc mở rộng quy mô các mô hình ngôn ngữ lớn (LLMs) để đạt được trí tuệ nhân tạo tổng hợp (AGI)—cột mốc giả thuyết mà các hệ thống học máy có thể học và tư duy hiệu quả như con người hoặc thậm chí vượt trội hơn—là "không khả thi" hoặc "rất khó xảy ra".
Điều này phủ nhận một cách rõ ràng những dự đoán của ngành công nghệ, bắt đầu từ cơn sốt AI tạo sinh năm 2022, cho rằng các mô hình AI hiện tại chỉ cần thêm dữ liệu, phần cứng, năng lượng và tiền bạc để vượt qua trí tuệ con người. Tuy nhiên, khi các mô hình gần đây dường như đang chững lại, đa số các nhà nghiên cứu được khảo sát bởi Hiệp hội Phát triển Trí tuệ Nhân tạo (AAAI) tin rằng các công ty công nghệ đã rơi vào một ngõ cụt—và tiền bạc không thể giải quyết được vấn đề này.

"Ngay sau khi phát hành GPT-4, chúng tôi đã nhận thấy rõ rằng những tiến bộ từ việc mở rộng quy mô là rất nhỏ và tốn kém," Tiến sĩ Stuart Russell, nhà khoa học máy tính tại Đại học California, Berkeley và người tham gia tổ chức báo cáo, chia sẻ với Live Science. "[Các công ty AI] đã đầu tư quá nhiều và không thể thừa nhận sai lầm của mình, bởi họ không thể rời khỏi thị trường trong vài năm khi phải trả lại hàng trăm tỷ đô la cho các nhà đầu tư. Vì vậy, điều duy nhất họ có thể làm là tiếp tục đổ tiền vào."
Lợi nhuận giảm dần và những thách thức trong phát triển AI
Những cải tiến vượt bậc của các mô hình ngôn ngữ lớn (LLMs) trong những năm gần đây một phần nhờ vào kiến trúc transformer nền tảng. Đây là một dạng kiến trúc học sâu, được các nhà khoa học Google phát triển vào năm 2017, giúp mô hình phát triển và học hỏi qua việc hấp thụ dữ liệu huấn luyện từ đầu vào của con người.
Điều này cho phép các mô hình tạo ra các mẫu xác suất từ các mạng nơ-ron của chúng (tập hợp các thuật toán học máy được thiết kế để mô phỏng cách não bộ con người học) bằng cách đưa đầu vào khi có yêu cầu, với kết quả trả lời ngày càng chính xác hơn khi có thêm dữ liệu.
Tuy nhiên, việc mở rộng quy mô các mô hình này đòi hỏi một nguồn tài chính và năng lượng khổng lồ. Ngành công nghiệp AI tạo sinh đã huy động được 56 tỷ đô la vốn đầu tư mạo hiểm toàn cầu vào năm 2024, trong đó phần lớn được chi cho việc xây dựng các trung tâm dữ liệu khổng lồ, với lượng khí thải carbon của chúng đã tăng gấp ba lần kể từ năm 2018.

Dự báo cũng chỉ ra rằng, nguồn dữ liệu do con người tạo ra, vốn cần thiết cho sự phát triển tiếp theo, sẽ sớm cạn kiệt vào cuối thập kỷ này. Khi điều này xảy ra, các lựa chọn thay thế có thể là bắt đầu thu thập dữ liệu cá nhân từ người dùng hoặc sử dụng dữ liệu "tổng hợp" do AI tạo ra để đưa lại vào các mô hình, điều này có thể khiến chúng gặp phải nguy cơ sụp đổ do các lỗi phát sinh từ việc sử dụng lại chính đầu vào của mình.
Tuy nhiên, các chuyên gia khảo sát cho rằng, những hạn chế của các mô hình hiện tại không chỉ đến từ việc "ngốn" tài nguyên, mà còn do những yếu tố hạn chế trong kiến trúc của chúng.
"Vấn đề cơ bản của các phương pháp hiện tại là tất cả chúng đều yêu cầu huấn luyện các mạch hồi tiếp lớn," Tiến sĩ Russell cho biết. "Các mạch có những hạn chế cơ bản trong việc đại diện cho các khái niệm. Điều này có nghĩa là các mạch phải rất lớn để đại diện cho các khái niệm này, mặc dù chỉ là tương đối — giống như một bảng tra cứu được phóng đại — điều này dẫn đến nhu cầu dữ liệu khổng lồ và sự thiếu sót trong việc đại diện các khái niệm. Vì vậy, ví dụ, các người chơi thông thường có thể dễ dàng đánh bại các chương trình cờ vây 'siêu nhân'."
Tương lai phát triển của AI
Các điểm nghẽn này đã gây ra những thách thức lớn đối với các công ty đang cố gắng nâng cao hiệu suất của AI, khiến điểm số đánh giá không có sự tiến triển đáng kể và khiến mô hình GPT-5 của OpenAI vẫn chưa xuất hiện, theo nhiều chuyên gia khảo sát.
Những giả định rằng việc mở rộng quy mô có thể luôn mang lại sự cải thiện đã bị thách thức bởi công ty DeepSeek của Trung Quốc, khi họ đạt được hiệu suất tương đương với các mô hình đắt đỏ của Silicon Valley, nhưng với chi phí và năng lượng thấp hơn rất nhiều. Chính vì lý do này, 79% những người tham gia khảo sát cho rằng nhận thức về khả năng của AI hiện tại không phản ánh đúng thực tế.
"Có rất nhiều chuyên gia cho rằng đây chỉ là một 'bong bóng,'" Tiến sĩ Russell nhận định. "Đặc biệt khi những mô hình với hiệu suất tương đối cao lại được phát miễn phí." Tuy nhiên, điều này không có nghĩa là sự phát triển của AI đã dừng lại. Các mô hình lý luận — những mô hình chuyên biệt dành nhiều thời gian và sức mạnh tính toán hơn cho các câu hỏi — đã chứng minh khả năng tạo ra các phản hồi chính xác hơn so với các mô hình truyền thống.
Sự kết hợp của những mô hình này với các hệ thống học máy khác, đặc biệt là sau khi chúng được tinh chỉnh thành các quy mô chuyên biệt, mở ra một con đường hứa hẹn cho tương lai, theo các chuyên gia.

Thành công của DeepSeek cũng chỉ ra rằng vẫn còn rất nhiều không gian cho sự đổi mới trong cách thiết kế các hệ thống AI. Các chuyên gia cũng chỉ ra rằng lập trình xác suất có tiềm năng giúp xây dựng các hệ thống AI gần với AGI hơn so với các mô hình mạch hiện tại.
"Ngành công nghiệp đang đặt cược lớn vào việc AI tạo sinh sẽ mang lại những ứng dụng có giá trị cao," Tiến sĩ Thomas Dietterich, giáo sư ngành khoa học máy tính tại Đại học Oregon, người tham gia báo cáo, chia sẻ với Live Science. "Trong quá khứ, các bước tiến công nghệ lớn thường mất từ 10 đến 20 năm để tạo ra lợi nhuận lớn."
"Thường thì những công ty đầu tiên sẽ thất bại, vì vậy tôi không ngạc nhiên khi thấy nhiều startup GenAI ngày nay thất bại," ông nói thêm. "Tuy nhiên, có vẻ như một số công ty sẽ rất thành công. Tôi chỉ hy vọng biết được công ty nào."
Ben Turner là biên tập viên tại Live Science. Bài viết được đăng trên Live Science ngày 27/03/2025.
Live Science là một trang web tin tức khoa học hàng đầu, cung cấp những thông tin mới nhất về các khám phá, nghiên cứu đột phá và tiến bộ khoa học thú vị ảnh hưởng đến bạn và thế giới rộng lớn hơn. Trang web này bao gồm nhiều chủ đề như không gian, động vật, sức khỏe, khảo cổ học, hành vi con người và Trái Đất.
Biên dịch: Hà Linh