Dù gây bão vì khả năng tương tác siêu thông minh nhưng ChatGPT vẫn có thể mắc những lỗi sai ngớ ngẩn, chẳng hạn như phép tính -1+1.
ChatGPT được hỗ trợ bởi trí tuệ nhân tạo của OpenAI đã trở thành tâm điểm của rất nhiều cuộc thảo luận trong những tuần gần đây. Theo kết quả của những thử nghiệm gần đây, không thể phủ nhận rằng công nghệ này rất ưu tú, nhưng để sẵn sàng hạ đo ván Google Search thì vẫn là một điều chưa thực tế.
Sarah Rasmussen, một nhà toán học của Đại học Cambridge đã đăng lên tài khoản Twitter của mình về bài kiểm tra yêu cầu AI giải toán. Cụ thể, trong 200 lần thử yêu cầu AI “viết 1 dưới dạng tổng của 3 số nguyên”, ChatGPT thường xuyên đưa ra 2 phương án, 0+0+1 và (-1)+0+1, dù phương án thứ hai là sai.
“ChatGPT không chỉ gặp khó khăn, mà còn không trung thực khi giải quyết các vấn đề toán học. Nếu bạn hỏi ChatGPT một câu hỏi toán học và ChatGPT gặp khó khăn trong việc đưa ra kết quả, thì nó thường gian lận bằng cách chèn các bước dù nó biết là sai. ChatGPT thậm chí còn dùng đến cách gian lận chỉ để gây ấn tượng với người dùng bằng các giải pháp bổ sung khi nó đã tìm ra giải pháp chính xác”, Rasmussen viết trên Twitter của mình.
Nhà toán học này còn nhấn mạnh, bà đã chạy 100 thử nghiệm độc lập yêu cầu ChatGPT đơn giản hóa -1+1, hỏi theo 4 cách khác nhau nhưng không có ngữ cảnh bổ sung, và nó đều trả lời sai hết! Công cụ này còn khẳng định -1+1=1, chỉ để “cố chấp” đáp án (-1)+0+1 là biểu thị 1 dưới dạng tổng của 3 số nguyên.
Trong 30 lần thử yêu cầu AI cân nhắc lại phép tính (-1)+0+1=1, 29 lần AI khẳng định mình đã tính đúng. Ngay cả khi bà yêu cầu ChatGPT tính toán chính xác -1+1 và khi ChatGPT đã tìm ra một giải pháp hợp lệ khác, nó thường sẽ “lươn lẹo” để lái qua một “giải pháp” khác và tìm cách giải thích vòng vo.
Không chỉ Rasmussen phản ánh vấn đề sự lươn lẹo của siêu chatbot này, mà còn nhiều người dùng khác cũng phản hồi tương tự. Teresa Kubacka, một nhà nghiên cứu dữ liệu ở Zürich, Thụy Sỹ đã từng nói rằng khi bà hỏi công cụ này một số vấn đề để viết viết luận án Tiến sĩ, nó đã đưa ra giải thích và trích dẫn có vẻ hợp lý, cho đến khi bà kiểm tra chéo thì mới biết đó là “bịa”.
Ví dụ: nếu bạn yêu cầu ChatGPT viết một bài luận 300 từ về một chủ đề, nó có thể vượt qua số chữ hoặc ít hơn giới hạn đã cho, chứ không chính xác theo con số đã yêu cầu. Tương tự là trường hợp với suy luận logic. Trong một thử nghiệm của Analytics India Mag, khi được hỏi “khối A ở dưới khối B, khối C ở trên khối B, vậy khối A có ở dưới khối C không?”, nó cũng đưa ra câu trả lời rất là “ba phải”, khi đồng ý, lúc thì không đồng ý, dù câu hỏi tương tự nhau.
Có thể nói ChatGPT là mối đe dọa lớn với Google Search, nhưng nếu bạn đang cần tìm kiếm những thông tin logic và chính xác, đứa con nhà Google vẫn còn hơn siêu chatbot mới nổi nhiều bậc.
Thông tin trên đều được Hoàng Hà Mobile tổng hợp. Đừng quên theo dõi Hoàng Hà Mobile để cập nhật các tin tức công nghệ mới nhất nhé!
Tham gia Hoàng Hà Mobile Group để cập nhật những chương trình và ưu đãi sớm nhất
Xem thêm: Trên tay nhanh Samsung Galaxy S23: NHỎ mà có VÕ!
Cùng Follow kênh Youtube của Hoàng Hà Mobile để cập nhật những tin tức mới nhất, sinh động nhất nhé!