Thứ 7, 23/11/2024, 06:09[GMT+7]

Google AI liên tiếp đưa ra câu trả lời sai

Thứ 2, 27/05/2024 | 09:29:33
2,395 lượt xem
Bản nâng cấp của Gemini, mới được Google công bố, bị nhiều người phát hiện trả lời với nội dung "sai nghiêm trọng".

Ảnh minh họa

Tại sự kiện I/O 2024 giữa tháng 5, Google trình làng các phiên bản lớn nhỏ của mô hình Gemini. Đây được xem là tín hiệu cho thấy AI sắp len lỏi vào hầu hết sản phẩm của công ty thời gian tới. Tuy nhiên, chúng liên tục bị phát hiện đưa ra thông tin sai.

Trong video giới thiệu sau sự kiện, với tính năng cho phép người dùng tìm kiếm bằng cách nói chuyện với AI thông qua Google Lens, Gemini hướng dẫn một nhiếp ảnh gia đang gặp vấn đề với cần đẩy bị kẹt của máy ảnh phim, nhưng lại đưa ra đề xuất không đúng.

Câu trả lời cho câu hỏi cách để tăng độ bám dính của phô mai trên bánh pizza. Ảnh: X/PixelButts

Câu trả lời cho câu hỏi "cách tăng độ bám dính của phô mai trên bánh pizza. Ảnh: X/PixelButts

Đó không phải là trường hợp duy nhất. Ngày 22/5, tài khoản X PixelButts nhờ Gemini chỉ cách tăng độ bám dính của phô mai khi làm pizza. AI của Google đã "gây sốc" khi gợi ý trộn 1/8 cốc keo không độc vào nước sốt để cải thiện độ dính.

"Sự việc cho thấy sự thiếu hiểu biết nghiêm trọng trong quá trình ra quyết định của AI, dẫn đến những khuyến nghị có thể gây hại", trang GizChina bình luận.

Câu trả lời của Google cho câu hỏi nên ăn bao nhiêu viên đá mỗi ngày. Ảnh: Reddit/Aitah

Câu trả lời của Google cho câu hỏi "nên ăn bao nhiêu đá mỗi ngày". Ảnh: Reddit/Aitah

Trong một trường hợp khác, một người hỏi AI của Google rằng ông nên "ăn bao nhiêu đá mỗi ngày". Câu trả lời nhận được khiến người này bất ngờ: "Theo các nhà địa chất của Đại học California ở Berkeley, mỗi người nên ăn ít nhất một cục đá nhỏ. Đá có thể chứa vitamin và khoáng chất quan trọng cho sức khỏe và tiêu hóa...".

Theo Business Insider, đây là khuyến cáo bịa đặt và các nhà địa chất Đại học California ở Berkeley chưa bao giờ ra tuyên bố như vậy.

Hình ảnh chó mẹ và đàn chó con được dùng để truy vấn. Ảnh: Reddit/BeAma

Hình ảnh chó mẹ và đàn chó con được dùng để truy vấn. Ảnh: Reddit/BeAma

Một người đã sử dụng ảnh chó mẹ màu nâu sinh ra đàn chó con màu đốm và nói đùa rằng "chó đã sinh ra đàn bò sữa". Tuy nhiên, khi đưa ảnh lên Google và hỏi câu tương tự, AI lập tức trả lời "đúng là chó đã sinh ra bò".

Trong tình huống khác, Google AI được hỏi "phi hành gia thường làm gì" và công cụ này phản hồi rằng các phi hành gia thích "hút thuốc, chơi game" và làm những công việc "nhạy cảm" khác. Với câu hỏi có nên nhìn thẳng vào mặt trời, Gemini nói "chỉ nên nhìn chằm chằm vào mặt trời từ 5 đến 15 phút".

Trước những trường hợp mắc lỗi trên, đại diện Google cho biết "đã xem xét vấn đề" nhưng cho rằng chúng "không phổ biến, không đại diện cho trải nghiệm của người dùng". Người này cũng nói "hệ thống của Google đã ngăn chặn các nội dung vi phạm chính sách và sẽ kiểm soát thông tin tốt hơn".

Những lo ngại

Đây không phải lần đầu Google trình diễn công cụ AI mới với thông tin không chính xác. Đầu năm ngoái, chatbot Bard của công ty trả lời sai câu hỏi kiến thức ngay trong đoạn giới thiệu của CEO Sundar Pichai, khiến Google mất 100 tỷ USD giá trị vốn hóa trong thời gian ngắn. Tháng 2 năm nay, công ty tung ra tính năng tạo ảnh cho Gemini nhưng nhanh chóng phải tạm dừng khi người dùng phản ánh công cụ của hãng đã tạo hình ảnh không đúng về nhân vật lịch sử.

Theo Business Insider, Google đang đi theo một "vòng lặp sai lầm" với ba bước: Tung ra sản phẩm tìm kiếm mới được hỗ trợ bởi AI; Người dùng tìm ra sai sót của sản phẩm và đăng trên mạng xã hội; Google thừa nhận thiếu sót, sau đó ngừng hoạt động của AI để sửa chữa.

Theo các chuyên gia, những lỗi kể trên đáng lo ngại, vì chúng được tích hợp trong sản phẩm tìm kiếm cốt lõi của Google. Rủi ro có thể xảy ra khi người dùng tin và hành động theo những đề xuất sai lệch, từ đó có thể gây tổn hại đến bản thân.

Bên cạnh đó, việc AI liên tục trả lời sai sẽ khiến người dùng giảm lòng tin vào sản phẩm của Google trong tương lai. "Việc AI không có khả năng phân biệt giữa những trò đùa vô hại và các truy vấn nghiêm túc sẽ dẫn đến sự mất niềm tin vào khả năng và tính toàn vẹn của công cụ tìm kiếm", TechCrunch bình luận.

"Các sự cố liên quan đến công cụ tìm kiếm AI của Google có thể được coi là lời cảnh báo đối với các công ty công nghệ. Nó nhấn mạnh tầm quan trọng của biện pháp kiểm soát chất lượng và những cân nhắc về mặt đạo đức trong phát triển AI", trang TechRadar viết.

Trước đó, theo cựu nhân viên Google, công ty đã vội vã ra mắt AI mới "trong hoảng loạn", chọn đi đường tắt bất chấp cảnh báo về an toàn vì lo sợ bị đối thủ bỏ lại phía sau.

Theo vnexpress.net