
Một người đàn ông 60 tuổi sống tại Anh, không có tiền sử bệnh tâm thần, đã phải nhập viện sau khi tự gây ra tình trạng hiếm gặp mang tên bromism, xuất phát từ việc thay thế hoàn toàn muối ăn (natri clorua) bằng sodium bromide theo lời khuyên từ ChatGPT.
Ca bệnh của ông được công bố chi tiết trên tạp chí Annals of Internal Medicine.

Ban đầu, ông tìm cách loại bỏ muối khỏi khẩu phần vì lo ngại tác hại tới sức khỏe. Sau khi trò chuyện với chatbot, ông quyết định tiến hành “thử nghiệm cá nhân” bằng cách đặt mua sodium bromide trên mạng. Đây là hợp chất từng được sử dụng đầu thế kỷ 20 để sản xuất thuốc an thần.
Không lâu sau, ông xuất hiện các triệu chứng: hoang tưởng rằng hàng xóm đầu độc mình, ảo giác cả thính giác lẫn thị giác, mất ngủ, mệt mỏi, mất điều hòa vận động và khát nước dữ dội.
Trong 24 giờ đầu nhập viện, tình trạng hoang tưởng tăng mạnh, ông tìm cách bỏ trốn và bị giữ lại điều trị tâm thần bắt buộc.
Các bác sĩ xác định ông mắc bromism - ngộ độc bromide do phơi nhiễm quá mức. Sau vài tuần điều trị, bệnh nhân hồi phục và được xuất viện.
Tác giả báo cáo cho biết họ không thể truy cập lịch sử trò chuyện nên chưa rõ chính xác chatbot đã nói gì. Tuy nhiên, khi hỏi ChatGPT về việc thay thế muối, sodium bromide xuất hiện trong danh sách gợi ý, kèm lưu ý “tùy bối cảnh” nhưng không cảnh báo an toàn như bác sĩ sẽ làm.
Theo Metro, hiện tại, câu trả lời của ChatGPT đã thay đổi, bổ sung cảnh báo “Tránh các chất thay thế độc hại” và khuyến nghị chỉ sử dụng lựa chọn an toàn, có uy tín.
Dù natri clorua có thể làm tăng huyết áp, các chuyên gia y tế nhấn mạnh nó vẫn là một phần của chế độ ăn cân bằng. Trong khi đó, bromide thường dùng để khử trùng nước hồ bơi hoặc spa và phơi nhiễm ở mức thấp hiếm khi gây hại.
Việc sử dụng AI để xin lời khuyên y tế ngày càng phổ biến: khoảng 1/6 người Mỹ từng hỏi ChatGPT về sức khỏe, còn ở Anh, 1/5 bác sĩ gia đình dùng công cụ AI.
Tuy nhiên, nhiều nghiên cứu cảnh báo chatbot có thể đưa ra thông tin sai hoặc trích dẫn các tài liệu y khoa không tồn tại.
Các tác giả báo cáo kết luận: “AI có tiềm năng kết nối các nhà khoa học với công chúng nhưng cũng tiềm ẩn rủi ro lan truyền thông tin thiếu ngữ cảnh. Một chuyên gia y tế khó có thể gợi ý sodium bromide khi bệnh nhân chỉ muốn thay thế muối ăn”.
OpenAI, công ty sở hữu ChatGPT, đã nhấn mạnh trong điều khoản sử dụng rằng công cụ này không nhằm chẩn đoán hoặc điều trị bệnh.
Phiên bản mới nhất GPT-5 được quảng bá là “tốt nhất cho các câu hỏi liên quan sức khỏe” nhưng vẫn không thay thế được bác sĩ, chỉ đóng vai trò hỗ trợ hiểu kết quả và đưa ra câu hỏi đúng khi gặp chuyên gia.
(Theo Metro)

Comments