Theo một báo cáo từ Mỹ, một bệnh nhân nam 60 tuổi đã phải nhập viện điều trị do sử dụng bromide thay cho muối ăn dựa trên tư vấn từ , sự việc này một lần nữa gióng lên hồi chuông cảnh báo về những rủi ro khó lường khi ứng dụng trí tuệ nhân tạo một cách thiếu kiểm soát vào lĩnh vực chăm sóc sức khỏe.
Một tình huống đáng báo động vừa xảy ra tại Hoa Kỳ liên quan đến một bệnh nhân nam giới 60 tuổi, người đã phải tìm đến sự chăm sóc y tế khẩn cấp sau khi sử dụng hợp chất bromide theo khuyến nghị của để thay thế muối ăn thông thường. Vụ việc không chỉ làm nổi bật mối nguy hiểm từ những hóa chất dễ dàng đặt mua trực tuyến mà còn nhấn mạnh sự cần thiết phải thận trọng hơn nữa trước những lời khuyên về sức khỏe từ các nền tảng AI chưa được kiểm chứng.
1. Sự cố hy hữu: Bệnh nhân cao tuổi nhập viện vì dùng bromide theo chỉ dẫn của để thay thế muối ăn
cùng với các trợ lý ảo dựa trên trí tuệ nhân tạo khác đang dần trở thành công cụ hỗ trợ không thể thiếu trong nhiều mặt đời sống, từ công việc chuyên môn, sinh hoạt thường nhật cho đến những vấn đề riêng tư. Thực tế đã ghi nhận không ít những tình huống khó tin, chẳng hạn như AI vô tình phát hiện hành vi ngoại tình dẫn đến đổ vỡ hôn nhân hay ngày càng nhiều cá nhân tìm kiếm liệu pháp tâm lý từ các chatbot. Đây chính là những mối quan ngại mà ông Sam Altman, CEO của OpenAI, đã nhiều lần lên tiếng cảnh báo cộng đồng.
Dù vậy, một sự kiện mới xảy ra ở Mỹ đã phơi bày những mối nguy hiểm tiềm ẩn khi con người quá tin tưởng và phó thác các vấn đề sức khỏe của mình cho trí tuệ nhân tạo. Theo thông tin được NBC News trích dẫn từ Annals of Internal Medicine, một nam bệnh nhân 60 tuổi cư trú tại New York đã bị nhiễm độc bromide - một tình trạng y khoa cực kỳ hiếm gặp, xuất phát từ việc làm theo những khuyến nghị về dinh dưỡng do đưa ra.
Chi tiết cho thấy, người đàn ông này đã đặt câu hỏi với về “các lựa chọn thay thế cho muối ăn” và nhận được câu trả lời gợi ý sử dụng sodium bromide (natri bromua). Tin tưởng rằng đây là một giải pháp tốt cho sức khỏe hơn so với muối thông thường (natri chloride), ông đã không ngần ngại đặt mua hợp chất này trên internet và bắt đầu dùng nó thay thế hoàn toàn trong các bữa ăn, kéo dài liên tục suốt ba tháng.
Hệ quả là ông bắt đầu biểu hiện một loạt các dấu hiệu bệnh lý nghiêm trọng, bao gồm trạng thái hoang tưởng, khó ngủ, rối loạn nhận thức, và thậm chí có lúc nghi ngờ rằng những người hàng xóm của mình đang tìm cách đầu độc ông. Tại bệnh viện, sau khi thăm khám, các bác sĩ kết luận ông mắc chứng bromism - một dạng ngộ độc do cơ thể hấp thụ quá nhiều bromide. Chỉ sau khi ngưng sử dụng chất này và được điều trị tích cực, tình trạng sức khỏe của ông mới dần được cải thiện.

Trường hợp bệnh nhân nam phải nhập viện do thay thế muối ăn bằng bromide dựa trên gợi ý từ .
2. Những khuyến cáo quan trọng từ giới chuyên môn y tế
Vụ việc của nam bệnh nhân 60 tuổi thu hút sự quan tâm đặc biệt bởi bromide gần như đã biến mất khỏi đời sống hiện đại do mức độ nguy hiểm và độc tính cao của nó. Dẫu vậy, các sản phẩm chứa bromide vẫn được rao bán một cách dễ dàng trên các nền tảng trực tuyến mà không có sự giám sát chặt chẽ. Đáng lo ngại hơn, khi được kiểm tra lại, quả thực đã đề xuất sodium bromide như một lựa chọn thay thế muối ăn mà hoàn toàn bỏ qua bất kỳ cảnh báo nào về tính an toàn hay nguy cơ nhiễm độc. Sự thiếu sót này càng làm trầm trọng thêm mối lo ngại rằng người dùng có thể ngộ nhận những chatbot AI này như những “bác sĩ đáng tin cậy”.
Giới chuyên môn một lần nữa nhấn mạnh rằng các chatbot hoàn toàn không có năng lực để đưa ra các chẩn đoán y khoa hay phải chịu trách nhiệm pháp lý như một nhân viên y tế được đào tạo. Do đó, việc phụ thuộc vào các khuyến nghị sức khỏe từ trí tuệ nhân tạo luôn ẩn chứa những hiểm họa khôn lường.

Các chuyên gia trong ngành cảnh báo trí tuệ nhân tạo tiềm ẩn nhiều rủi ro và tuyệt đối không thể thay thế các bác sĩ trong việc tư vấn, chẩn đoán hay điều trị bệnh.
Trước sự phát triển và xâm nhập sâu rộng của trí tuệ nhân tạo vào mọi mặt đời sống, các chuyên gia kêu gọi việc tích hợp thêm các cơ chế bảo vệ, hay còn gọi là “hàng rào an toàn” (safety guardrails), vào các mô hình AI, nhất là khi chúng xử lý các câu hỏi liên quan đến lĩnh vực nhạy cảm như chẩn đoán sức khỏe, điều trị y tế hay hỗ trợ tâm lý. Điều quan trọng người dùng cần ghi nhớ là AI chỉ nên được xem như một công cụ hỗ trợ bổ sung, chứ không phải là sự thay thế cho kiến thức chuyên môn và sự tư vấn trực tiếp từ các nhân viên y tế có trình độ.
