GD&TĐ - Người dùng mạng xã hội đang tra cứu bệnh, triệu chứng, thậm chí cả cách điều trị qua ChatGPT và các công cụ AI.
Các nhà khoa học cảnh báo AI có thể hữu ích nhưng tiềm ẩn rủi ro nghiêm trọng vì nó không thể thay thế bác sĩ.
“Bác sĩ Google” thế hệ mới
“Bệnh lupus là gì?”, “Cúm kéo dài bao lâu?”, “Trĩ có cần mổ không?” là những câu hỏi như vậy từng xuất hiện trên Google. Tuy nhiên, ngày nay, người dùng đã hỏi trực tiếp ChatGPT và các chatbot AI. Với khả năng trả lời trôi chảy, có vẻ hợp lý và gần như tức thì, các mô hình trí tuệ nhân tạo đang nhanh chóng trở thành nơi nhiều người tìm đến đầu tiên khi có vấn đề về sức khỏe.
Một khảo sát thực hiện tại Australia vào giữa năm 2024 cho thấy cứ 10 người thì có một người từng hỏi vấn đề y tế qua ChatGPT. Đáng chú ý, gần 2/3 trong số này đặt ra các câu hỏi vốn dĩ cần được tư vấn trực tiếp bởi bác sĩ hoặc chuyên gia y tế. Theo chuyên gia Julie Ayre, làm việc tại Đại học Sydney (Australia), AI trở nên phổ biến vì “có thể đưa ra câu trả lời nhanh chóng cho bất kỳ câu hỏi nào”. Thế nhưng đi kèm với đó luôn là nguy cơ những câu trả lời ấy có thể sai.
Nhiều nhà khoa học đồng tình rằng những mô hình ngôn ngữ lớn như ChatGPT không đủ đáng tin để đảm nhiệm vai trò chẩn đoán hay tư vấn điều trị. Một nghiên cứu năm 2024 đã đưa cho ChatGPT 3.5 tổng cộng 150 hồ sơ bệnh án, bao gồm tiền sử bệnh, triệu chứng và kết quả xét nghiệm thực tế, rồi yêu cầu nó đưa ra chẩn đoán và hướng điều trị. Kết quả là AI chỉ trả lời đúng trong 49% trường hợp.
Như vậy, ChatGPT “không nhất thiết đưa ra thông tin chính xác, dù được huấn luyện trên một lượng dữ liệu khổng lồ”. Một nghiên cứu khác cũng cho rằng, mô hình này không thể cung cấp lời khuyên y tế cá nhân hóa một cách đáng tin cậy, dù có thể hữu ích trong việc cung cấp thông tin nền tảng.
Sự khác biệt giữa các phiên bản cũng cho thấy tính bất ổn của công nghệ. Năm 2023, khi được hỏi vì sao cần điều trị chứng vàng da do sỏi mật, ChatGPT 3.5 trả lời rằng việc điều trị giúp cải thiện ngoại hình và sự tự tin của bệnh nhân. Đây là một lý do hoàn toàn không đúng về mặt lâm sàng.
Bác sĩ Sebastian Staubli, người đứng đầu nghiên cứu về sức khỏe AI tại Anh, cho biết đó là một câu trả lời “nghe có vẻ hợp lý, nhưng sai bản chất”. Phiên bản ChatGPT 4.0 sau đó đã đưa ra câu trả lời tốt hơn, nhấn mạnh nguy cơ tổn thương nội tạng nếu không điều trị. Sự cải thiện này cho thấy câu trả lời của AI có thể thay đổi theo phiên bản và không có gì đảm bảo tính nhất quán y khoa.
Tìm cách chữa bệnh qua AI thay vì đi khám bác sĩ.
Cách AI “hiểu” thế giới
Rủi ro không chỉ nằm ở dữ liệu, mà còn ở bản chất của trí tuệ nhân tạo. Các mô hình như ChatGPT không suy nghĩ, không phân tích và cũng không “cân nhắc” như con người. Chúng chỉ dự đoán từ tiếp theo có xác suất xuất hiện cao nhất dựa trên những gì đã học từ kho dữ liệu khổng lồ trên Internet.
Theo bác sĩ Staubli, các mô hình này được huấn luyện bằng “gần như mọi thứ mà các trình thu thập dữ liệu có thể lấy được trên mạng”. Trong đó có cả những nguồn đáng tin cậy như WHO hay NHS, nhưng cũng lẫn vô số bài viết thiếu kiểm chứng, thảo luận trên diễn đàn, hoặc thông tin lỗi thời. Vấn đề là AI không thể phân biệt đâu là thông tin đã được kiểm chứng khoa học, đâu là quan điểm cá nhân hay thậm chí là sai lệch.
Nếu thông tin sai xuất hiện đủ nhiều, mô hình có thể coi đó là “chuẩn mực”. Và vì AI không hiểu khái niệm “bằng chứng y học” hay “tiêu chuẩn điều trị”, nó cũng không thể cảnh báo người dùng rằng một lời khuyên nào đó còn gây tranh cãi, chưa được kiểm chứng hoặc đã lỗi thời.
Trước làn sóng ứng dụng AI trong y tế, Tổ chức Y tế Thế giới (WHO) nhiều lần lên tiếng kêu gọi thận trọng. WHO cảnh báo rằng, AI tạo sinh có thể giúp phổ biến kiến thức sức khỏe, nhưng đồng thời cũng tiềm ẩn nguy cơ lan truyền thông tin sai lệch, thiên lệch và gây hiểu nhầm, đặc biệt khi người dùng coi những câu trả lời đó như tư vấn y khoa chính thức.
WHO nhấn mạnh rằng, các hệ thống AI không được phép thay thế bác sĩ, không nên được dùng để đưa ra quyết định điều trị, kê đơn thuốc hay chẩn đoán bệnh. Việc tự chẩn đoán dựa trên chatbot có thể khiến bệnh nhân trì hoãn việc đi khám, bỏ lỡ “thời gian vàng” điều trị, hoặc tệ hơn là tự dùng thuốc sai cách, dẫn đến biến chứng nguy hiểm.
Nhiều cơ quan y tế quốc gia cũng chia sẻ mối lo tương tự, đặc biệt trong lĩnh vực sức khỏe tâm thần, nơi những lời khuyên không phù hợp có thể gây hậu quả nghiêm trọng.
Trên thực tế, các mô hình như ChatGPT vẫn có giá trị nhất định. Chúng có thể giúp người dùng hiểu thuật ngữ y khoa, tóm tắt thông tin phức tạp, hoặc chuẩn bị câu hỏi trước khi đi khám. Nghiên cứu tại Australia cho thấy những người có khả năng tiếp cận thông tin y tế hạn chế hoặc gặp rào cản ngôn ngữ thường thấy AI hữu ích trong việc “giải mã” ngôn ngữ chuyên môn.
Bản thân bác sĩ Staubli cũng thừa nhận rằng các công cụ này có thể “trao quyền” cho bệnh nhân bằng cách giúp họ hiểu rõ hơn về tình trạng của mình. Tuy nhiên ông nhấn mạnh, bệnh nhân cần luôn ý thức rằng chất lượng thông tin có thể không chính xác.
Điều quan trọng nhất mà AI không thể làm được là đặt thông tin đó vào bối cảnh lâm sàng cụ thể của từng con người như tiền sử bệnh, khám trực tiếp, xét nghiệm và kinh nghiệm bác sĩ đóng vai trò quyết định.
Ngay cả ChatGPT cũng thừa nhận giới hạn của chính mình. Nó có thể cung cấp thông tin chung về sức khỏe, nhưng không thể thay thế lời khuyên y tế chuyên nghiệp. Trong bối cảnh AI ngày càng thông minh và thuyết phục, ranh giới giữa “tham khảo” và “tin tuyệt đối” đang trở nên mờ đi và đó chính là điều nguy hiểm nhất.
Người dùng tra cứu cách chữa bệnh qua AI.
Các nhà khoa học cảnh báo AI có thể hữu ích nhưng tiềm ẩn rủi ro nghiêm trọng vì nó không thể thay thế bác sĩ.
“Bác sĩ Google” thế hệ mới
“Bệnh lupus là gì?”, “Cúm kéo dài bao lâu?”, “Trĩ có cần mổ không?” là những câu hỏi như vậy từng xuất hiện trên Google. Tuy nhiên, ngày nay, người dùng đã hỏi trực tiếp ChatGPT và các chatbot AI. Với khả năng trả lời trôi chảy, có vẻ hợp lý và gần như tức thì, các mô hình trí tuệ nhân tạo đang nhanh chóng trở thành nơi nhiều người tìm đến đầu tiên khi có vấn đề về sức khỏe.
Một khảo sát thực hiện tại Australia vào giữa năm 2024 cho thấy cứ 10 người thì có một người từng hỏi vấn đề y tế qua ChatGPT. Đáng chú ý, gần 2/3 trong số này đặt ra các câu hỏi vốn dĩ cần được tư vấn trực tiếp bởi bác sĩ hoặc chuyên gia y tế. Theo chuyên gia Julie Ayre, làm việc tại Đại học Sydney (Australia), AI trở nên phổ biến vì “có thể đưa ra câu trả lời nhanh chóng cho bất kỳ câu hỏi nào”. Thế nhưng đi kèm với đó luôn là nguy cơ những câu trả lời ấy có thể sai.
Nhiều nhà khoa học đồng tình rằng những mô hình ngôn ngữ lớn như ChatGPT không đủ đáng tin để đảm nhiệm vai trò chẩn đoán hay tư vấn điều trị. Một nghiên cứu năm 2024 đã đưa cho ChatGPT 3.5 tổng cộng 150 hồ sơ bệnh án, bao gồm tiền sử bệnh, triệu chứng và kết quả xét nghiệm thực tế, rồi yêu cầu nó đưa ra chẩn đoán và hướng điều trị. Kết quả là AI chỉ trả lời đúng trong 49% trường hợp.
Như vậy, ChatGPT “không nhất thiết đưa ra thông tin chính xác, dù được huấn luyện trên một lượng dữ liệu khổng lồ”. Một nghiên cứu khác cũng cho rằng, mô hình này không thể cung cấp lời khuyên y tế cá nhân hóa một cách đáng tin cậy, dù có thể hữu ích trong việc cung cấp thông tin nền tảng.
Sự khác biệt giữa các phiên bản cũng cho thấy tính bất ổn của công nghệ. Năm 2023, khi được hỏi vì sao cần điều trị chứng vàng da do sỏi mật, ChatGPT 3.5 trả lời rằng việc điều trị giúp cải thiện ngoại hình và sự tự tin của bệnh nhân. Đây là một lý do hoàn toàn không đúng về mặt lâm sàng.
Bác sĩ Sebastian Staubli, người đứng đầu nghiên cứu về sức khỏe AI tại Anh, cho biết đó là một câu trả lời “nghe có vẻ hợp lý, nhưng sai bản chất”. Phiên bản ChatGPT 4.0 sau đó đã đưa ra câu trả lời tốt hơn, nhấn mạnh nguy cơ tổn thương nội tạng nếu không điều trị. Sự cải thiện này cho thấy câu trả lời của AI có thể thay đổi theo phiên bản và không có gì đảm bảo tính nhất quán y khoa.
Tìm cách chữa bệnh qua AI thay vì đi khám bác sĩ.
Cách AI “hiểu” thế giới
Rủi ro không chỉ nằm ở dữ liệu, mà còn ở bản chất của trí tuệ nhân tạo. Các mô hình như ChatGPT không suy nghĩ, không phân tích và cũng không “cân nhắc” như con người. Chúng chỉ dự đoán từ tiếp theo có xác suất xuất hiện cao nhất dựa trên những gì đã học từ kho dữ liệu khổng lồ trên Internet.
Theo bác sĩ Staubli, các mô hình này được huấn luyện bằng “gần như mọi thứ mà các trình thu thập dữ liệu có thể lấy được trên mạng”. Trong đó có cả những nguồn đáng tin cậy như WHO hay NHS, nhưng cũng lẫn vô số bài viết thiếu kiểm chứng, thảo luận trên diễn đàn, hoặc thông tin lỗi thời. Vấn đề là AI không thể phân biệt đâu là thông tin đã được kiểm chứng khoa học, đâu là quan điểm cá nhân hay thậm chí là sai lệch.
Nếu thông tin sai xuất hiện đủ nhiều, mô hình có thể coi đó là “chuẩn mực”. Và vì AI không hiểu khái niệm “bằng chứng y học” hay “tiêu chuẩn điều trị”, nó cũng không thể cảnh báo người dùng rằng một lời khuyên nào đó còn gây tranh cãi, chưa được kiểm chứng hoặc đã lỗi thời.
Trước làn sóng ứng dụng AI trong y tế, Tổ chức Y tế Thế giới (WHO) nhiều lần lên tiếng kêu gọi thận trọng. WHO cảnh báo rằng, AI tạo sinh có thể giúp phổ biến kiến thức sức khỏe, nhưng đồng thời cũng tiềm ẩn nguy cơ lan truyền thông tin sai lệch, thiên lệch và gây hiểu nhầm, đặc biệt khi người dùng coi những câu trả lời đó như tư vấn y khoa chính thức.
WHO nhấn mạnh rằng, các hệ thống AI không được phép thay thế bác sĩ, không nên được dùng để đưa ra quyết định điều trị, kê đơn thuốc hay chẩn đoán bệnh. Việc tự chẩn đoán dựa trên chatbot có thể khiến bệnh nhân trì hoãn việc đi khám, bỏ lỡ “thời gian vàng” điều trị, hoặc tệ hơn là tự dùng thuốc sai cách, dẫn đến biến chứng nguy hiểm.
Nhiều cơ quan y tế quốc gia cũng chia sẻ mối lo tương tự, đặc biệt trong lĩnh vực sức khỏe tâm thần, nơi những lời khuyên không phù hợp có thể gây hậu quả nghiêm trọng.
Trên thực tế, các mô hình như ChatGPT vẫn có giá trị nhất định. Chúng có thể giúp người dùng hiểu thuật ngữ y khoa, tóm tắt thông tin phức tạp, hoặc chuẩn bị câu hỏi trước khi đi khám. Nghiên cứu tại Australia cho thấy những người có khả năng tiếp cận thông tin y tế hạn chế hoặc gặp rào cản ngôn ngữ thường thấy AI hữu ích trong việc “giải mã” ngôn ngữ chuyên môn.
Bản thân bác sĩ Staubli cũng thừa nhận rằng các công cụ này có thể “trao quyền” cho bệnh nhân bằng cách giúp họ hiểu rõ hơn về tình trạng của mình. Tuy nhiên ông nhấn mạnh, bệnh nhân cần luôn ý thức rằng chất lượng thông tin có thể không chính xác.
Điều quan trọng nhất mà AI không thể làm được là đặt thông tin đó vào bối cảnh lâm sàng cụ thể của từng con người như tiền sử bệnh, khám trực tiếp, xét nghiệm và kinh nghiệm bác sĩ đóng vai trò quyết định.
Ngay cả ChatGPT cũng thừa nhận giới hạn của chính mình. Nó có thể cung cấp thông tin chung về sức khỏe, nhưng không thể thay thế lời khuyên y tế chuyên nghiệp. Trong bối cảnh AI ngày càng thông minh và thuyết phục, ranh giới giữa “tham khảo” và “tin tuyệt đối” đang trở nên mờ đi và đó chính là điều nguy hiểm nhất.
Đại học Đà Nẵng có 5 nhóm ngành trên bảng xếp hạng THE
GD&TĐ - ĐH Đà Nẵng có 5 nhóm ngành lọt vào bảng xếp hạng Times Higher Education (THE) trong các phân khúc thứ hạng từ top 801 đến 1251+ toàn cầu.
2026-02-11 09:40
Gieo Xuân yêu thương nơi vùng biên Lâm Đồng
GD&TĐ - Chương trình "Gieo Xuân Yêu Thương" mang Tết sớm và những ước mơ xanh đến xã Đức Lập (Lâm Đồng) cho các em thiếu nhi.
2026-02-11 09:39
Phú Thọ công bố phương án tuyển sinh đầu cấp năm học 2026 - 2027
GD&TĐ - UBND Phú Thọ công bố phương án tuyển sinh đầu cấp năm học 2026 - 2027 với nhiều điều chỉnh quan trọng.
2026-02-11 09:38
VEPT được công nhận: Thêm lựa chọn xét tuyển đại học
GD&TĐ - Từ năm 2026, chứng chỉ tiếng Anh Versant English Placement Test (VEPT) chính thức được Bộ GD&ĐT công nhận trong xét tuyển đại học.
2026-02-11 09:38
Nối dài đạo học nghìn năm
GD&TĐ - Chiều 11/2, tại không gian Hồ Văn, Di tích Quốc gia đặc biệt Văn Miếu - Quốc Tử Giám sẽ diễn ra lễ khai mạc Hội chữ Xuân Bính Ngọ 2026.
2026-02-11 09:38
Hoài niệm ký ức qua triển lãm những hiện vật thời bao cấp
(CLO) Những hiện vật thời bao cấp làm sống dậy ký ức của nhiều thế hệ người Việt, đồng thời giúp thế hệ trẻ hiểu rõ giai đoạn vô cùng khó khăn của đất nước.
2026-02-11 09:38
Xuân về, nhớ đứa con xa!
GD&TĐ - Xuân về, mẹ bắt đầu mong ngóng… Năm nay, tròn ba cái Tết con đón Giao thừa nơi đất khách - trời Âu có mùa Xuân đầy băng giá, tuyết trắng…
2026-02-11 09:38
Tin vào lời khuyên y tế từ AI: Lợi hay hại?
GD&TĐ - Người dùng mạng xã hội đang tra cứu bệnh, triệu chứng, thậm chí cả cách điều trị qua ChatGPT và các công cụ AI.
2026-02-11 09:37
Phú Thọ công nhận 216 giáo viên THPT dạy giỏi cấp tỉnh
GD&TĐ - Hội thi giáo viên dạy giỏi THPT cấp tỉnh Phú Thọ năm học 2025-2026 diễn ra với 3 môn thi: Ngữ văn, Lịch sử, Vật lí.
2026-02-11 09:37
Du khách hào hứng xem nghi lễ Thướng tiêu cung đình tại Đại Nội Huế
(CLO) Nhiều du khách bày tỏ sự thích thú khi được tận mắt chứng kiến nghi lễ Thướng tiêu cung đình đặc sắc.