의료 상담을 위해 ChatGPT를 신뢰하면 안 되는 5가지 이유

의료 상담을 위해 ChatGPT를 신뢰하면 안 되는 5가지 이유
당신과 같은 독자는 MUO를 지원하는 데 도움이 됩니다. 귀하가 당사 사이트의 링크를 사용하여 구매하면 당사는 제휴 수수료를 받을 수 있습니다. 자세히 알아보기

OpenAI에서 개발한 인공 지능(AI) 챗봇인 ChatGPT는 의학적 조언 요청을 포함하여 많은 단순하고 어려운 질문에 답하기 위한 올인원 도구가 되었습니다. 의학적 질문에 답하고 USMLE(United States Medical Licensing Exam)에서 에이스를 받을 수 있지만 병원에서 의사와의 약속을 대체할 수는 없습니다.





오늘의 메이크업 비디오 콘텐츠를 계속하려면 스크롤하세요.

ChatGPT가 발전함에 따라 의료 부문을 완전히 변화시킬 잠재력이 있습니다. 의료 시스템과 통합되면 치료에 대한 환자 접근성을 개선하고 의사의 업무 효율성을 높일 수 있습니다. 그러나 AI 기반이기 때문에 잠재적인 위험에 대한 몇 가지 우려가 존재합니다.





1. ChatGPT는 지식이 제한적입니다.

  돼지 심장

ChatGPT는 모든 것을 알지 못합니다. OpenAI에 따르면 ChatGPT는 특히 2021년 9월 이후에 발생한 일에 대한 지식이 제한적입니다.





ChatGPT는 검색 엔진이나 인터넷에 직접 액세스할 수 없습니다. 책, 웹 사이트 및 기타 텍스트를 포함하여 수많은 소스의 방대한 양의 텍스트 데이터를 사용하여 훈련되었습니다. 전달하는 데이터를 '알지' 못합니다. 대신 ChatGPT는 읽은 텍스트를 사용하여 사용할 단어와 순서에 대한 예측을 생성합니다.

따라서 의료 분야의 발전에 대한 최신 뉴스를 얻을 수 없습니다. 예, ChatGPT는 돼지에서 인간으로의 심장 이식 또는 기타 최근 의학 분야의 돌파구를 알지 못합니다.



마시멜로 앱을 SD 카드로 이동

2. ChatGPT가 잘못된 정보를 생성할 수 있음

ChatGPT는 귀하가 묻는 질문에 답변할 수 있지만 응답이 부정확하거나 편향될 수 있습니다. 에 따르면 PLoS 디지털 건강 연구에서 ChatGPT는 모든 USMLE 시험에서 최소 50%의 정확도로 수행되었습니다. 그리고 일부 측면에서 60% 통과 임계값을 초과했지만 여전히 오류 가능성이 있습니다.

또한 ChatGPT를 교육하는 데 사용되는 모든 정보가 신뢰할 수 있는 것은 아닙니다. 확인되지 않았거나 잠재적으로 편향된 정보에 기반한 응답은 부정확하거나 시대에 뒤떨어질 수 있습니다. 의학계에서 부정확한 정보는 생명을 앗아갈 수도 있습니다.





ChatGPT는 독립적으로 자료를 조사하거나 검증할 수 없기 때문에 사실과 허구를 구분할 수 없습니다. JAMA(Journal of the American Medical Association)를 비롯한 존경받는 의학 저널은 인간만이 저널에 게재할 과학 연구를 작성할 수 있도록 엄격한 규정을 마련했습니다. 결과적으로, ChatGPT의 응답을 지속적으로 사실 확인해야 합니다. .

3. ChatGPT는 신체 검사를 하지 않습니다.

의학적 진단은 증상에만 의존하지 않습니다. 의사는 환자의 신체 검사를 통해 질병의 패턴과 중증도에 대한 통찰력을 얻을 수 있습니다. 환자를 진단하기 위해 오늘날 의사들은 의료 기술과 오감을 모두 사용합니다.





ChatGPT는 완전한 가상 검진 또는 신체 검사를 수행할 수 없습니다. 메시지로 제공하는 증상에만 회신할 수 있습니다. 환자의 안전과 관리를 위해 신체 검사의 오류 또는 신체 검사를 완전히 무시하는 것은 해로울 수 있습니다. ChatGPT는 신체 검사를 하지 않았기 때문에 잘못된 진단을 내립니다.

4. ChatGPT는 허위 정보를 제공할 수 있습니다.

  ChatGPT 거짓 응답

최근 연구 메릴랜드 대학교 의과대학 유방암 검사에 대한 ChatGPT의 조언에서 다음 결과를 발견했습니다.

'ChatGPT가 자신의 주장을 뒷받침하기 위해 때때로 가짜 저널 기사나 건강 컨소시엄을 구성하는 것을 경험으로 확인했습니다.' —Paul Yi M.D., UMSOM 진단 방사선 및 핵의학 조교수

ChatGPT 테스트의 일환으로 잠재의식이라는 주제를 다루는 논픽션 도서 목록을 요청했습니다. 그 결과 ChatGPT는 Gustav Kuhn 박사의 '무의식의 힘'이라는 제목의 가짜 책을 제작했습니다.

우리가 그 책에 대해 물었을 때, 그것은 자신이 만든 '가상' 책이라고 대답했습니다. ChatGPT는 더 이상 문의하지 않으면 저널 기사나 책이 거짓인지 알려주지 않습니다.

5. ChatGPT는 AI 언어 모델일 뿐입니다

  채팅GPT Medical

언어 모델은 환자의 상태를 검사하거나 연구하기보다는 텍스트를 암기하고 일반화하는 기능을 합니다. 언어와 문법 면에서 인간의 기준에 부합하는 응답을 생성함에도 불구하고, ChatGPT에는 여전히 많은 문제가 있습니다. , 다른 AI 봇과 매우 유사합니다.

ChatGPT는 의사를 대신할 수 없습니다.

의료 결정에 대한 최종 결정을 내리려면 항상 인간 의사가 필요합니다. ChatGPT는 일반적으로 의학적 조언을 요청할 때 면허가 있는 의사와 상담할 것을 권장합니다.

누군가 다른 나라에서 내 페이스북에 로그인을 시도했습니다

ChatGPT와 같은 인공 지능 기반 도구를 사용하여 의사 약속을 예약하고 환자가 치료를 받도록 돕고 건강 정보를 유지할 수 있습니다. 하지만 의사의 전문성과 공감을 대신할 수는 없다.

신체적이든 정신적이든 건강을 진단하거나 치료하기 위해 AI 기반 도구에 의존해서는 안 됩니다.