AI기술이 고도화되고, 기술에 대한 접근성은 높아지면서, 인공지능이 가져올 혁신적인 미래 모습에 대한 기대감이 커져가고 있습니다.
2023년이 AI의 성능을 증명하는 해였다면, 2024년은 본격적으로 AI가 일상에 상용화되는 기점이 될 수 있을 것 같은데요.
국내 AI 산업이 빠르게 진화하는 한 편, AI 도입으로 인한 부작용에 대해서도 간과할 수 없습니다.
AI 산업 발전에 불을 붙인 Open AI사의 ChatGPT를 사용해본 적이 있으신가요? 사용자의 질문에 따라 응답의 수준이 달라진다고 하지만, 종종 근거를 확인하기 힘든 답변으로 혼란을 빚기도 하는데요. 오늘은 현재 AI 기술력의 한계점으로 언급되고 있는 “할루시네이션”에 대해 알아보고자 합니다.
1. 할루시네이션 (Hallucination) 정의
인공지능(AI)이 정보를 처리하는 과정에서 발생하는 오류를 말한다. 영어의 원래 뜻은 환각이나 환영, 환청이다.
출처: 연합인포맥스
AI 할루시네이션은 종종 생성 AI 챗봇 또는 컴퓨터 비전 도구인 대형 언어 모델(LLM)이 인간 관찰자에게 존재하지 않거나 감지할 수 없는 패턴이나 물체를 인식하여 비상식적이거나 완전히 부정확한 출력을 생성하는 현상입니다.
출처: IBM, 번역: 웅진
즉, AI 할루시네이션은 인공지능이 대량의 데이터를 기반으로 학습되었다고 하더라도, 학습하지 못한 내용에 대해서는 근거 없는 결과물을 제공할 수 있음을 의미합니다. 할루시네이션 현상은 AI서비스를 이용하다 보면, 어렵지 않게 확인할 수 있는데요. 분명한 역사적 사실에 대해 잘못 언급하거나, 존재하지 않는 링크를 참조하여 신뢰할 수 없는 결과물을 출력해내기도 합니다.
한편, 작년 3월 Open AI Forum에는 이러한 할루시네이션 현상을 컨패뷸레이션(confabulation)으로 불러야 하는 것이 아닌지에 대한 의견이 제기되었는데요.
컨패뷸레이션은 한국 의학용어로 “작화증”을 의미하며, “자신이 직접 경험하지 않은 일을 마치 실제로 겪었던 것처럼 기억하고 있고 실제로 있었던 일이라고 믿는” 질환을 말하는데, 그 증상이 AI에서 나타나는 현상과 더 유사해 보이기 때문입니다.
2. 어떻게 예방할 수 있을까?
할루시네이션 혹은 컨패뷸레이션은 AI의 산출물에 대한 검토 필요성을 증명합니다. 전적으로 AI를 기반으로 한 서비스를 제공할 때, AI의 판단이 최종 사용자에게 부적절한 영향을 미칠 수 있기 때문입니다.
그렇다면 이를 예방할 수 있는 방법에는 무엇이 있을지, 업계에서 제안하는 예방책을 함께 살펴보겠습니다.
목적에 부합한 데이터를 활용한 AI모델 고도화
우리가 사용하는 생성형 AI는 개발 단계에서 학습한 대량의 데이터를 기반으로 결과물을 출력합니다. 따라서, AI가 어떤 데이터를 학습하였는지에 따라, 전혀 다른 퍼포먼스를 보이는데요. 실제로, 영어권 국가에서 출시되는 AI모델은 해당 언어권의 데이터를 중심적으로 학습하기 때문에 한국어로 요청된 명령에 대해서는 비교적으로 낮은 퍼포먼스를 보입니다.
이처럼, AI를 훈련하는 과정에 활용되는 데이터는 AI 결과물의 수준을 결정합니다. 따라서, 인공지능 모델의 개발 단계에서부터 그 활용목적에 맞는 데이터를 학습하는 것은 AI가 사용자의 의도에 맞는 결과물을 출력할 가능성을 높이고 할루시네이션 발생 가능성을 낮출 수 있습니다.
지속적인 테스트 및 개선 활동
인공지능 모델의 개발의 완료된 후에도 지속적인 개선 활동을 통해 시스템의 전반적인 성능을 향상시킬 수 있습니다. 특히, 기존에 학습된 데이터가 노후화되고 진화함에 따라, 모델을 조정합니다.
인간 사용자의 검토
개발단계에서 모델의 고도화가 어렵다면, 사용자가 AI 산출물을 검토하고 피드백을 제공함으로써 할루시네이션 현상을 최소화할 수 있습니다. 인공지능이 잘못된 결과물을 출력했을 때, 사용자가 직접 이를 수정함으로써 결과물의 정확성과 관련성을 높일 수 있습니다.
Reference
연합인포맥스, “[시사금융용어] 할루시네이션”
https://news.einfomax.co.kr/news/articleView.html?idxno=4269783
IBM, “What are AI hallucinations?”
https://www.ibm.com/topics/ai-hallucinations
Open AI Forum, “Hallucination vs Confabulation”
https://community.openai.com/t/hallucination-vs-confabulation/172639
서울아산병원, “작화증”
https://www.amc.seoul.kr/asan/healthinfo/easymediterm/easyMediTermDetail.do?dictId=3296