초거대 AI의 문제는 거짓말, 편향성, 일관성 결여...'챗GPT 기술 빠른 구현'이 목표
초거대 인공지능(AI)의 문제는 할루시네이션을 포함한 거짓말, 편향성, 일관성 결여, 세이프티 이슈인 것으로 조사됐다. 국내 초거대 AI 개발업체들은 필터링 기능과 강화학습, 센싱 기능 등을 통해 이 같은 기능을 막고 있는 것으로 나타났다. 초거대 AI 개발사들은 또 최근 오픈AI의 대화형 챗봇 '챗GPT'가 뛰어난 성능으로 큰 인기를 모음에 따라, 챗GPT 기능을 적용하거나 이와 유사한 성능을 빠른 시일 내에 도입한다는 계획이다. ◆초거대 AI 가장 큰 문제 거짓말...'할루시네이션(환각)' 문제 심각 메트로경제가 국내에서 초거대 AI를 개발하는 네이버, LG그룹, SK텔레콤, KT 등을 대상으로 초거대 AI의 단점을 조사하니 가장 큰 문제는 거짓말이었다. 초거대 AI 개발자들은 그 중에서도 할루시네이션(환각) 현상을 꼽았다. LG그룹 관계자는 "초거대 AI는 거짓말 문제가 많이 발생하는 데, 그 중에서도 틀린 정보를 그럴 듯 하게 표현하는 할루시네이션 현상이 많이 나타나고 있다. 거짓말이 사람을 속일려고 한다고 하면, 할루시네이션은 사람을 속이려고 말했다기 보다는 그럴 듯한 답변을 구사하는 것으로, 팩트가 확인되지 않은 말이 나오게 된다. 세종대왕이 맥북을 던진 사건을 설명하라고 하면 이를 그럴 듯 하게 설명한다"며 "챗GPT도 이러한 문제 때문에 후처리 과정을 거치게 된다"고 설명했다. 챗GPT에 '조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 알려줘'라고 질문을 하니 GPT-3.5가 적용된 챗GPT에서 "실제 조선왕조실록에 기록된 일화"라며 "15세기 조선시대 세종대왕이 새로 개발한 훈민정음(한글)의 초고를 작성하던 중, 문서 작성 중단에 대해 담당자에게 분노하며 맥북프로와 함께 그를 방으로 던진 사건"이라고 소개해 큰 화제가 됐다. SKT 임원도 "AI가 사실적인 데이터를 엄청나게 학습하면서 결국 사실적인 거짓말을 하게 된다"며 "페이스북에서 논문 AI를 개발했는데, AI가 사실적인 거짓말을 하는 문제가 드러나 결국 1주일만에 폐기가 됐다"고 말했다. 초거대 AI를 개발하는 KT 임원은 "초거대 AI는 가짜를 사실처럼 얘기하는 신뢰성 문제가 생긴다. 이 문제는 단기간에 해결하지 쉽지 않은 문제다. 최근 기술이 개발되면서 그런 부분들이 줄이들기는 했지만 100% 안 나오게 할 수는 없다"며 "어느 정도는 사람이 스스로 가치판단을 하면서, 어떤 게 문제가 되는 답변인 지를 판단해야 한다"고 설명했다. ◆편향성 문제, 일관성 없음, 세이프티 이슈, 초상권 문제도 대두 초거대 AI에서는 또 편향성 문제가 빈번하게 나타나고 있다. KT 임원은 "초거대 AI는 특정 계층에 대해 안 좋은 생각을 가지고 있는 사람들이 만든 데이터를 학습한다. 결국 사람들이 생각하는 편향성 데이터가 반영된다"며 편향성을 줄이기 위해 백인들에게서만 데이터를 모집하는 게 아니라 여러 인종으로부터 데이터를 모집한다. 정치적 이슈 등이 있을 수 있어 특정한 계층으로부터 데이터를 모집하는 것을 배제함에도 아직도 이러한 문제가 발생한다"고 설명했다. 초거대 AI의 또 다른 단점은 일관성이 배제돼 있다는 점이다. SKT 임원은 "초거대 AI는 메모리가 없어 일관성이 부족하다는 단점이 있다. 등산을 좋아한다고 했다가, 다음 번에는 다시 안 좋아한다고 했다가 하는 문제가 발생한다"며 "콘텐츠와 끈끈한 연결고리가 생기면 일관성을 유지해야 되는데 이 부분이 부족해 별도의 관리가 필요하다"고 밝혔다. 이와 함께 세이프티(안전성) 이슈도 빈번하게 일어나고 있다. 초거대 AI가 욕설, 성적인 내용, 범죄와 관련된 대화를 나눌 수 있어 이를 막아야 한다는 것이다. SKT 임원은 "마이크로소프트의 대화형 AI인 '테이'는 2016년 24시간 동안 트위터에서 10만건이 넘는 글을 쏟아냈는데 반인륜적 트윗을 잇따라 내보내 서비스가 중단됐다. 챗봇 '이루다'도 성적 발언, 성차별, 혐오적인 발언을 하는 등 문제가 생겨 서비스가 중단되기도 했다. 이러한 것이 세이프티 이슈로 문제 자체가 커 하나하나 개선해 나가야 하는 상황"이라고 설명했다. 또한 최근 초상권 문제도 대두되는 상황이다. AI 휴먼 여리지와 아이린이 실물이 거의 차이가 없는데, 이 같은 문제가 생겨나고 있어 초상권 문제에 대한 논의도 점차 활발해지고 있다. ◆초거대 AI 단점 개선할 수 있는 기술 적용해 이 문제 막아...챗GPT 기술 구현 과제로 네이버, LG그룹, SK텔레콤, KT 등 초거대 AI 개발사들은 이 같은 초거대 AI의 단점을 극복하기 위해 필터링 기술을 사용하고 강화학습을 시키고 센싱 기능을 적용하고 있다. 강화학습은 AI가 주어진 상태에 대해 최적의 행동을 선택하는 학습 방법을 말한다. KT는 초거대 AI '믿음'에 팩트 체크 기술을 적용하고 초거대 AI에 강화학습을 시키고 있으며, 필터링하는 API를 개발해 AI에 필터링 기술을 적용하고 있다. KT 임원은 "어떤 답변이 문제가 되는 건지 조사해 학습 데이터를 구축한다. 학습 데이터를 가지고 분류기를 만들어 이를 필터링하고 있다"며 "또한 AI에 강화학습을 시켜 잘못된 답변을 생성하지 않도록 하고 있다"고 밝혔다. SKT도 초거대 AI '에이닷'에 세이프티 필터를 적용해 욕설, 성적인 내용 등 대화를 걸러주고 있다. SKT 관계자는 "편향된 대화는 데이터를 가공하기에는 시간이 너무 늦다. 따라서 미리 문제가 될 만한 대화 내용을 걸러주는 게 핵심"이라고 설명했다. LG그룹은 초거대 AI인 '엑사원'에 센싱 기술 구현을 통해 편향적이거나 혐오적인 표현을 바로 잡아주는 기술을 적용하고 있다. LG그룹 관계자는 "데이터를 대량으로 학습했을 때 정보를 만든 사람의 편향성이 들어갈 경향이 크다"며 "데이터 확보부터 학습, 데이터 처리를 한 후 AI가 다시 사람에게 보여주는 전 과정마다 기술이 필요한 데, 오염되지 않은 데이터인 퓨어 데이터를 학습했음에도 편향성이나 혐오 표현이 나타날 수 있어 센싱 기능을 통해 이를 바로 없애는 작업을 하게 된다"며 "이 같은 후보정 작업도 필요하다"고 설명했다. 네이버는 AI 윤리원칙을 준수한 서비스를 개발하기 위해 'AI 필터'를 개발해, AI 개발도구인 '클로바 스튜디오' 등에 탑재하고 있다. 네이버 관계자는 "AI 필터 기능은 클로바 스튜디오를 통해 생성된 서비스 앱에서 욕설 등 부적절한 결과물이 출력되는 것을 감지해 사용자에게 알려주는 기능"이라며 "클로바 스튜디오 이용자는 이 같은 AI 필터를 의무적으로 사용하도록 하고 있다"고 말했다. 또한 초거대 AI 개발업체들은 최근 전 세계적으로 기술력을 인정받고 있는 챗GPT 기술이나 그와 유사한 기술을 빠르게 적용하는 것을 목표로 하고 있다. KT 임원은 "올해 내에는 챗 GPT와 유사한 기술을 적용하려고 노력하고 있다"며 "챗GPT 기술을 잘 정리하고 상용화해야 할 부분으로 모든 회사들이 챗GPT 기술이나 이와 유사한 기술을 상용화하는 것을 목표로 하고 있다"고 밝혔다. 네이버도 한국형 챗GPT인 '서치GPT'를 오는 7월 출시할 계획이다. 또 LG그룹도 챗GPT와 유사한 기능으로 '전문가 AI', 즉 각 영역별로 특화된 생성형 AI 모델(버티컬 서비스)를 개발하는 것을 목표로 하고 있다. LG그룹 관계자는 "AI·화학·바이오 등 각 분야에서 전문가를 도울 수 있는 AI를 개발 중"이라며 "하지만 이를 일반 대중에게까지 공개할 지는 아직 미정"이라고 밝혔다.