'챗GPT 등 생성형 AI기술 활용 보안 가이드라인' 제정 위해 산·학·연 의견 청취
각계 전문가 의견 및 현장 목소리 반영
국가정보원이 챗GPT 등 생성형 인공지능(AI) 기술 활용 과정에서 발생할 수 있는 보안 문제를 예방하기 한 가이드라인을 마련해 이달 중 배포할 예정이라고 11일 밝혔다.
이번 국정원의 보안 가이드라인 제정은 관련 기술 활용과정에서 ▲업무상 비밀·개인정보 유출 ▲가짜뉴스·비윤리적 자료 생성 등 기술 악용 우려가 제기돼 온 가운데, AI 기술을 통해 행정업무 효율화를 달성하려는 정부 기관들을 지원하기 위한 것이다.
최근 미국과 유럽연합은 정부 차원에서 챗GPT 사용 시 부작용 방지를 위한 'AI 행동강령' 제작을 시작했고, 이탈리아 정부는 '정보보호' 명목으로 챗GPT 접속을 차단했다가 운영사의 보안 조치 시행 확인 후 접속을 재개하기도 했다. 또한 국내·외 민간 기업들도 사내 보안정책을 강화하는 추세다.
이에 국정원은 지난 4월부터 국가보안기술연구소 및 학계 전문가 합동으로 '챗GPT 등 생성형 AI 기술 활용 보안 가이드라인' 제정에 착수했으며 가이드라인 안(案)에는 ▲생성형 AI 기술 개요 및 보안위협 ▲안전한 AI 기술 사용 방안 ▲기관 정보화 사업 보안대책 등의 내용을 담았다.
이를 위해 국정원은 지난 9일 관련 분야 산·학·연(산업계·학계·연구기관) 전문가 의견을 청취하기 위해 '국가 사이버안보 민관 협의체 회의'를 개최했다고 전했다.
이날 회의에는 '국가 사이버안보 민관 협의체' 소속 AI 기술 및 정보보안 전문가를 비롯해 행정안전부·교육부 등 각 부처 정보보안 담당자 등 60여명이 참석했다.
권태경 한국정보보호학회 AI보안연구회 부위원장은 "기술의 발전만큼 중요한 것이 관련 보안제도의 마련"이라며 "보안정책의 기틀 위에서 AI 기술 활용이 이뤄져야 한다"고 말했다.
아울러 국정원은 "국가기관에서 AI 기술 사용 시 민간기술 등을 활용해 정부 차원 AI 모델을 행정업무망 내부에 자체 구축하는 형태가 돼야 한다"며 정부 기관들의 AI 시스템 구축 고려사항을 제시하기도 했다.
국정원은 "이날 논의된 내용과 기관별 애로사항을 반영해 이달 중 전체 국가 공공기관 및 지방자치단체에 보안 가이드라인을 배포할 계획"이라며 "앞으로 지속 등장하는 IT 신기술에 대한 보안대책을 적시 마련해 각급 기관의 안전한 정보통신기술 활용을 지원할 방침"이라고 덧붙였다.
Copyright ⓒ Metro. All rights reserved. (주)메트로미디어의 모든 기사 또는 컨텐츠에 대한 무단 전재ㆍ복사ㆍ배포를 금합니다.
주식회사 메트로미디어 · 서울특별시 종로구 자하문로17길 18 ㅣ Tel : 02. 721. 9800 / Fax : 02. 730. 2882
문의메일 : webmaster@metroseoul.co.kr ㅣ 대표이사 · 발행인 · 편집인 : 이장규 ㅣ 신문사업 등록번호 : 서울, 가00206
인터넷신문 등록번호 : 서울, 아02546 ㅣ 등록일 : 2013년 3월 20일 ㅣ 제호 : 메트로신문
사업자등록번호 : 242-88-00131 ISSN : 2635-9219 ㅣ 청소년 보호책임자 및 고충처리인 : 안대성