엉뚱한 답을 내놓으며 '미완' 상태인 챗GPT를 경기도와 공공기관들이 도입하기 위해 각종 기술 연구, 민간 협업에 나서고 있지만, 전문가들은 행정 데이터 개방과 관련 규제 개선 등의 노력이 수반돼야 한다고 입을 모은다.
도가 지난 6일 공개한 경기GPT 추진방향을 보면 네이버, 카카오, LG, KT 등 국내 대표 IT 기업들과 'AI 기업협의체'를 구성하고 도입 방안 등에 대해 논의한다. 또한 오는 4월부터 직원들을 대상으로 AI 역량 교육도 추진해 챗GPT를 본격적으로 행정 업무에 적용할 예정이다.
道 'AI 기업협의체' 구성 도입 논의
공문서·행정 맞춘 언어자료 '말뭉치'
그러나 신뢰성 문제를 풀기 위해선 도정에 사용되는 용어와 정보, 데이터 등이 더 투명하게 공개돼야 한다는 진단이 나온다. AI가 언어를 연구할 수 있도록 모아놓은 자료인 '말뭉치'를 도가 공문서와 행정 서비스에 맞춰 준비해 챗GPT가 사용하는 정보망에 충분히 제공돼야 오류를 줄일 수 있다는 지적이다. 특히 현재 챗GPT가 훈련받은 정보 중 영어는 61%이지만, 한국어는 0.6% 정도밖에 되지 않는 것으로 알려졌다.
김명주 서울여대 정보보호학과 교수는 "정부나 공공기관이 가진 데이터와 공문서들을 최대한 많이 '말뭉치' 형태로 확보해 챗GPT가 학습 강화할 때 충분히 이용돼야 한다"며 "그러기 위해선 주도적으로 챗GPT 개발사 등의 글로벌 AI 기업들과 민간에 데이터를 개방해야 할 것"이라고 말했다.
챗GPT 활용 과정에서 발생하는 윤리적, 부작용들에 대한 법도 미비해 제도 개선 필요성이 거론된다. 챗봇 특성상 AI와 대화 과정에서 편견, 차별이 드러나는 문장들이 나올 수 있는데, 현행법상 개발사만 책임을 지고 있는 등 규제 개혁이 뒷받침돼야 한다는 주장이다.
정보망에 제공 학습강화시 이용돼야
윤리적 부작용 법 미비 제도 개선도
이에 도는 이달 AI와 관련된 법령 개선을 위한 연구용역에 나서고, 6월에는 용역 결과가 입법으로 이어질 수 있도록 국회토론회를 개최할 예정이다.
김 교수는 "챗GPT와 같은 챗봇은 통상 관련 데이터가 없어도 확률이 높은 단어와 패턴들을 조합해 답변하도록 설계돼있다. 행정에 도입될 경우 이용자로부터 윤리, 공정, 오남용 등의 부작용이 발생할 수 있는데, 이에 대한 책임 소재와 대책 등을 판가름할 수 있는 제도적 노력이 필요하다"고 말했다.
/고건기자 gogosing@kyeongin.com