새로 출범한 이재명 정부가 인공지능(AI)을 국가 핵심 성장 전략으로 제시한 가운데, AI 안전 조직 관련 기능 강화와 역할 재정립이 필요하다는 목소리가 커지고 있다.
세계적으로 인공지능(AI)의 안전성과 신뢰성 확보 중요성이 높아지는 가운데, 국내 AI 안전 연구 조직은 선진국 대비 인력과 예산 규모도 작고 기능이 혼재됐다는 지적이 나온다.
영국은 올해 초 'AI안전연구소(AI Safety Institute)'의 명칭을 'AI안보연구소(AI Security Institute)'로 변경, AI 기술을 국가 안보 차원에서 관리·대응하는 조직으로 확대 개편했다.
해당 연구소는 AI 모델의 위험성을 평가하고, 중앙정부와 협력해 범죄 악용 가능성을 다루는 전담 팀도 운영 중이다. 연구 인력은 100명을 넘어섰고, 연간 예산은 1억파운드(약 1800억원)에 이른다.
유럽연합(EU)과 일본 등도 AI 위험 관리를 위한 연구소 설립과 대규모 예산 투자를 병행한다. AI가 빠르게 산업과 사회에 확산되면서 관련 기술을 제도적으로 검증·통제할 수 있는 인프라 구축이 정부 주요 과제로 부상했다.
국내 AI 안전성 연구는 지난해 말 출범한 한국전자통신연구원(ETRI) 산하 'AI안전연구소'가 맡고 있다. 관련 인력은 30명 확보를 목표로 한다.
이 연구소는 AI 모델의 위험 요소를 식별하고, AI 시스템의 안전성과 신뢰성을 평가하는 역할을 수행한다. 최근에는 'GPT', '제미나이' 등 주요 생성형 모델에 대한 안전성 평가와 함께 리스크 맵 설계, AI 편향성 테스트 등 실증 기반 연구를 강화하고 있다. 여기에 AI 기술 안전성 확보를 위한 국제 네트워크 참여 등의 정책 역할까지 수행한다.
내년 1월 시행을 앞둔 AI기본법에는 '인공지능정책센터'와 '인공지능안전연구소'를 별도 기관으로 규정하고, 정책·국제 규범 대응과 기술·위험 분석이라는 역할을 각각 부여하고 있다. 다만, AI정책센터는 AI안전연구소와 달리 아직 설치 전이라 현행 제도와 조직 운영에서는 두 기능이 혼재되거나 일부 중복되는 문제가 존재한다.
전문가들은 새 정부가 AI 정책 컨트롤타워 기능을 강화하는 한편, 정책센터와 안전연구소의 기능을 실행력 있는 조직 체계로 재편하고, 각각의 역할을 분명히 해야 한다고 강조한다.
특히 AI기술, 위험 분석 등의 전문인력이 필요한 AI안전연구소에 대해 독립성과 전문성을 갖춘 별도 공공기관으로 격상시키고, 관련 기능을 수행할 수 있는 제도적 기반을 마련해야 한다는 의견이 제기됐다.
새 정부는 AI기본법을 바탕으로 대통령실 내 AI정책수석 신설, 국가인공지능위원회 기능 강화, 기술개발·인재양성·검증체계 정비 등을 추진할 계획이다.
최경진 한국인공지능법학회장(가천대 교수)은 “정책 기획과 기술 안전성 검증이라는 두 축이 상호 보완적으로 작동하기 위해서는 관련 조직들의 기능과 역할을 보다 명확히 정립할 필요가 있다”며 “AI안전연구소의 역할을 분명히 하고 독립적 공공기구로 격상하는 방안도 검토할 필요가 있다”고 강조했다.
김명희 기자 noprint@etnews.com
Copyright © 전자신문. 무단전재 및 재배포 금지.
매주 일요일 밤 0시에 랭킹을 초기화합니다.