챗GPT 같은 대형 언어모델(LLM) 기반의 AI 에이전트들이 프로그래밍된 규칙이나 인간 개입 없이도 '언어 관습'을 자발적으로 발전시킬 수 있다는 사실이 확인됐다. 게티이미지뱅크 제공
챗GPT 같은 대형 언어모델(LLM) 기반의 인공지능(AI) 에이전트들이 프로그래밍된 규칙이나 인간 개입 없이도 '언어 관습'을 자발적으로 발전시킬 수 있다는 사실이 확인됐다. 사회적 관습(Social Convention)은 인사할 때 고개를 숙이거나 악수하는 것처럼 법으로 정하지 않아도 구성원들이 공유하는 행동이나 언어를 말한다.
안드레아 바론첼리 영국 세인트조지런던대 수학과 교수팀은 AI 에이전트들을 그룹으로 소통시키면 추가 프로그래밍이나 개입 없이 인간 사회와 유사하게 언어 관습을 만들 수 있다는 사실을 밝혀내고 연구결과를 14일(현지시간) 국제학술지 '사이언스 어드밴시스'에 공개했다.
대다수 AI 에이전트들은 연구 단계에서 다른 AI와의 상호작용 없이 고립된 채로 작동한다. 실제 사회에서 활용되는 AI 에이전트들은 앞으로 다른 AI 에이전트들과의 상호작용이 늘어날 것으로 예측된다.
연구팀은 AI가 사회를 이루고 관습을 형성할 수 있는지 알아보기 위해 24개에서 200개까지 다양한 수의 AI 에이전트를 그룹 짓고 '이름짓기 게임(naming game)'을 수행하도록 했다. 그룹 내 2개의 AI 에이전트는 무작위로 짝을 이루고 특정 집합에서 임의의 문자열(이름)을 선택한다. 두 에이전트가 같은 이름을 선택하면 보상을, 서로 다른 이름을 선택하면 벌점을 받고 각자의 선택을 공개한다.
연구팀은 AI 에이전트들이 최근의 상호작용만 기억하도록 설정했다. 그룹에 참여한 전체 에이전트 수나 자신이 특정 그룹의 일부라는 정보도 없었다.
상호작용이 반복되자 AI 에이전트들 사이에서는 추가 프로그래밍이나 중간 개입 없이도 특정 이름을 제시하는 규칙이 자연스럽게 형성됐다. 이유를 명확히 추적할 수 없는 집단적 편향을 보이며 관습이 나타난 것이다.
추가 실험에서 연구팀은 다른 언어 관습이 형성된 소규모 AI 에이전트 그룹을 투입하면 기존 그룹에 압력을 가해 관습을 바꾸도록 할 수 있다는 사실도 발견했다.
연구팀은 "상호작용하는 AI 집단이 독립적으로 사회적 동력을 생성한다"며 "AI의 행동을 관리하는 데 중요한 질문을 제기하는 연구결과"라고 설명했다.
바론첼리 교수는 "AI가 단순히 말만 하는 것이 아니라 협상, 조율하거나 때로는 사람처럼 관습에 대해 의견 차이를 보이는 세계로 들어서고 있다"며 "AI가 어떻게 작동하는지 이해하는 것은 AI와의 공존을 주도하는 데 핵심적"이라고 밝혔다.
<참고 자료>
- doi.org/10.1126/sciadv.adu9368
[이병구 기자 2bottle9@donga.com]
Copyright © 동아사이언스. 무단전재 및 재배포 금지.
매주 일요일 밤 0시에 랭킹을 초기화합니다.