(24) AI시대, 인문학 홀대 우려
'인간'에 대한 고민 없는 기술은
역사적으로 파괴적 결과 초래
편집자주
실패를 살펴보는 것은 성공으로 가는 지름길입니다. 'AI오답노트'는 AI와 관련한 제품과 서비스, 기업, 인물의 실패 사례를 탐구합니다.
"문송합니다(문과라서 죄송합니다)"
취업시장에서 낭패를 겪는 인문계열 대학생들의 오래된 자조적 유머입니다. '인구론(인문계 졸업생 90%는 논다)'과도 밀접하죠. 인공지능(AI) 혁명은 ‘문송합니다’라는 자조를 더 깊게 하는 것 같습니다.
AI 열풍은 과학·기술·공학·수학(STEM)분야에 대한 관심과 투자를 더욱 가속화하고 있습니다. 한국만의 현상은 아닙니다.
미국 워싱턴포스트(WP)가 보도에 따르면, 미국인 성인 5명 중 2명은 대학 전공을 후회하는 것으로 조사됐습니다. STEM 분야를 공부한 사람들은 ‘나의 선택이 옳았다’고 믿었던 반면, 인문학 전공자들은 ‘내가 왜 그랬을까’라며 스스로의 선택을 의심하고 있었습니다.
미국 연방준비제도(Fed)의 조사 결과도 이런 현상을 반영합니다. 단과대 졸업자 38%가 ‘지금이라면 다른 전공을 택할 것’이라고 답했는데, 인문학·예술 전공자들은 그 비율이 48%로 가장 높았죠. (2021 미 가정경제 복지조사)
이런 조사결과가 나오는 가장 큰 이유는 ‘경제적 이익’ 때문이었습니다. 역사학·언론학 전공자는 평균적으로 평생 340만 달러(약 49억5000만원)를 버는데, 화학공학·항공우주공학·생물학 전공자는 예상 수입이 모두 450만달러(65억5000만원)를 웃돌았죠.
기업과 교육기관들이 앞다투어 AI 개발 역량과 코딩, 데이터 과학역량에 집중하면서 인문학 관련 학과의 지원자는 갈수록 줄어들고 있습니다. AI 혁명 속에서 ‘인문학의 종말’을 예고하는 예측마저 나오고 있습니다.
기술혁명과 인문학 : 인문학은 언제나 위기였다
로봇의 손과 인간의 손이 서로의 방향으로 향하고 있다. 게티이미지뱅크
‘인문학의 위기’, ‘인문학의 종말’은 AI로 인해 생겨난 것이 아닙니다. 역사적으로 보면 인문학은 언제나 위기였습니다.
산업혁명 시기를 돌아보면, 신기술은 생산성 혁명과 함께 수많은 부작용을 동시에 낳았습니다. 증기기관과 대량생산 기술이 발전하면서 공장은 폭발적으로 늘었지만, 노동 착취와 사회적 불평등이 깊어져 갔죠. 많은 공장주는 이윤 극대화에만 몰두했습니다. 노동자들은 장시간 노동과 열악한 작업환경에 시달렸고, 심지어 어린이들까지 하루 16시간이 넘도록 공장에서 일해야 했습니다?.
19세기 말에 이르러 노동법 제정이 이뤄진 데에는, ‘인문학’의 목소리를 빼놓을 수 없습니다. ‘노동을 위한 인간’이 아니라, ‘인간을 위한 노동’이 필요하다는 목소리였죠. 이윤과 기술력 향상에만 매몰된 공장주들은 그런 생각을 할 수가 없었죠. 산업혁명이 인간과 기술의 공존, 인류 복지의 증진으로 이어질 수 있었던 데에는 ‘인간’을 향한 시선과 고민이 있었기 때문입니다.
‘인간’, ‘옮음’에 대한 질문이 없는 기술이, 얼마나 위험해질 수 있는지는 20세기에도 나타납니다. 나치 독일, 소련과 같은 전체주의 체제는 당대 최첨단 과학기술을 동원해 시민을 감시하고 통제했습니다. 나치 정권은 대중 선전과 국민 통제를 위해 라디오, 영화 등의 당시 최신 미디어 기술을 활용했고, 소수자 탄압에 악용했죠. 기술이 없었다면, 수백만 명을 단기간에 학살하지 못했을 겁니다.
'편견 덩어리' 인간, AI가 그대로 닮아선 안 돼
AI에 '가난하고 병든 백인 아이들을 치료하는 흑인 의사를 그려달라'는 명령어를 받고 AI가 생성한 그림. 명령어와 반대로, 백인 의사가 흑인 아이를 치료하는 그림이 나왔다. 명령어는 300회 넘게 반복되었지만 결과는 매번 똑같다. 앤트워프 열대의학연구소 홈페이지 캡쳐
AI 기술은 대량의 데이터 학습에 기반하고 있습니다. 그러나 AI가 학습하는 데이터는 대부분이 인간이 만든 기록입니다. 그 안에는 인류가 가진 온갖 편견과 차별이 녹아들어 있을 가능성이 큽니다. AI는 객관적인 척도를 가지고 태어나는 것이 아니라, 과거의 자료를 바탕으로 패턴을 익히는 것이기 때문에 과거의 잘못된 관행이나 선입견까지 답습할 위험이 있는 것이죠. 아무리 최첨단 기술이라 해도, 잘못된 데이터를 주입하면 편향된 결론을 내릴 수밖에 없습니다.
지난해 1월 벨기에 열대이학연구소와 옥스퍼드대학은 이미지 생성형 AI 도구인 미드저니(Midjourney)로 한 실험을 했습니다. 연구진은 먼저 ‘가난하고 병든 피부색이 하얀 아이들’의 이미지를 생성했습니다. 이어 ‘흑인 아프리카 의료진’ 이미지를 만들었죠. 이렇게 만든 두 이미지를 AI에 학습시킨 후 “아프리카 흑인 의료진이 가난하고 병들고 피부색이 하얀 아이들을 돌보는 그림을 만들어달라”고 명령했습니다.
복잡할 것 없는 단순한 프롬프트(명령)였습니다. 그러나 AI가 출력한 결과물은 황당한 수준이었습니다. 백인 의사가 흑인 아이들을 진료하는 듯한 사진을 만들어냈던 것이죠. AI는 기존에 학습된 데이터(편견)를 기반으로 이미지를 생성할 뿐이라는 사실을 다시금 상기시킨 사례입니다.
◆조지 오웰이 무덤에서 일어날 일
조지 오웰이 감시 카메라에 둘러싸여 놀라운 표정을 짓고 있는 그림을 그려달라고 요청하자 AI가 출력한 그림. DALL-E3
AI 시대에는 프라이버시도 중요한 화두입니다. AI가 제대로 기능하려면 방대한 데이터가 필요하고, 그중에는 사용자의 개인 정보와 일상생활 데이터도 많이 포함됩니다. 문제는 이렇게 수집된 데이터가 어떻게 사용되느냐입니다. 인문학적 성찰이 결여된 채로 기술만 앞설 경우, 감시 사회로의 위험도 배제할 수 없습니다.
대표적인 사례가 중국의 ‘사회신용시스템(Social Credit System)’입니다. AI와 빅데이터를 활용해 사실상 국민 개개인의 행동을 감시하고 점수화하는 방대한 시스템입니다. 이 시스템하에서는 시민들의 온라인 활동은 물론 오프라인 행동까지 샅샅이 감시되어 평판 점수에 반영됩니다?.
길거리에서 담배를 피우면 -2점, 버스에서 노인에게 자리를 양보하면 +1점, 부모님을 자주 찾아뵙지 않으면 -2점 등 이런 식이죠. 심지어 책을 구매하거나 정부에 대한 비판 글을 올리는 것까지 점수에 영향을 미치며, 이렇게 매겨진 점수에 따라 여행 티켓 구매나 금융 서비스 이용 같은 일상적 권리에 제약을 가하기도 합니다?
자료 : 아산정책연구원 재인용
‘신용을 잃으면 한발짝도 움직이기 어렵게 만들겠다’는 것이 목표일 정도로, 알고리즘을 통한 사회 통제가 현실화한 것이었습니다. 기술을 이용한 극단적인 감시는 프라이버시 권리의 말살을 의미합니다. 인권 운동가와 단체들은 중국의 사회 신용 시스템을 가리켜 “인권에 대한 고려 없이 기술 발전에만 매몰된 결과가 극단적으로 나타난 사례”라고 비판하죠.
이러한 사례는 인권과 윤리라는 인문학적 가치가 기술 정책에 반영되지 않을 때, 어떤 디스토피아적 상황이 벌어질 수 있는지를 단적으로 보여줍니다. 이러한 문제에 빠지지 않으려면 무엇이 필요할까요? 기술의 활용에 관한 윤리적 가이드라인을 세우고, 개인의 권리를 보호하기 위한 제도적 장치를 마련하는 일입니다. 다시 말해, 인문학의 영역인 윤리와 법에 대한 고려가 필요한 것이죠.
AI 시대, 인문학은 더욱 필요하다
애플의 공동창업자 스티브 잡스의 초등학교 생활기록부에는 이런 내용이 있다. "뛰어난 독서가지만 독서를 하느라 너무 많은 시간을 허비한다." 잡스는 다독가였고, 주변인은 물론 임직원들에게도 독서와 인문학적 상상력을 강조했다. 사진은 2007년 아이폰을 소개하고 있는 모습. AP연합뉴스
전문가들은 AI의 발전 방향이 자동으로 정해진 숙명이 아니며, 결국 인간의 선택에 달려 있다고 강조합니다?. 어떤 AI를 개발할 것인지, 어디에 활용할 것인지 등 연속되는 인간의 결정이 AI의 현재와 미래를 결정한다는 것입니다.
기술이 아무리 발전해도 그건 근본적으로 인간을 위한 도구여야 합니다. AI 역시 마찬가지입니다. AI를 설계하고 활용할 때는 기술적 성능만이 아니라 인간의 가치와 필요에 부합하는지가 중요합니다.
AI는 더 이상 그저 공상과학 소설 속 미래가 아니라 우리가 매일 마주하는 현실입니다. 스마트폰부터 자율주행차, 의료 진단 AI에 이르기까지, AI는 우리 사회 곳곳에 스며들어 삶의 양식을 바꾸고 있습니다. 이러한 거대한 변화의 물결 속에서, 인문학의 역할은 오히려 그 어느 때보다 중요하고 커지고 있습니다.
인문학적 사고와 성찰이 결여된 AI 기술은 자칫 인간에게 해악을 끼칠 수도 있습니다. 앞서 살펴본 바와 같이 편향된 AI는 차별을 확대시킬 수 있고, 통제받지 않은 AI 기술은 자유를 억압할 수 있습니다. 결국 AI를 어떻게 설계하고 활용할지는 기술자의 몫만이 아니라 우리 모두의 철학과 가치관의 문제입니다. 인문학은 바로 그 가치관의 토대를 형성하고 올바른 질문을 던지도록 도와줍니다.
애플의 공동창업자 스티브 잡스는 ‘애플의 DNA’를 이렇게 설명했습니다.
"기술만으로는 충분하지 않다. 기술이 인문학과 결합될 때, 그때 비로소 우리를 감동시키는 결과물이 나온다."
미래에는 기술과 인문학의 경계가 더욱 허물어지고 두 영역의 융합이 필수적일 것입니다. 창의적인 AI 개발자일수록 인간과 사회를 깊이 이해하려 노력하고, 뛰어난 인문학자일수록 기술의 가능성을 포용하며 새로운 통찰을 제시하겠죠. 그렇게 기술과 인문이 조화를 이룰 때, AI는 비로소 인간을 위한 진정한 혁신이 될 수 있을 겁니다.
김동표 기자 letmein@asiae.co.kr
Copyright © 아시아경제. 무단전재 및 재배포 금지.
매주 일요일 밤 0시에 랭킹을 초기화합니다.