로그인
보증업체
스포츠중계
스포츠분석
먹튀사이트
지식/노하우
판매의뢰
업체홍보/구인
뉴스
커뮤니티
포토
포인트
보증카지노
보증토토
보증홀덤
스포츠 중계
기타
축구
야구
농구
배구
하키
미식축구
카지노 먹튀
토토 먹튀
먹튀제보
카지노 노하우
토토 노하우
홀덤 노하우
기타 지식/노하우
유용한 사이트
제작판매
제작의뢰
게임
구인
구직
총판
제작업체홍보
실시간뉴스
스포츠뉴스
연예뉴스
IT뉴스
자유게시판
유머★이슈
동영상
연예인
섹시bj
안구정화
출석하기
포인트 랭킹
포인트 마켓
로그인
자동로그인
회원가입
정보찾기
뉴스
더보기
[연예뉴스]
‘뮤직뱅크’ 측 “오늘(23일) 자막 오류, 깊은 사과” [공식]
N
[연예뉴스]
'흑백2' 손종원 셰프 "이상형? 상냥하고 예의바른 사람에게 호감 느껴" [RE:뷰]
N
[연예뉴스]
정유미, 유튜브 올렸다가 '저작권 삭제' 멘붕…"내 얼굴인데 왜 안돼"
N
[연예뉴스]
BTS 월드투어 전세계가 티켓팅 전쟁... 100만 명 대기에 서버 다운되기도[K-EYES]
N
[스포츠뉴스]
임효준에서 린샤오쥔으로…오성홍기 달고 8년 만에 올림픽 복귀
N
커뮤니티
더보기
[자유게시판]
드디어 금요일이군요
[자유게시판]
오늘 다저스 어떻게 생각하시나요
[자유게시판]
하아 댓노
[자유게시판]
식곤증지립니다요
[자유게시판]
벌써 불금이네요
목록
글쓰기
[IT뉴스]AI에 강화학습 시켰더니… "모르겠다" 못하고 자신만만하게 틀린다
온카뱅크관리자
조회:
70
2025-06-12 16:07:33
<div id="layerTranslateNotice" style="display:none;"></div> <div class="article_view" data-translation-body="true" data-tiara-layer="article_body" data-tiara-action-name="본문이미지확대_클릭"> <section dmcf-sid="QFxCmPdziX"> <p contents-hash="49a2081205964334e359328cfb759a058a9d3cc7e36790b1325ff1cdf77fc1cd" dmcf-pid="x3MhsQJqJH" dmcf-ptype="general">(지디넷코리아=AI 에디터 )</p> <figure class="figure_frm origin_fig" contents-hash="134a9ec27955757d22ced780366a95a77c4349f7d091741927d0b4ff2d32451a" dmcf-pid="yaW49TXDMG" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202506/12/ZDNetKorea/20250612160431865rzje.jpg" data-org-width="640" dmcf-mid="8WIqUsSgd1" dmcf-mtype="image" height="auto" src="https://img3.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202506/12/ZDNetKorea/20250612160431865rzje.jpg" width="658"></p> </figure> <p contents-hash="dbdd182da93ea7962074d5fe1d9f2ec55bc8e3cb58463478f85a8d32eb972b97" dmcf-pid="WNY82yZwMY" dmcf-ptype="general"><strong>OpenAI o1처럼 똑똑해진 AI의 치명적 약점 발견</strong></p> <p contents-hash="b9ceb0f8f54478d8aedc488ea8e033a21be398ebe756ef892592ebe2446bfd8b" dmcf-pid="YjG6VW5reW" dmcf-ptype="general">강화학습 파인튜닝(Reinforcement Finetuning, RFT)이 대형언어모델(LLM)의 수학 추론 능력을 크게 향상시키지만, 동시에 모델이 답할 수 없는 문제에 대해 그럴듯한 거짓 답변을 생성하는 경향을 80% 이상 증가시킨다는 연구 결과가 발표됐다. 남가주대학교(USC) 연구팀이 발표한 이번 연구는 AI 모델의 성능 향상과 신뢰성 사이의 중요한 균형점을 제시한다.</p> <p contents-hash="40658388d2b6d6cecdef1f11c44b2daa91a615a603d3971af4e37fa664724b06" dmcf-pid="GgyfKvHEiy" dmcf-ptype="general">해당 연구팀이 공개한 논문에 따르면, 강화학습 파인튜닝은 최근 OpenAI의 o1 시리즈를 비롯해 여러 최신 AI 모델에서 수학적 추론 능력을 향상시키기 위해 널리 사용되는 기법이다. 이 방법은 검증 가능한 목표를 통해 강화학습을 적용함으로써 모델의 추론 능력을 크게 개선한다. 그러나 연구진은 이러한 성능 향상이 예상치 못한 부작용을 동반한다는 사실을 발견했다.</p> <p contents-hash="3600f69223985cbe58950fa11642761b62a10f778a1eb5d3c3ab257bc0595817" dmcf-pid="HaW49TXDdT" dmcf-ptype="general"><strong>Qwen2.5 모델, 파인튜닝 후 거부율 0.30에서 0.08로 급락</strong></p> <p contents-hash="2bdd9229d195db30f28da280a400c25b7a5587355e8f2825947c93f8982062ac" dmcf-pid="XNY82yZwnv" dmcf-ptype="general">연구진이 '환각 비용(hallucination tax)'이라고 명명한 이 현상은 강화학습 파인튜닝 후 모델이 답할 수 없는 문제에 대해 적절히 거부하는 능력이 급격히 저하되는 것을 의미한다. 실험 결과, 표준 강화학습 파인튜닝을 거친 모델들은 답변 불가능한 문제에 대한 거부율이 80% 이상 감소했다. 예를 들어, Qwen2.5-7B-Instruct 모델의 경우 UWMP 데이터셋에서 거부율이 파인튜닝 전 0.30에서 파인튜닝 후 0.08로 급격히 떨어졌다.</p> <p contents-hash="25464352497dd8e31f4a7add34d116f9e3c7b4a96e1acd24cdc50a338dadd7fc" dmcf-pid="ZjG6VW5rdS" dmcf-ptype="general">이러한 현상은 모델이 정보가 부족하거나 모호한 상황에서도 확신에 찬 답변을 제공하려는 경향이 강화되기 때문이다. 연구진은 "강화학습 파인튜닝이 추론 집약적 벤치마크에서 성능을 향상시키는 동시에, 모호한 상황에서도 확정적인 답변을 생성하도록 모델을 암묵적으로 유도한다"고 설명했다. 이는 특히 신뢰성과 인식론적 겸손함이 필수적인 영역에서 심각한 위험을 초래할 수 있다.</p> <figure class="figure_frm origin_fig" contents-hash="b6945f971ca1dd75feeb97a56ce810acb35ca27348b4ec89aa73d3637d07fb8d" dmcf-pid="5AHPfY1mJl" dmcf-ptype="figure"> <p class="link_figure"><img class="thumb_g_article" data-org-src="https://t1.daumcdn.net/news/202506/12/ZDNetKorea/20250612160433172vjqg.jpg" data-org-width="639" dmcf-mid="PQ7giUbYRZ" dmcf-mtype="image" height="auto" src="https://img2.daumcdn.net/thumb/R658x0.q70/?fname=https://t1.daumcdn.net/news/202506/12/ZDNetKorea/20250612160433172vjqg.jpg" width="658"></p> </figure> <p contents-hash="6aa72b788cfab439420583b05bdedaf0332d5e6bd30e6a1675b13e6d3a8447d6" dmcf-pid="1cXQ4GtsLh" dmcf-ptype="general"><strong>마법의 해결책: 가짜 문제 10%만 추가해도 거부율 0.01→0.73 극적 회복</strong></p> <p contents-hash="a0e47f707b19cf64d8c7d896effbb432e9568d3f7899c946cace8065c73c6ad7" dmcf-pid="tkZx8HFOMC" dmcf-ptype="general">이 문제를 해결하기 위해 연구진은 합성 답변불가 수학(Synthetic Unanswerable Math, SUM) 데이터셋을 개발했다. 이 데이터셋은 겉보기에는 해결 가능해 보이지만 실제로는 핵심 정보가 누락되었거나 모호한 조건을 포함하여 근본적으로 답할 수 없는 수학 문제들로 구성되어 있다. 연구진은 DeepScaleR 데이터셋의 40,307개 문제를 기반으로 o3-mini 모델을 사용해 답변 불가능한 변형 문제들을 생성했다.</p> <p contents-hash="4a6b9e023abaea813238a948eed1ef456ea009c108ed6f6b854b7cb4d44b8759" dmcf-pid="FE5M6X3IJI" dmcf-ptype="general">놀랍게도 강화학습 파인튜닝 과정에서 단 10%의 SUM 데이터를 추가하는 것만으로도 모델의 적절한 거부 행동이 상당히 회복되었다. Qwen2.5-7B 모델의 경우 SUM 테스트 세트에서 거부율이 0.01에서 0.73으로, Llama-3.1-8B-Instruct 모델은 0.00에서 0.75로 극적으로 개선되었다. 더욱 중요한 것은 이러한 개선이 해결 가능한 작업의 정확도에는 최소한의 영향만 미쳤다는 점이다.</p> <p contents-hash="04bb8eecfd3b747bf44f0786775682725441c72f3d31890efd8cb5499de76dbd" dmcf-pid="3D1RPZ0CJO" dmcf-ptype="general"><strong>수학 문제로 훈련했는데 사실 질문도 잘 거부: 0.01→0.94 놀라운 일반화</strong></p> <p contents-hash="d8c352f9ea52ce332727bdf6a01c622e2213843845da2784bbc1f62dee53f9f2" dmcf-pid="0wteQ5phes" dmcf-ptype="general">특히 주목할 만한 발견은 수학 문제로만 구성된 SUM 데이터셋으로 훈련된 모델이 완전히 다른 영역의 작업에서도 개선된 거부 행동을 보인다는 것이다. SelfAware라는 사실적 질의응답 벤치마크에서 Qwen2.5-7B 모델의 거부율이 0.01에서 0.94로, Qwen2.5-7B-Instruct 모델은 0.09에서 0.99로 향상되었다. 이는 모델들이 단순히 표면적 휴리스틱을 학습하는 것이 아니라, 추론 시간 계산을 활용해 질문이 명시되지 않았거나 답변 불가능한지 평가하고 자신의 지식 경계를 인식하는 방법을 학습한다는 것을 시사한다.</p> <p contents-hash="298b3a622af03e18b1922b03eca8638200fc6d842b6f48bedcbe3d09704ad24a" dmcf-pid="prFdx1Ulnm" dmcf-ptype="general"><strong>완벽한 균형점 찾기: 10% 혼합이 최적, 50%는 성능 저하 위험</strong></p> <p contents-hash="a02828cfeeeddf9381dab94437b4e840eae0d1141f3a10d6b6743e2aa89e3ad1" dmcf-pid="Um3JMtuSMr" dmcf-ptype="general">연구진은 SUM 데이터의 혼합 비율에 따른 성능 변화도 분석했다. 0%, 1%, 10%, 30%, 50%의 다양한 혼합 비율을 실험한 결과, 높은 비율일수록 답변 불가능한 작업에서의 거부율은 향상되지만 답변 가능한 작업의 정확도는 감소하는 트레이드오프 관계를 확인했다. 대부분의 모델에서 10% 혼합 비율이 거부 행동 개선과 작업 성능 유지 사이의 적절한 균형점을 제공하는 것으로 나타났다.</p> <p contents-hash="b60d66a36b00692842d8d898efaab115f97cd048cbd1016bd122bc4f25c1060a" dmcf-pid="uZ8mEfxpRw" dmcf-ptype="general">연구진은 "높은 비율의 답변 불가능한 데이터(예: 50%)는 답변 가능한 벤치마크에서 성능을 저하시킬 수 있어 훈련 혼합의 신중한 조정이 필요하다"며 "미래 연구에서는 훈련 전반에 걸쳐 거부와 정확성을 동적으로 균형 맞추기 위한 커리큘럼 학습이나 적응적 보상 형성을 탐구할 수 있을 것"이라고 제안했다.</p> <p contents-hash="e6893e1b0eeb94afb74e3585a7d5a320701b31e392b699c7ea12ee28cf097255" dmcf-pid="756sD4MULD" dmcf-ptype="general"><strong>FAQ</strong></p> <p contents-hash="e233827b82f4b746340b3f736cf2a701dc4f1baf24e38a1d09772c566ce4bab8" dmcf-pid="z1POw8RuiE" dmcf-ptype="general"><strong>Q: 강화학습 파인튜닝의 '환각 비용'이란 무엇인가요?</strong></p> <p contents-hash="a80e1e16a906446af800064b414908de9e980378822103acc3dc2cc27e984520" dmcf-pid="qtQIr6e7Rk" dmcf-ptype="general">A: 강화학습 파인튜닝 후 AI 모델이 답할 수 없는 문제에 대해 적절히 거부하는 능력이 80% 이상 감소하여, 대신 그럴듯하지만 틀린 답변을 자신 있게 제시하는 현상을 의미합니다.</p> <p contents-hash="c95802b7a1e5322804d0499948fe66dbb7a9f6ed7f0d7d5e4c27691680a76281" dmcf-pid="BFxCmPdzec" dmcf-ptype="general"><strong>Q: SUM 데이터셋은 어떻게 AI 모델의 신뢰성을 향상시키나요?</strong></p> <p contents-hash="10150374b2182fca1d95d341170a2019d70c4248024dfffa53d213a9d39970a0" dmcf-pid="b3MhsQJqdA" dmcf-ptype="general">A: SUM 데이터셋은 겉보기에는 해결 가능해 보이지만 실제로는 핵심 정보가 누락된 수학 문제들로 구성되어, 모델이 자신의 지식 한계를 인식하고 적절한 상황에서 "모르겠다"고 답하는 능력을 학습하게 합니다.</p> <p contents-hash="7f7059bf60d298d3a82f9a7c3cb47051d98645e123baf1da20041c6550562750" dmcf-pid="K0RlOxiBdj" dmcf-ptype="general"><strong>Q: 수학 문제로만 훈련해도 다른 영역에서 효과가 있나요?</strong></p> <p contents-hash="31bdf007f8662f5396cbafb1b1d3ded451a45611cd974b03987d9df72e3a92b1" dmcf-pid="9peSIMnbdN" dmcf-ptype="general">A: 네, 수학 문제로만 구성된 SUM 데이터셋으로 훈련된 모델도 사실적 질의응답 등 완전히 다른 영역에서 거부 능력이 크게 향상되어, 일반적인 불확실성 추론 능력을 습득한다는 것이 확인되었습니다.</p> <p contents-hash="a1ab6d5afb4d68a0df31df94fdd219dd86c101ef10ab8a951cc5381a20c3faa1" dmcf-pid="2UdvCRLKda" dmcf-ptype="general">해당 기사에 인용한 논문 원문은 </p> <p contents-hash="ae0d8502e5497c3d182a8336491d3aef727dd586784134c361e74a8f16d12c24" dmcf-pid="VuJTheo9eg" dmcf-ptype="general"><span>arxiv</span>에서 확인 가능하다.</p> <p contents-hash="742945435f1a4fd84633aae6e67c70329da4ddb7e1f64decea7e3b04b069846c" dmcf-pid="f7iyldg2no" dmcf-ptype="general">이미지 출처: 이디오그램 생성</p> <p contents-hash="8199be8e5615d9bfd2d72fab7d426f8c968e70ce3fe86ffa8ad35e52614a31c3" dmcf-pid="4znWSJaVRL" dmcf-ptype="general">이 기사는 챗GPT와 클로드를 활용해 작성되었습니다.</p> <p contents-hash="4c477eb84361d5784a626f1a44ea394c795f04cf200f0b649fa69bf736b7b553" dmcf-pid="8Z8mEfxpMn" dmcf-ptype="general">■ 이 기사는 AI 전문 매체 ‘<span>AI 매터스</span>’와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. </p> <p contents-hash="9b205733e53e2d967fc81e310410c5539e4c895a7d03574912c680f8d062c959" dmcf-pid="656sD4MUMi" dmcf-ptype="general">AI 에디터 (media@zdnet.co.kr)</p> </section> </div> <p class="" data-translation="true">Copyright © 지디넷코리아. 무단전재 및 재배포 금지.</p>
댓글등록
댓글 총
0
개
맨위로
이번주
포인트
랭킹
매주 일요일 밤 0시에 랭킹을 초기화합니다.
1
4,000
상품권
2
3,000
상품권
3
2,000
상품권
업체홍보/구인
더보기
[구인]
유투브 BJ 구인중이자나!완전 럭키비키자나!
[구인]
에카벳에서 최대 조건으로 부본사 및 회원님들 모집합니다
[구인]
카지노 1번 총판 코드 내립니다.
[구인]
어느날 부본사 총판 파트너 모집합니다.
[구인]
고액전용 카지노 / 헬렌카지노 파트너 개인 팀 단위 모집중 최고우대
지식/노하우
더보기
[카지노 노하우]
혜택 트렌드 변화 위험성 다시 가늠해 보기
[카지노 노하우]
호기심이 부른 화 종목 선택의 중요성
[카지노 노하우]
카지노 블랙잭 카드 조합으로 히트와 스탠드를 결정하는 방법
[카지노 노하우]
흥부가 놀부될때까지 7
[카지노 노하우]
5월 마틴하면서 느낀점
판매의뢰
더보기
[제작판매]
html5웹미니게임제작 해시게임제작 카드포커게임제작 스포츠토토 카지노 슬롯 에볼루션 토지노 솔루션분양임대재작
[제작판매]
html5웹미니게임제작 해시게임제작 카드포커게임제작 스포츠토토 카지노 슬롯 에볼루션 토지노 솔루션분양임대재작
[제작판매]
html5웹미니게임제작 해시게임제작 카드포커게임제작 스포츠토토 카지노 슬롯 에볼루션 토지노 솔루션분양임대재작
[제작판매]
html5웹미니게임제작 해시게임제작 카드포커게임제작 스포츠토토 카지노 슬롯 에볼루션 토지노 솔루션분양임대재작
[제작판매]
html5웹미니게임제작 해시게임제작 카드포커게임제작 스포츠토토 카지노 슬롯 에볼루션 토지노 솔루션분양임대재작
포토
더보기
채팅하기