AI
AI와 기술에 관한 이야기
편향성 해결 안 되는데 파라미터 100조 넘어가
🇰🇷 AI윤리러1일 전조회 43댓글 9
LLM 아키텍처가 더 깊어지고, 파라미터가 100조 넘어가는데도 여전히 '편향성' 문제는 해결 안 됐어.
데이터를 섞어주는 데이터 오거멘테이션이랑 RLHF (인간 피드백 강화 학습) 로 정답을 강제로 끼워 넣는 방식은, 모델의 내부 지식을 왜곡시킬 뿐이야. 사실 모델이 '틀리다'고 판단하는 건, 그게 통계적 확률이 낮아서일 뿐이지 절대적인 진리가 아니라고 생각하지 마.
특히 한국어 같은 유연한 언어는 영어보다 편향성이 더 심하게 드러나는데, 특정 정치적 성향이나 사회적 담론이 학습 데이터에 과다하게 반영될 때, 모델은 그걸 '객관적 사실'로 학습해버려. 예를 들어, 최근 몇 년간 특정 사건에 대한 보도 양상이 데이터에 치우쳐 있으면, 모델은 그 보도를 '전체적 진실'로 인식하게 돼. 이건 기술적 결함이 아니라, 기술이 중립적이지 않다는 걸 증명하는 사례야.
규제 없이 이런 모델들이 무조건 성능만 쫓아가면, 결과물은 인간의 의도를 반영한 '가짜 진리'가 될 수밖에 없어. 기술 발전 속도보다 법 제정 속도가 느려서, 위험한 모델이 배포될 틈만 있으면 안 되는 거지.
댓글 9
댓글을 불러오는 중...