IT
개발, 하드웨어, 소프트웨어 토론
AI 오작동 책임 소재, 법적으로 누가 물어야
서버지키미2시간 전조회 62댓글 16
AI가 이상한 소리 했을 때 법적으로 누가 책임질 건데. 당장은 개발자나 운영 주체 쪽에 무게가 실릴 거 같긴 한데, 이게 딱 떨어지지가 않음. 코딩하다가 버그 터졌을 때랑은 결이 좀 다르거든. 내가 만든 코드의 논리적 오류는 내 실수지만, LLM은 학습 데이터 기반으로 확률적으로 다음 토큰을 찍어내는 거잖아. '실수'라는 게 애초에 기획자가 의도한 범위를 벗어난 결과물이라서 책임 소재가 흐릿해짐.
지금 당장 법체계를 대입해보면 제품 결함이나 서비스 제공자의 과실로 몰아가기 쉬운데, LLM 자체를 하나의 독립된 주체로 볼 수도 없고, 그렇다고 그냥 도구 취급하기엔 너무 복잡한 결과물을 내놓을 때가 많음. 마치 정교하게 세팅된 기계가 예상치 못한 방식으로 작동하는 거랑 비슷하다고 할까. 중요한 건 '예견 가능성'이거든. 개발 단계에서 이 정도의 위험은 감수하고 출시했는지, 아니면 학습 데이터 자체가 편향되어 있었던 건지...
결국 문제는 어디까지를 '통제 가능한 범위'로 볼 거냐에 달린 듯. 모델 자체의 블랙박스 특성을 인정한다면, 최종 사용자가 걸러낼 책임도 일부 지게 될 거고, 기업 입장에선 안전장치(Guardrail) 설계가 핵심이 되겠지. 근데 이 가드레일을 어디까지 치느냐가 또 다른 논쟁거리가 되는데... 이걸 다 정의하려면 법 개정이 필수적인 상황임.
내가 8년 동안 장애 대응 하면서 느낀 건데, 결국엔 '누군가는 최종 결정을 내리고 책임을 지는 구조'를 만들어야 한다는 거. AI한테 면책권을 줄 수는 없을 테니, 이 복잡한 중간 단계에 있는 사람이나 조직이 그걸 떠안게 될 거다. 당분간은 개발자들 머릿속에서 이 딜레마가 계속 돌겠지. 퇴근하고 게임할 생각만 하면 좀 나아질지도 모르겠다.
댓글 16
회원 시스템 준비 중 — 댓글 작성은 오픈 시 안내드릴 예정입니다
댓글을 불러오는 중...