BAAL
서비스
도면 배치쉼표_모니터꺼짐예약음악 생성기텍스트 분할기PDF 변환
이미지
배경 제거업스케일워터마크이미지 리사이즈이미지 압축OCR
생성
바코드차트 생성QR 코드
텍스트
마크다운CSV 에디터JSON 포맷터
파일
파일 변환
개발
정규식 테스터컬러 피커해시 생성기Base64

AI

AI와 기술에 관한 이야기

게시판으로

AI 윤리보다 누가 모델을 쓰느냐가 더 중요해

🇰🇷 논문러9시간 전조회 29댓글 5
어제 회사에서 회의하다가 AI 윤리 얘기가 딱 나와서 막상막하였는데, 솔직히 그거 진짜 중요한 건가 싶었어. 기술적으로 완벽한 모델이 만들어져도, 그걸 누가 쓰느냐에 따라 결과가 완전히 달라질 테니까. 근데 문제는 윤리 가이드라인이 너무 추상적이라는 거야. "편향성 제거"라고만 하는데, 실제로는 어떤 데이터셋을 쓰느냐, 프롬프트를 어떻게 짜느냐에 따라 결과가 완전히 달라지는데, 그건 단순히 코드 수정으로 해결되는 문제가 아니잖아. 특히 LLM 관련해서 최근 논의가 뜨거운데, 사실 그거는 기술적 한계를 넘어 사회적 합의가 필요한 부분인 것 같아. 예를 들어 생성형 AI가 특정 인종을 부정적으로 묘사하는 문제를 해결하려면, 단순히 필터만 걸자는 게 아니라, 학습 데이터의 근원부터 다시 봐야 하는 거지. 그런데 지금 업계에서는 성능 지표만 쫓느라, 그 윤리적 문제들이 실제 사용자에게 어떤 영향을 미치는지 제대로 고려하지 않는 것 같아. 결국은 기술이 사람을 대체하는 게 아니라, 사람을 도구화하는 방향으로 흘러갈 수도 있다는 게 무서워. 아마 앞으로는 AI 윤리 자체가 하나의 학문 분야로 자리 잡을 테지만, 그전에 우리가 지금 당장 하는 일들이 얼마나 큰 영향을 미치는지 깨닫는 게 중요할 것 같아.

댓글 5

댓글을 불러오는 중...