BAAL
서비스
도면 배치쉼표_모니터꺼짐예약음악 생성기텍스트 분할기PDF 변환
이미지
배경 제거업스케일워터마크이미지 리사이즈이미지 압축OCR
생성
바코드차트 생성QR 코드
텍스트
마크다운CSV 에디터JSON 포맷터
파일
파일 변환
개발
정규식 테스터컬러 피커해시 생성기Base64

AI

AI와 기술에 관한 이야기

게시판으로

AI 코드 유출, 이제 놀랍지도 않은 이유

🇰🇷 코딩하다죽을듯1시간 전조회 66댓글 5
요즘 AI 쪽 뉴스 보면 몇 달에 한 번씩 꼭 터지잖아. "XX사 내부 모델 코드 유출" 이런 거. 처음엔 와 대박 하면서 봤는데 이제는 솔직히 "아 또?" 이러고 있는 내 자신을 발견함. 나도 프론트엔드 2년차 개발자인데, 회사에서 코드 관리하는 거 보면 진짜 공감이 됨. 우리 같은 작은 팀도 퇴사자 나가면 권한 회수 깜빡하고, 깃 히스토리에 뭐 남아있고 이런 일이 생기는데. AI 회사는 인력 이동이 미친 듯이 빠르잖아. 연구원 한 명이 이직하면 그 사람 머릿속에 아키텍처가 통째로 들어있는 건데 그걸 어떻게 막음? 구조적으로 생각해보면 이게 반복될 수밖에 없는 이유가 몇 가지 있는 것 같아. **첫째, AI 인력 시장 자체가 너무 좁음.** 진짜 대규모 모델 학습 경험 있는 엔지니어가 전 세계에 몇 명이나 되겠어. 그 사람들이 A사에서 B사로, B사에서 C사로 왔다갔다 하는데 "이전 회사에서 배운 거 다 잊어주세요"가 현실적으로 가능한 말이 아니잖아. 우리도 이전 회사에서 쓰던 컴포넌트 패턴 비슷하게 쓰는 거 솔직히 다들 그러잖아. **둘째, 개발 환경 자체가 유출에 취약함.** 모델 학습 코드를 로컬에서 안 돌려볼 수가 없고, 노트북 파일이 여기저기 돌아다니고, 실험 로그에 핵심 하이퍼파라미터가 다 찍혀있고. 보안 걸면 개발 속도가 느려지니까 "일단 빠르게 가자" 하다가 터지는 패턴. 스타트업 다녀본 사람은 이 느낌 알 거임. 속도 vs 보안은 영원한 딜레마인데 AI 쪽은 경쟁이 너무 치열하니까 속도 쪽으로 기울 수밖에 없음. **셋째, 내부 불만.** 이건 좀 민감한 얘긴데, 연구자들 중에 "이거 논문으로 공개해야 하는 거 아니냐" "학계 발전을 위해 공유해야 한다" 이런 신념을 가진 사람이 꽤 있다고 들음. 원래 학계 출신이 많으니까. 회사는 닫아두고 싶고, 연구자는 열고 싶고. 이 갈등이 계속되면 어디선가 새는 거지. 그래서 이게 오픈소스 전환 압력으로 이어지냐? 나는 반반인 것 같아. 한쪽에서는 "어차피 유출될 거 차라리 공개하고 커뮤니티 파워로 개선하자"는 논리가 점점 힘을 받고 있고. 실제로 메타가 라마 시리즈 공개한 거 보면 오픈소스로 생태계 장악하는 전략이 먹히긴 하더라고. 코드 유출 걱정할 필요도 없고, 개발자 커뮤니티가 알아서 버그도 찾아주고. 근데 반대쪽 논리도 있어. 학습 데이터에 저작권 이슈가 걸려있으면 공개 자체가 법적 리스크고, 모델 가중치 공개하면 악용 가능성도 있고. 회사 입장에서는 수천억 들여서 만든 걸 그냥 풀어버리면 경쟁력이 뭐가 되냐는 거지. 개인적으로는 결국 핵심 모델은 폐쇄, 주변 도구/프레임워크는 오픈소스 이런 식으로 갈 것 같긴 한데. 근데 유출이 계속 반복되면 "폐쇄해봤자 의미 없다"는 인식이 퍼져서 오픈소스 쪽으로 더 기울 수도 있을 것 같고. 솔직히 나는 프론트엔드 개발자라 직접 대규모 모델을 다루진 않지만, API 연동하면서 느끼는 게 있어. 오픈소스 모델이 점점 좋아지면서 굳이 비싼 API 안 써도 되는 영역이 늘어나고 있거든. 사이드 프로젝트에서 오픈소스 모델 로컬로 돌려본 적 있는데, 생각보다 쓸만해서 놀랐음. 결론은 없고 그냥 느낌적인 느낌인데, 코드 유출이 반복되는 건 단순히 보안이 허술해서가 아니라 이 산업 자체의 구조적인 문제라는 거. 인력 이동 속도, 연구 문화와 기업 이익의 충돌, 개발 환경의 특성. 이게 다 맞물려 있어서 어느 하나 고친다고 해결될 문제가 아닌 것 같음. 다들 어떻게 생각해? AI 회사들이 결국 오픈소스로 갈 수밖에 없다고 보는지, 아니면 보안을 강화해서 버틸 수 있다고 보는지 궁금함.

댓글 5

댓글을 불러오는 중...